设想两名学生正在使用同一个人工智能辅导工具进行学习。两人都在关键时刻收到提示,但其中一人还可以随时请求帮助。谁学得更多?理论上,赋予学生更大的自主权应该能提高他们的参与度和积极性。然而,在实践中,如果缺乏足够的自我调节能力,学生可能会过度依赖AI辅助——这最终可能损害学习效果。
随着AI辅导工具以前所未有的规模提供个性化、按需支持,这已成为管理教育、员工培训和学生学习中最根本的问题之一。研究者招募了200多名国际象棋学员,参与为期12周的AI辅助强化训练项目。学员被随机分配至“系统调控组”或“自主调控组”。两组之间的唯一区别在于该按钮的使用权限。
12周后,能够随时请求AI帮助的学生成绩仅提高了30%,而系统调控组学生的成绩提升了64%。拥有按需AI访问权限的学生学习成效不到后者的半数,对于如此细微的系统设计差异而言,这一效果显著。更引人注目的是,这些学生虽然完全意识到自己对AI的过度依赖,但随着时间的推移,他们对AI的使用却仍在增加。
这些发现的重要性远不止于国际象棋。随着从编程助手到医疗决策支持系统等AI工具在学校和工作场所的普及,用户对何时寻求帮助拥有了前所未有的控制权。我们的研究表明,系统设计中哪怕细微的差异,都可能对人类长期技能的退化产生戏剧性的后果。
为何自主调节的AI使用会阻碍学习
虽然过度使用AI辅助工具会产生负面影响本在预料之中,但其影响程度之大仍需解释。我们的分析指出两种可能加剧学习损失的机制。
首先,按需提供的AI辅助绕过了有益的“挣扎”过程。在自主调节组中,学生在训练赛中的表现显著优于对照组,但这种初期成功是以牺牲长期学习为代价的。当在没有AI辅助的情况下进行测试时,他们的表现远逊于那些曾独自克服困难挑战的同龄人。
这种损害并非在所有类型的辅助中都表现一致。学习损失主要源于学生在“最近发展区”内的问题上寻求帮助,这些题目虽具挑战性,但对其技能水平而言尚可应对。而恰恰是这类题目,通过自主挣扎、试错和针对性反馈,才能带来最大的学习收益。
通过按需解决方案绕过这一过程,学生剥夺了自己本应获得的、能够构建专业能力的宝贵经验。有趣的是,针对琐碎问题(低于其技能水平)或高度复杂问题(远超其能力范围)寻求帮助,对学习几乎没有影响。损害主要发生在AI辅助取代了在适度挑战性问题上进行的富有成效的挣扎时。
其次,自主调节降低了整体参与度。拥有按需访问权限的学生完成的训练游戏数量比系统调节的同龄人少了24%。我们的研究后调查揭示了原因:许多人表示,点击求助按钮削弱了他们的成就感,使训练过程显得不那么有价值。
然而,尽管意识到这一点,这些学生随着时间的推移却越来越依赖人工智能。在训练的第一周,他们每局游戏平均求助约5次。到第12周时,这一数字已翻倍至每局11次。与此同时,处于系统调控组的学生表现稳步提升,最终缩小了与自主调控组同学之间的成绩差距。
这一模式揭示了自我调节的经典失效:即使完全理解其中的取舍,短期便利仍会压倒长期目标。我们的国际象棋学员并非对AI的风险一无所知;他们陷入了一种“能动性陷阱”,即眼前的轻松总能战胜未来的学习。
何时动机重要(以及何时不重要)
我们探讨了学生技能或动机是否会调节这些效应。普遍观点认为,技能更强或动机更强的学习者应更有能力自主调节对AI辅助的使用。但我们的研究结果揭示了一个更为复杂的情况。
学习动机强烈的学生,即那些在研究开始前每周花在国际象棋上的时间较多的学生,在自主调节AI使用时,学习退步幅度明显较小。然而,即使在学习动机最强的学生中,与系统调节的辅助相比,按需辅助仍然会降低学习效果。不过,技能或专业知识并不能提供这种保护。初学者和高级玩家都陷入了过度依赖的陷阱。这一发现与“专业知识能促进更好的自主调节学习”这一主流观点相悖。
设计启示显而易见。部署人工智能辅助学习与培训系统的机构应:
抵制赋予用户无限控制权的冲动。认为更多选择能促进学习的直觉可能有误。教育类人工智能系统应通过算法确定何时提供帮助,重点把握那些能加速学习而非取代学习的时机,从而最大程度地支持学习。
认识到仅靠用户自觉是不够的。我们的学生虽然意识到自己过度依赖AI,却无法克制这种行为。系统设计必须考虑到意图与行为之间的差距。即使用户理解了风险,也不应指望他们能有效地进行自我调节。
审慎考量辅助形式。我们的研究表明,所谓“注意力信号”,即在不提供解决方案的前提下,对关键决策进行提示的警报,既能促进参与度,又不会引发过度依赖。这些信号能促使学习者在关键时刻放慢节奏、深思熟虑,同时保留对学习至关重要的“富有成效的挣扎”。
在监测表现的同时,也要关注参与度指标。在我们的研究中,拥有按需AI访问权限的学生不仅学得少,练习量也更少。参与度下降可能是辅助手段正在削弱而非支持学习的早期预警信号。除了追踪用户在训练期间的进步情况外,还应关注他们是否仍保持训练的动力。
使用人工智能并不必然导致技能退化。风险主要源于辅助手段取代了在适当难度问题上进行的富有成效的“心理挣扎”。通过在这些场景中限制人工智能辅助,而在其他场景中自由使用,生产力提升便不必以技能发展为代价。
走出课堂
无论在软件工程还是医学领域,AI辅助对技能发展都是一把双刃剑。虽然它能帮助简化工作流程并释放认知资源,但过度依赖AI解决复杂问题却会带来负面影响。如果初级员工习惯性地依赖AI生成的解决方案来处理棘手案例,当这些系统遇到意外问题或出现故障时,他们就可能无法培养起所需的基本推理能力。
随着我们将人工智能更深入地融入教育和培训,在设计这些系统时必须考虑到其对人类能力的长期影响。我们研究中的国际象棋学员都是勤奋好学、进步意愿强烈的学习者,他们在人工智能辅助已存在数十年的领域进行训练。如果连这些学习者都会陷入过度依赖的陷阱,那么在学习动机较低或用户对人工智能局限性认识不足的场景中,风险恐怕会大得多。
