近日,“人工智能乱编坑惨大学生”这件事以及“如何防止 DeepSeek 乱编文献”这件事,相继在网络社交平台上成为热门话题。
人工智能(AI)在教育中的应用日益增多。不少学者存有担忧,AI 生成的虚假学术成果有可能扭曲人对科学方法论的理解。这种虚假成果会削弱“假设 - 验证”的科研逻辑训练。AI 通过算法推送制造的信息茧房,其中甚至包含 AI 谣言,这些会形成逻辑闭环。这将会对青少年独立思考和批判思维的培养产生影响。业内人士提到,只有理解了 AI 思考的模式,才能够让教育应用中的 AI 回归到教育本身的目标。
——编者
生成式 AI 正在迅速进入教育领域。传统教育手段存在智能化程度不足和效率低下的问题,而大模型等生成式 AI 能够在一定程度上辅助教师进行知识技能传授以及答疑解惑等工作,所以它被寄予了厚望。当前,我国的教育正处在高质量发展和转型的重大关键机遇期,生成式 AI 的出现为其带来了全新的可能性。
可以说,教育的高质量发展和 AI 技术的深度应用之间有着紧密的联系。教育要实现高质量的转型发展,就必然需要 AI 等先进技术进行大规模的应用。生成式 AI 凭借其先进且庞大的知识储备以及认知能力,为教育的高质量发展奠定了必需的技术基础,也让教育的智能化转型具备了可能性。
通过这些方式,AI 能促进教育公平。
如何确保先进技术人人善用,而非滥用?
在教育领域,越来越多的人士开始留意 AI 在教育应用方面的两面性。近期,像具有深度思维能力的大模型,例如 OpenAI 的 O1 以及 DeepSeek 的 R1 等,这些模型已经在一定程度上拥有了类似人类的主动反思能力。它们尤其能够依据提问去揣测意图以及了解提问者的知识背景,进行全面的思考、细致的思考以及深入的思考,并且在反思之后生成答案,以此提升生成内容的质量与可信度。从某种程度来看,深度思考大模型已经展现出以往只有人类才具备的那种“深思熟虑”以及“三思而后行”的良好品质。
AI 具有反思能力,这使得 AI 赋能教育发展过程中的机遇与挑战被进一步放大了。
人类的主动反思能力是很值得珍视的。教育学家杜威认为,教育的核心内涵就是培养学生的主动反思能力。当 AI 在一定程度上拥有了人类的这种能力,并且有可能进一步发展出各种专业思维能力之后,AI 在教育中的应用会进入一个全新的、复杂而微妙的阶段:其一,它为教育的提质增效赋予了新的力量,成为教育中更先进的助力工具;其二,具备深度思考能力的大模型若在教育中被错误使用甚至过度使用,对学习者的心智成长产生的负面效果会更加明显,从而使 AI 成为教育的破坏力,而不是教育的推动力。这是我们需要深入分析、严肃研判的问题。
先进技术在人类社会中呈现出“双刃剑效应”,这是早有先例的。枪支是先进技术和先进能力的代表之一,与传统武器相比,人类能够借助枪支更好地保护自己。然而,我们也必须承认,枪支存在着巨大的破坏力。如果枪支泛滥,人人都能轻易获取,那么势必会给社会发展带来过多的不确定因素和不可控因素。
AI 在发展,它在教育中也有应用,这将遇到类似的困境。先进技术是人人都可以使用的,然而,我们怎样才能保证大家能够好好地利用这种能力呢?而不是滥用或者误用它。
小学生在回答问题前习惯用大模型解答或参考,可能会丧失独立思考能力。眼下,许多大学生在大量使用生成式 AI 的各种功能,像文字润色修改、论文构思、报告撰写等。时间久了,能独立完成一篇论文的学生还有多少呢?这种独立的论文构思与撰写能力以及相应的科研能力,难道是高等教育可以放弃的吗?
AI思考与人类思考之间的差别,究竟是什么?
深入理解 AI 思考的本质后,能够发现,它依然是通过词元的概率组合来模拟人类思考的概率计算过程。人类的思考过程具备复杂性与多样性,其中既有隐秘且直觉式的快速思考,又有借助语言和符号来进行的具有意识、主动性以及显性化特征的缓慢思考。一个真实的人,其思考过程或许会多次将两种思维方式混合在一起,在不知不觉中就完成了多种不同思维方式的交替运用以及复杂转变。然而,当下的大语言模型所达成的思维过程依然是依托于基于语言与符号的统计相关性计算,它的本质和人类的思维相差得非常远。
人类社会的思维方式具有多样性。不同语言的种族以及不同文化的人群,对于同一个问题的思维方式各不相同。日常的思维方式和专业的思维方式也不一样,宗教的思维方式与科学的思维方式更是差异巨大。相比之下,DeepSeek 的 R1 的思维方式呈现出明显的学术化和专业化思维倾向,难以达到人类思维的多样化水平。
AI 思考与人类真正的专业思考存在很大差距。AI 的思考看上去很全面,似乎面面俱到,但它或许会忽略人类思考中的很多隐性要素。人类思维是复杂且隐秘的,人类在思考时可能会运用许多连自己都难以清晰表达的因素。许多专家在对问题进行研判时,存在着诸多难以用言语表达清楚的要素。正因如此,人类知识的传承不能仅仅依靠书面的传授方式,而必须通过言传身教这一重要途径。那些难以用言语表达的经验,往往只有通过言传身教才能够得以传承。
我们必须对 AI 的思维过程和结果保持高度的批判意识。AI 的思考很有可能会犯错,进而对学生产生误导作用。AI 思考的很多方式可能仅在统计意义上是合理的,但不一定是在特定情境下最适宜的思考方式。
事实上,有越来越多的研究显示,大模型进行深度思考时,可能会导致幻觉率上升。这意味着,在大模型看似周密且严谨的思维过程中,植入一些常识错误和事实错误的可能性正在增大。人类思维的正确性与合理性,不仅仅取决于大脑的能力,人类的身体对世界的感知与体验,也在一定程度上为其开展合理思考提供了不可或缺的保障。AI 在身心协同方面与人类存在差距,它难以全面触及和理解人类社会现实世界的各个方面,所以 AI 的思维出现错误是很正常的。我们需警惕 AI 思维犯错可能导致的“认知陷阱”,就如同导航系统虽越来越可靠,但偶尔也会出错并产生误导。
AI无法理解人类思维的留白之慧?
AI 思考存在过度全面的倾向。因为有海量知识和数据的支持,AI 很擅长把不同因素关联起来解决问题,所以它内在地带有“过度全面”的倾向。例如,当有“请介绍 DeepSeek R1”这样一个简单提问时,R1 可能会从用户意图、公司背景、产品特性、使用场景等多个维度进行深度思考,进而形成长篇大论。而大部分情形下,一句话的简单回答足以让大部分提问者满意。
事实上,人类思考通常是能够抓住主要矛盾和关键因素的高效思考方式。它不是那种一味追求全面的平庸式思考。AI 看似在进行全面思考,但实际上背后隐藏着一种认知能力缺失的无奈与无力。因为 AI 往往无法抓住解决问题的关键所在。同时,AI 似乎也无法理解人类思维所具有的缺陷之美以及留白之慧。
AI 思维存在着明显的同质化情况。我们询问 AI 关于教育领域的影响时,不同的模型常常倾向于给出结构和内容很相似的回答。比如,它们经常引用“认知脚手架”理论当作理论框架,反复把可汗学院当作技术应用的范例,并且习惯性地引用苏格拉底的“产婆术”或者柏拉图的“洞穴隐喻”等哲学典故来构建论证。
这种现象表明,AI 在面对相似问题时,其思维过程呈现出一致性,例证选择也呈现出一致性,理论应用同样呈现出一致性。这种一致性并非是因为独立思考后达成的共识,而是由算法的模式识别以及大规模语料的训练所导致的统计概率结果。
从认知科学的角度来看,AI 的“思考”实际上是对人类已有的知识体系进行重新组合和再次呈现,它缺少真正的创新以及思想方面的多样性。如果我们人类轻易地接受并且依靠 AI 生成的思维成果,那么社会整体将会遭遇思维趋于相同的严重危机。这种风险在学术研究和教育领域较为突出。若大量学生和研究者运用相同的 AI 系统来获取思路与观点,那么就会不可避免地致使知识生产的多样性减少,创新动力也会被削弱。
在教育应用中,我们需要充分认识到人机之间存在差异。要合理地为 AI 定位其角色,既要让它发挥在知识传递以及思维辅助方面的优势,又要避免它给学生的独立思考能力和创造力带来潜在的负面影响。在实践里,我们得构建起人机协同的新型教育模式。AI 要承担知识传授以及基础训练的部分工作,与此同时,教师要更多地把精力放在学生的价值引导、情感互动以及创新思维培养上。教育工作者得引导学生恰当地使用 AI 工具,把它当作思考的辅助,而不是替代物,要保持批判性思维,并且通过人机协作来发展更高层次的认知能力。同时,要对 AI 技术在教育领域的应用进行伦理规范的加强以及安全监管的强化。教育一直都应该把培养学生的核心素养和思维能力当作教育的根本目标。AI 在教育中的应用不可以偏离这一根本目标。
AI是教会学生还是教“废”学生?
近两年,很多高校都制定了关于大学生使用 AI 工具的规定。怎样合理地确定 AI 的使用范围呢?怎样避免因使用 AI 工具而遭遇学术不端的风险呢?怎样维护学术诚信,保障学生的成长呢?一些已经发生的真实案例以及研究成果,值得业内一直关注和探讨。
在过去的一年当中,立陶宛的维尔纽斯大学做出了开除 10 名学生的举动。这些学生是因为在作业以及毕业论文的撰写过程中,存在不当使用 AI 的行为而被开除的。具体表现为他们未对使用 AI 的情况进行明确的说明,也没有进行相应的披露。
明尼苏达大学出现了类似情况。学生指控学校在学术纪律处理过程中存在管理不善和歧视行为。
研究发现,AI 对学生和教师的决策能力有显著影响,还会让学生变得懒惰。使用 AI 技术的教师和学生,会逐渐失去自己做任务的兴趣,同时也会逐渐导致人类决策权的丧失。随着 AI 的使用和依赖不断增加,人脑的思维能力会被自动限制。
沃顿商学院的副教授伊森·莫里克及其同行邀请波士顿咨询集团协助开展研究,有近 800 名波士顿咨询的顾问参与了该实验。这些顾问被分成了两组,其中一组按照传统方式进行正常工作,另一组则必须使用 GPT - 4 。
发现普通任务中,使用 AI 组有显著优势。然而在另一项精心设计的、AI 无法得出正确答案的任务里,人类顾问无需借助 AI,其正确率为 84%,而使用 AI 组的正确率在 60%到 70%之间。
研究者们认为,AI 十分强大,能够较好地完成绝大部分工作。正因如此,人类在不知不觉间给予了 AI 很多信任。然而,如果问题超出了 AI 的能力范围,这种信任就有可能导致严重的错误。
(作者为复旦大学教授、上海市数据科学重点实验室主任)