吴玮杰:大模型进入“反思与沉思”时代 AI将深度变革教育形态

吴玮杰:大模型进入“反思与沉思”时代 AI将深度变革教育形态
2025年04月14日 16:47 中国经营报

本报记者 李媛 北京报道

4月11日,“AI赋能教育:探索转型升级与应用实践的新路径”研讨会在北京国谊宾馆召开。会议由中国经营报社与天立国际联合主办,中国社科院新闻与传播研究所媒介传播与青少年发展研究中心协办,邀请了多位来自政策、科研、企业与教育一线的专家学者和从业者,围绕人工智能特别是大模型技术在教育领域的融合与落地进行了深入探讨。

作为国内领先的大模型企业代表,智谱副总裁吴玮杰在论坛中围绕“大模型如何系统性赋能教育场景”这一主题进行了深入阐述,并从自学习的“反思和沉思”能力出发,描绘了AI重塑教育生态的路径图,强调了内容安全、伦理合规以及未来智能体与开源生态对教育产业的深远影响。他提出,大模型的发展本质上正走向“与人协同、以人本位”的方向,而教育恰恰是实现这一目标最具实践潜力的场景。

从“反思”到“沉思”:AI模型能力跃升,助力教育进入深水区

吴玮杰在本次论坛上系统阐述了他对大模型发展路径的观察以及其在教育领域深层赋能的可能性。作为智谱的核心代表,他以大模型原厂商的视角为现场专家带来了一场兼具深度与现实感的“大模型应用实录”。

“大模型的发展,其实可以大致分为三个阶段。”吴玮杰一开场便为现场嘉宾梳理了AI模型的演进脉络,“第一阶段是预训练本身;第二阶段是把预训练里的知识跟文本、图片和用户意图对齐的过程,本质上是激活第一阶段预训练学到的知识;而第三阶段,是我今天想重点讲的‘自学习’阶段。”

吴玮杰表示,在自我学习阶段,大模型不再仅仅是依赖过去已有的数据,而是会更像人类学习知识和解答问题的形式,具备了“反思”和“沉思”的能力。所谓“反思”,是模型针对确定性问题,通过多轮推理、自我回顾和路径重构,反复思考得出更精确的答案;而“沉思”则是在面对不确定、开放性强的问题时,模型会与外部环境持续交互,生成具有深度的分析与研究结论。“我们在过去这几天就分别推出了代表‘反思’的GLM-Zero模型和代表‘沉思’的GLM-Z1 Rumination模型。”吴玮杰介绍道。

他举例说,在过去,大模型解答数学题的场景也会有出错的时候,但通过反思模型,AI可以用不同的方式求解,结束后还可以把结果带回到题目中去验证,一般模型做数学题能到60分,而反思模型就能做到90分。“这种一题多解、数形结合的能力,正是K12教育场景中极为需要的。”吴玮杰表示,“我们和天立教育的合作,就正是想要将这种反思能力应用于实际课堂中。”

而“沉思”的能力,则有望服务于更高阶的教育目标,比如学术研究、学生创新能力的激发等。他强调,这项技术的出现,使AI从“答题助手”升级为“学术思考伙伴”。“我们最近测试了一个任务,给模型一个开放性的问题,比如‘人工智能未来对高等教育制度的影响’,GLM-Z1可以在二三十分钟内输出一份结构清晰、内容扎实的研究报告。”吴玮杰补充说。

他进一步指出,大模型的这些能力升级不仅是技术层面的突破,更是教育实践中的里程碑。在传统教育中始终难以兼顾的“个性化”“规模化”“公平性”三者之间,大模型有望打破“不可能三角”的制约,为教育提供新的解法。“通过AI,我们能为每一个学生提供个性化的支持,而AI的扩展性又保证了它在规模上的可行性,最终,我们能够以较低的成本将优质资源更公平地分配。”

他特别提到,智谱一直非常重视与教育领域的合作,尤其是在心理支持方面的探索。公司近期就在一所中学设立了AI心理对话室,学生可以进入其中与模型自由交流、排解情绪,甚至表达无法向老师和父母吐露的烦恼。“我们发现学生们更愿意向AI倾诉,而不是人类心理医生或老师。”吴玮杰说,“这说明模型可以成为他们重要的情感陪伴者和倾听者。”

在吴玮杰看来,AI大模型正从一个技术工具转向为“认知伴侣”,其在教育中的角色也随之发生深刻变化。他总结道:“‘反思’模型提升的是逻辑与精度,‘沉思’模型拓展的是深度与广度,这两个能力的结合,将构成AI对教育全方位支持的双翼。”

安全、伦理与治理:教育AI化必须坚守底线与边界

在热烈探讨技术能力的同时,吴玮杰也没有回避AI在教育领域所面临的伦理、内容安全与合规挑战。他坦率地指出,目前大模型在实际应用过程中仍存在许多值得警惕的现象。“特别是在教育这个场景中,AI直接与学生、家长互动,容不得半点疏漏。”

一个典型的现实案例是部分教育科技公司使用AI合成“名师声音”,让模型以知名教师的语气、语言习惯输出答案,以提高家长的接受度。“这种方式从技术上完全可行,但在伦理上就需要极为审慎。”吴玮杰强调,“我们必须提前提示家长,这只是一个数字人,否则会造成对现实人物的误解,甚至引发法律风险。”

他还提到,内容安全问题正在成为AI领域的“灰犀牛”。传统对AI安全的讨论多集中于数据安全和隐私保护,但生成内容本身也可能存在风险。“比如一个学生问模型‘如何逃避考试监管’,如果模型没有足够的安全过滤机制,就可能生成有害信息。”他说,“内容安全机制应成为教育AI化的‘第一防线’。”

吴玮杰透露,智谱在模型预训练和后训练过程中,投入大量资源建设“安全围栏”,确保输出内容在可控范围内。“我们为每一个训练任务设定不同的安全引导策略,引导模型从结构性角度理性分析,避免情绪化、结论化的答案。”

除了内容本身的管控,大模型所依赖的数据来源同样涉及版权、确权等复杂问题。“过去大家通过爬虫采集网页数据,这在很多国家是明确违法的。但如果今天用一个AI智能体,模拟人类在网页上‘看一遍’,再将其学会,这是否就不算侵权?”吴玮杰提出了一个极具争议性的问题。

他坦言,目前很多此类行为仍处于灰色地带,既无明确法律界定,也缺乏行业标准。在他看来,需要国家层面尽快制定大模型应用的法律框架与行业准则。吴玮杰建议:“比如哪些信息可以用于训练?怎样认证‘可信内容’?学生生成的数据是否属于隐私?这些问题都不能再拖。”

在谈到AI教育化的未来方向时,吴玮杰特别提到“智能体”和“开源生态”两个关键词。他表示,2025年将成为“智能体元年”和“开源元年”,智谱将开源更多模型,推动整个产业生态更加开放。“越来越多公司对中型模型感兴趣,因为它们在推理能力、部署成本之间找到了更好的平衡。”他说,“教育场景对模型的要求非常具体,很多时候并不需要超大模型,而是要‘合适’的模型。”

最终,他将本次演讲的观点落脚在与天立教育的合作意向上:“我们未来和天立的合作不仅是场景化落地,更是安全、合规、可控地进行大模型应用创新。教育不是试验田,但也不该落后。AI赋能教育,真正考验的是我们如何用技术守住人文精神的底线。”

(编辑:于海霞 审核:孙吉正 校对:颜京宁)

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部