今年9月,中国科学院院士、清华大学人工智能研究院名誉院长张钹在ISC.AI 2024第十二届互联网安全大会的演讲上表示,当前人工智能还没有理论,只有发展出来针对的模型和算法,它们都是针对特定领域的,软件或硬件也都是专用的,市场很小,因此到现在为止还没有发展出一个大型的人工智能产业,问题就出在这里。
中国科学院院士、清华大学人工智能研究院名誉院长张钹
张钹院士现年已经89岁高龄,过去几十年里,他在清华大学培养了一批人工智能人才,是中国人工智能学科的奠基人之一。当前不少火热的“清华系”大模型企业如生数科技、智谱AI、面壁智能、Kimi等,均受益于在清华打下的技术基础,核心技术人才或直接或间接师承于张钹。本次演讲,张钹院士不仅指出了当前人工智能技术存在的缺陷和问题,也给出了未来改进的方向。
张钹院士认为,由于理论的限制,人工智能在前期阶段必须与具体应用领域相结合才能发展。因此,这一时期的人工智能被称为专用人工智能,即“弱”人工智能。然而,他也指出,目前基础模型在语言问题上已经实现了通用化。在考虑基础模型时,我们需要关注其三大能力和一大缺陷,这是今后产业发展的出发点。
这三大能力分别是:强大的语言生成能力、强大的人机自然交互能力,以及强大的举一反三能力。张钹院士解释,大语言模型的语言生成属于开放领域,能够产生多样化的结果,且所有输出人类都能理解,即便是“胡说八道”,我们也能理解其胡说的内容。这一点非常重要,因为它标志着人类与机器在开放领域进行自然语言对话的目标已经实现。
然而,大模型也存在一大缺陷,即“幻觉”。由于我们要求大模型具有多样性的输出,因此它必然会产生错误。这种错误与机器通常产生的错误不同,它是大模型本身的错误,是一定会发生的,且我们难以控制。因此,在考虑大模型的应用时,我们需要特别注意这一点。
结合这三大能力和一大缺陷,张钹院士总结出了大模型当前适合应用的场景:对错误的容忍程度要高的领域。他指出,从产业情况来看,大模型的应用呈现“U”字形分布。前部的规划、设计要求内容多样性,后部的服务、推荐也要求多样性,同时对错误的容忍程度较高。而中间部分则需要根据情况来考虑是否使用大模型。
尽管大模型存在问题,但张钹院士仍然认为模型是一定要用的。因为有了模型底座后,应用的效率和质量一定会提高。他比喻说,过去的应用场景我们是在空的计算机上开发软件提供服务,空的计算机相当于文盲;而现在有了大模型,平台至少是个高中生,开发效率一定会提高。
张钹院士还深入分析了幻觉出现的根本原因。他认为,模型的根本限制在于目前所有的机器所做的工作都是外部驱动的,人类教它怎么做,而不是自己主动做。同时,它生成的结果受提示词的影响非常大,这与人类是在内部意图的控制下完成工作有明显的区别。
对于大模型的未来发展,张钹院士提出了四个方向:与人类对齐、多模态生成、AI Agent(智能体)的概念,以及具身智能。他解释,大模型需要与人类对齐,才能在人类的驱动下改正错误,实现自我进化。同时,多模态生成对产业的发展非常重要,因为大模型不仅可以生成文本,还可以生成图像、声音、视频、代码等。而AI Agent的概念则是要把大模型和周围的虚拟环境结合起来,让环境提示它的错误,从而有反思的机会去改正错误。最后,具身智能则是通过加上机器人,让大模型在物理世界也能工作。
张钹院士还强调,发展第三代人工智能必须建立理论。因为大模型的存在没有理论可以解释,所以才会引起各种困惑和误解。如果机器发展规模越来越大,而理论不能解释其原理,就会引起恐慌。因此,得到安全、可控、可信、可靠、可扩展的人工智能技术,是这一领域发展的当务之急。
![](http://n.sinaimg.cn/finance/pc/cj/kandian/img/article_pic05.png)
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有