黄铁军:AI幻觉不能“一棒子打死”

黄铁军:AI幻觉不能“一棒子打死”
2024年04月28日 18:47 中国电子报社

4月28日,北京大学计算机学院教授、北京智源人工智能研究院理事长黄铁军在第十七届中国电子信息年会上发表演讲时表示,“幻觉”是人工智能创造性的体现,人类要想创造比自身更强的智能体,就不要降低AI幻觉率,否则人工智能将与巨大的资源检索库无异。

所谓AI幻觉,指的是生成式人工智能模型产生的并非真实存在、不准确的信息。为降低AI幻觉产生概率、提升大模型准确率,当前产研界已推出存在多种不同的解决方案。

但在黄铁军看来,要认可大模型理解世界的能力,不能简单地将AI幻觉“一棒子打死”,正是因为幻觉的产生才带来了创新的可能性。与人类通过五感了解世界的方式不同,人工智能了解世界的方式是通过自然语言的语义关系,例如通过理解人类语言中词与词之间关系的远近来理解人类语言。当神经网络达到一定的规模,人工智能对不同概念的关系理解越来越丰富,便具备了生成内容的能力。   

而AI生成的内容中不符合事实的情况,黄铁军认为不应该将其视为“幻觉”,他认为这是生成式人工智能的想象力。如果通过控制的方式使人工智能不具备想象的能力,那么所谓生成式人工智能就与人类巨大的资源检索库无异,也就不具备创造性了。

之所以要保留人工智能的创造性,是因为人类需要比自己更具创造力的智能体。他认为,人类的能力是有上限的,人类的智力存在天花板,但人类要想在广阔的宇宙自然界生存,还有大量难以仅仅通过自身能力解释和理解的问题,也需要人类所不能企及的想象力。

根据人工智能的智能能力,黄铁军将人工智能分成四种类型:专用人工智能、通用人工智能、自主人工智能和超人智能。其中专用人工智能被称为“弱人工智能”,指完成特定智能任务或解决特定问题的人工智能,迄今出现的人工智能都是弱人工智能;通用人工智能是指人工智能所有方面都达到人类水平,能够自适应地应对外界环境挑战、自主完成所有任务的人工智能,即人类水平的人工智能;自主人工智能是指能够自适应地应对外界环境挑战的人工智能,也被称为动物水平的自主人工智能;超人智能是指人工智能的各个方面都超越人类。

黄铁军说,《北京AI安全国际共识》在今年3月签署,规定了人工智能的发展需要划一条不可僭越的红线,包含五个方面:第一是任何人工智能系统都不应在人类没有明确批准和协助的情况下复制或改进自身;第二是任何人工智能系统都不能采取不当地增加自身权力和影响力的行动;第三是所有人工智能系统都不应提升其使用者的能力使其能够设计大规模杀伤性武器,不得违反生物或化学武器公约;第四是任何人工智能系统都不能自主执行造成严重财产损失或同等伤害的网络攻击;第五是任何人工智能系统都不能有持续引导其设计者或监管者误解其僭越任何前述红线的可能性或能力。   

而在人工智能不能僭越的红线之内,黄铁军认为应该尽可能提升其智能能力。   

延伸阅读:

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部