曾毅:人工智能大模型应适度发展,深度治理

曾毅:人工智能大模型应适度发展,深度治理
2023年04月10日 06:49 环球网

近期,人工智能大模型在用户体验上取得了显著提升,发展与应用机遇不断涌现。例如在文本生成领域,人工智能大模型有望基于互联网文本生成针对某个事务相对更全面深入的分析,从而辅助人类更好地利用互联网信息解决问题。在图像生成领域,能够根据文字描述生成以往并不存在的图像以及视频,甚至给人“一图胜千言”的感受。

然而,潜在的发展与应用机遇的井喷也带来诸多隐患。生成式人工智能大模型基于包括个人信息的互联网数据进行内容生成,目前已经出现了模型及其服务侵犯用户个人隐私的案例;人工智能内容生成技术的滥用和恶用,使得越来越多的虚假信息被用于网络诈骗和网络犯罪等场景,对社会信任产生明显的冲击;此外,有些人工智能内容生成系统对社会文化和价值观没有客观的评价和阐述方式,对特定群体的价值观和文化认同也产生了挑战;人工智能内容生成甚至会对危险行为的实施提供建议……支撑人工智能内容生成训练的原始互联网数据、用户对人工智能内容生成系统提出的问题、系统生成式输出结果的三重不可预期性,使得人工智能内容生成面临的风险更加不可控。

由于人工智能大模型迅速广泛的发展与应用,目前的潜在风险并没有留给人类足够的时间准备,就已迅速成为实存风险。人类将如何理解和使用生成式人工智能大模型的输出?潜在风险是什么?现在学术界和社会还来不及讨论,相关的应用就已经大规模进入社会,技术创新和服务的伦理治理却还没有跟上。

我们在发展人工智能内容生成技术的同时,需要开展对人工智能内容生成的深度治理。每一个服务于社会的人工智能大模型与系统,都应当为其设计和实现道德与安全框架,以技术落地和自动化检测与评估等形式,深度融入产品与服务。与发展人工智能技术应用相比,推进人工智能伦理安全的研究不仅同等重要,而且也必不可少。人工智能的研发与服务企业、各级政府监管部门应当尽快建立人工智能伦理与安全委员会,对风险进行实质有效的监管。

近期人工智能大模型的发展,主要依靠的是工程技术的组合创新,同时和海量人工标注与反馈进行深度融合,这跟自然演化锤炼出的“智能”千差万别。在这种情况下,一方面,应当给予人工智能内容生成产品与服务以明确标识,帮助人们识别合成信息。这是因为目前的人工智能还只是个看似智能的信息处理模型,既不具备真正的智能,更无法承担道德的责任,不应当混淆人工智能内容生成与人类生产内容的界限。另一方面,研究结构和机理受自然与人类启发,特别是受脑与心智启发的人工智能,仍应是形成未来真正意义上的人工智能的突破途径。自然演化过程中的优胜劣汰避免掉了诸多潜在风险,科学意义上扩展和延伸自然演化的人工智能探索更合乎社会与生态长远发展的期待。

从现实的视角来看,人工智能大模型的发展和应用机遇仍然是显见的。接下来,中国的前进方向是发展信息处理能力接近世界高水平,而伦理安全方面显著超越当前产品的人工智能大模型。与发展信息处理能力同步,赋能社会服务的每一个人工智能大模型应构建可技术落地的伦理安全框架,并经过伦理安全的自动化检测与评估。在应用层面,由于人工智能大模型目前还存在明确的伦理安全隐患,也只是看似智能的信息处理工具,推进其在不同领域应用的时候,应当把握“人工智能不必无所不在,应适度使用”的原则。对那些用人工智能大模型服务替代人类劳动的尝试,应积极探索人与人工智能在特定工作中的协作模式,而非急于完全替代。

这也提醒我们,对通用人工智能和超级智能潜在风险的前瞻研究应尽早提上日程。虽然目前的人工智能大模型及其发展路径的延伸,难以实现真正意义上的通用人工智能,但目前实存风险就已经超出人类预期,而通用人工智能和超级智能的风险如何应对,现在几乎看不到任何可行的方案。因此人类需要对此尽早准备,避免潜在风险变成实存风险再次上演,到时只会更加措手不及。

总体而言,我们应本着“适度发展,深度治理”的原则,最小化技术发展的伦理安全隐患,并积极主动应对潜在与实存挑战,推进人工智能大模型稳健发展,赋能社会、经济与生态的可持续发展。同时,应积极长远布局,源头创新,在科学意义上取得人工智能发展的真正突破,并以中国的产业创新体系孵化和放大来自中国的源头创新,做好充足的准备迎接人工智能发展的“中国时刻”。(作者是中国科学院自动化研究所研究员,国家新一代人工智能治理专委会委员,联合国教科文组织人工智能伦理特设专家组专家)

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部