本报记者 李立 北京、上海报道
当人工智能(AI)掀起新一轮技术浪潮,如何让经济与社会享受技术红利,同时对技术实现有效驾驭与安全治理,正在引起学术界、行业头部公司以及职能部门的高度重视。
“网上有一个说法:‘国外一开源,国内就创新。’随着人工智能的研发和应用持续推进,大模型发展从量变到质变还存在多重挑战。”日前北京市互联网信息办公室副主任潘锋,在阿里巴巴主办的“大模型技术发展与治理创新研讨会”上表示,国内大模型发展还面临原生程度不足、内生安全不足与重生能力不足三重挑战。
《中国经营报》注意到,阿里巴巴集团现场发布的《大模型技术发展及治理实践报告》集中披露了AI技术带来的治理与安全方面的重要挑战。
据阿里研究院院长袁媛介绍,Hugging Face社区上,目前全球开发者基于阿里巴巴自研“通义”开源模型二次开发的衍生模型已经突破8万个。“通义”比肩美国Meta的LlaMA,影响力稳居全球开源模型的第一阵营。如何在AI飞速发展的同时,实现发展与治理并举,作为跑在前面的平台公司,阿里巴巴正在尝试给出通用解决方案。
机遇与挑战并存
人工智能是近两年来当之无愧的最热领域。据此前发布的《全球数字经济白皮书(2024年)》,截至2024年第一季度,全球AI企业近3万家,美国占全球的34%,中国占全球的15%。
截至目前全球人工智能大模型有1328个(包含同一企业、同一模型的不同参数版本),美国大模型数量位居全球第一,占44%,位居第二的中国大模型数量占比为36%。
其中北京在国内大模型产业中居头部地位。据潘锋介绍:“今年以来,北京推进第八批、第九批生成式人工智能大模型通过备案并上线,备案大模型数量达到105个。北京的头部大模型企业占全国一半以上,已经赋能超过1.4万家企业,辐射带动的能力和作用凸显。”据了解,过去一年,AI大模型的行业应用步伐加快。中国一汽、联想、微博等30多万家企业已经接入通义大模型。
不过,潘锋认为,国内大模型距国际顶尖水平具有一定差距,从量变到质变存在三重挑战。
一是原生程度不足。大量国产模型基本上采用国外开源架构进行训练。网上有说法,“国外一开源,国内就创新”,自主创新基础不牢。由于国外原生创新是用国外大量的语料进行培训的,再加上高质量的语料和高性能算力供给不足,导致国内大模型距国际顶尖水平还有一定差距。
二是内生安全不足。传统大模型安全保障主要采用安全围栏方式,依靠过滤、打补丁等方法来限制模型的输入输出,没有从训练语料和模型架构方面真正解决内生的安全问题,需要充分发挥行业的支撑作用,进一步研究大模型的相关机制,完善治理体系。
第三是重生能力不足。潘锋认为,在当前AI行业的“百模大战”背景下,不少企业还没有找到可盈利的商业模式,面临比较大的生存压力。“在对话搜索场景面临竞争红海的同时,自动驾驶、办公、教育、医疗等垂直领域加速释放潜能,但还没被充分挖掘。”潘锋表示,“政府部门将建立健全大模型研发、上线、运行等全生命周期管理体系,统筹推进算力、数据等基础要素供给,协同各方夯实人工智能发展的基础。”
发展与风控并行
如何在火热的赛道上发展“负责任的技术”,发展与风控并行?
阿里巴巴现场发布的《大模型技术发展及治理实践报告》指出,大模型技术特征可能带来新的安全风险:输入方面,训练数据中的不当内容进入模型仍是主要风险;模型方面,幻觉问题爆发带来误导用户的风险;此外在应用方面,超长技术引发全新的诱导攻击;输出方面,生成内容越发逼真加剧误用、滥用、恶意使用风险。
AI怎样更好地兼顾发展和安全?中国社会科学院法学研究所网络与信息法研究室副主任周辉认为,发挥好基础模型平台的自我治理或者平台治理作用,有特殊重要性。
“在全球领域可以看到围绕基础模型的治理,更多还是在基础模型平台自身。围绕风险最高质量的论文,不是来自于大学和研究机构,而是来自于Open AI这样的AI企业内部的科研人员。”周辉指出,一些具体治理实践比如治理架构的搭建,谷歌、阿里巴巴等已经搭建了相对成型的治理体系。
除了提供通义大模型,持续搭建安全架构,阿里巴巴也在创新治理思路与解决方案,实现发展与治理并举。
据阿里巴巴集团副总裁钱磊介绍,阿里巴巴坚持云和AI协同发展,过去一年高强度投入人工智能基础设施建设,推动算力成本持续降低,“通义千问”API调用价格一年间下降了97%。与此同时,阿里巴巴努力提高自研基础模型“通义”系列的能力,坚持全尺寸、全模态开源,促进技术创新,让用户能够分享到云+大模型的技术红利。
“围绕着大模型研发、应用全生命周期,阿里巴巴全面部署了安全保障措施。”据钱磊介绍,具体分两步走:一是提高模型内生安全能力。在数据采集、处理阶段强调源头管控,进行严格的数据筛选和数据安全标注,在模型训练和设计阶段通过添加安全语料、设置安全任务等方式提升模型的内生安全能力。
二是加强外围护栏能力。在模型部署应用后,通过外围护栏进一步提升大模型在应用场景中的安全性,通过日常巡检验证结果是不是能够达到预期,是不是可靠、可信、可用。通过持续发展、迭代安全围栏,把围栏扎得更厚。
记者注意到,此次是阿里巴巴连续第三年发布《AI报告》,贯穿三年的主线是“负责任的技术”。“‘负责任的技术’有两层含义:一是‘守己’,负责任地坚守科技伦理和安全底线;二是‘利他’,作为大型科技公司,阿里巴巴有责任发展先进技术,促进行业发展。”钱磊进一步表示。
现场周辉也特别指出,在发展与治理并举的过程中,既要充分发挥平台作用,也需要必要的激励机制。“平台毕竟是商业体,要考虑到它在商业利益和社会利益之间选择适当平衡。”
周辉建议,首先从监管角度,要建立完善的监管机制;其次是动力保障,促进平台实施安全治理,需要必要的激励措施来增强安全实效。
此前曾经有全球头部科学家呼吁头部AI企业至少要把30%的资源,主要是算力资源要投入到安全具体的保障之中。针对相关企业,是否可以对其算力投入进行相应的税收抵免和优惠,保证其投资有更好的长期执行方式;包括优化平台的信息披露机制,做得好的平台能够得到更好的社会美誉度,有利于其市场推广。
“此外需要技术能力的支撑,鼓励人工智能安全治理的技术创新,让AI来治理AI,同时积极强化用户教育。”在周辉看来,人工智能相当一部分风险是人工智能基础模型本身,除了黑箱因素,在用户误用和滥用甚至非法使用过程中会进一步放大或产生新的不可控风险,对用户的教育和在基础模型及用户的交互中怎样提高用户合规意识,对于有效把控人工智能在基础模型场景下的发展至关重要。
(编辑:吴清 审核:李正豪 校对:颜京宁)
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有