大模型
当前,由ChatGPT引发的全球大模型技术竞赛正推动人工智能由专用弱智能向通用强智能迈进,这不仅标志着智能水平的显著提升,也预示着人机交互方式和应用研发模式的重大变革。大模型在各行各业的广泛应用,为第四次工业革命的爆发提供了蓬勃动力和创新潜力。
编辑 | 数据君
近日,阿里云联合中国信息通信研究院等30余家行业单位共同编制发布《大模型安全研究报告(2024年)》。
报告指出,大模型在训练数据、算法模型、系统平台和业务应用等方面面临多重安全挑战。其中包括训练数据的违规获取、含有违法不良信息、数据投毒、质量低下以及缺乏多样性等问题;算法模型则存在鲁棒性不足、出现“幻觉”现象、存在偏见和歧视、可解释性差的风险;系统平台方面,则需防范机器学习框架和开发工具链的安全隐患以及系统逻辑缺陷所带来的威胁。
为了应对上述挑战,报告提出了一系列保护措施,包括数据合规获取、数据标注安全、数据集安全检测、模型内生安全评测、模型鲁棒性增强等。此外,报告还强调了大模型在逻辑推理、任务编排等方面的能力,这为解决网络空间安全瓶颈问题带来了新的机遇。
报告最后展望了大模型技术产业的发展趋势,指出未来大模型将更加深入地融入各行各业,推动产业创新和经济增长。同时,大模型的安全治理将变得尤为重要,需要从技术和制度两个层面同时发力,构建多层次治理体系,以确保大模型的安全可靠应用。
报告主要内容包括:
1. 大模型安全风险地图
为尽可能全面应对大模型领域的基础共性安全挑战,本报告优先对语言、多模态等各类基础大模型系统的安全风险进行系统梳理。与此同时,参考ISO/IEC 5338-2023 《人工智能系统生命周期过程》国际标准,将基础大模型系统抽象为训练数据、算法模型、系统平台和业务应用4个重要组成部分,并通过描绘这四个组成部分面临的重要和一般安全风险,形成大模型安全风险地图,共涵盖21个安全风险。
2. 大模型自身安全框架
为消减大模型面临的基础共性安全风险出发,提出了涵盖安全目标、安全属性、保护对象、安全措施四个层面的大模型自身安全框架,构建了保障大模型安全的整体解决方案。同时,提出训练数据、模型算法、系统平台、业务应用四方面中共计16项安全保护措施。
3. 大模型赋能安全框架
结合行业实践情况,本报告重点阐述大模型在网络安全、数据安全、内容安全三个领域的潜在应用方向。网络安全领域,大模型可应用于安全威胁识别、保护、检测、响应、恢复等多个保护环节中的关键场景。数据安全领域,大模型可应用于数据分类分级、APP(SDK)违规处理个人信息检测等场景。内容安全领域,大模型可应用于文本内容安全检测、图像视频内容安全检测和音频内容安全检测等场景。
报告原文如下
下载请至微信公众号首页私信:0926,有效期3天。
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有