夏韵、孙明春|人工智能中的安全隐患

夏韵、孙明春|人工智能中的安全隐患
2021年05月02日 22:04 香港奇点财经

人工智能技术应用越广、对各行各业的渗透越深,经济和社会运行对技术和数据的依赖性就越强,未来面临的安全挑战也就越严峻。人工智能领域的安全问题包含方方面面,系统安全、数据安全、技术安全、不当使用、通过恶意攻击进行犯罪活动等都属于安全问题的范畴。安全问题也是企业ESG实践领域的常规议题,保障员工的健康与安全、产品服务安全,防控安全风险事件,都是企业应尽的社会责任和实现长期价值的必要条件。

人工智能应用有可能因为技术的复杂性而存在安全隐患。以深度学习算法为例,其运作方式是:机器并非依靠输入的指令运行,而是基于输入的数据、通过自主学习做出智能决策。由于技术本身的复杂性,即便是最初的设计人员,也难以解释算法决策的过程,于是形成“算法黑箱”;这也导致算法可能会偏离设计的初衷,从而形成安全隐患。例如,在智慧医疗应用场景中,如果算法做出了诊断,而医生和设计人员却无法知晓算法决策的依据和逻辑,就无从判断其失误的可能性,那么人工智能的可信性和安全性便无法保障。

人工智能的设计缺陷、技术漏洞也可能导致伤害性后果,甚至威胁人身安全。近年全球曾发生多起自动驾驶安全事故。Uber无人驾驶汽车曾在道路测试中撞倒行人致死,特斯拉自动驾驶汽车也发生过司机伤亡事件。技术漏洞是引发这些安全事故的关键因素之一。例如,在一起事故中,特斯拉汽车因识别技术不成熟,将白色车厢误判为天空。

除技术原因外,法律法规不完善、管理缺位、防护措施不足,也会成为人工智能技术应用中出现安全隐患的影响因素。例如,近年全球无人机扰航事件频发,严重时导致机场关闭,数万名旅客滞留。这些事件发生的直接原因虽然是无人机操作者所致,但是通过有效防控机制(如引入侦测预警系统、制定应急计划),亦可降低安全事故发生的概率及危害性。

人工智能的安全问题引发了人们的担忧,也是各方最为关注的话题之一。国际组织、政府机构和企业提出的人工智能伦理原则,几乎都对这一议题作出回应并达成共识,即人工智能技术研发应用必须以“安全可控”为前提、遵循“公开透明”、“可解释”等原则。以欧盟的《可信赖的人工智能伦理指南》为例,其针对人工智能设计与研发阶段出现的技术缺陷,提出了“可解释性”、“测试与验证”、“建立质量指标体系”等原则;针对使用中的管理和监管问题,提出“健全监管”、“通过治理框架实现问责制”等原则。这些原则也为企业面对人工智能领域的安全挑战、建立相应的管治框架提供了参考。

就ESG管治和实践而言,企业可着重从两方面思考,一是如何有效防控人工智能设计与应用中的安全隐患,二是如何保障企业自身、员工、客户及其他利益相关方的安全。首先,从技术安全的角度来看,科技企业应将“安全可控”作为人工智能研发和设计的首要原则,保障技术的透明度、可解释性,并将提升人工智能应用的安全性作为努力的目标。例如,创业公司OptimizingMind为解决算法黑箱难题,致力研发可以观测算法决策过程的技术。而其他企业作为应用方,有责任了解人工智能技术存在的安全隐患,审慎评估并慎用。其次,从管理安全的角度来看,企业应从保障利益相关方的安全和自身的稳健经营出发,建立相应的人工智能安全管理系统,或将相关的安全问题纳入公司现有的风险管理体系。(本文编辑:卜彬彬)

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部