人工智能有风险,监管制度需保证

人工智能有风险,监管制度需保证
2022年03月04日 14:38 Techsoho科技智谷

人工智能在人类生活所能实现的力量愈强大,人工智能的监管制度问题也就愈重要,尤其是在与机器结合的背景下,例如:自动驾驶汽车、工厂机器设备、医生为病人进行远程手术的机器人、帮助飞行员导航的智能软件系统,等等。

然而,像之前其他变革性技术一样,人工智能在当前引起了很多怀疑,甚至是恐惧,这就催生了限制其应用范围的一系列法规和政策。那为了促进当今最强大的技术的合理应用,我们到底能做什么呢?

就风河公司来说,该公司拥有具有最高安全标准的智能系统,而且在此方面拥有40年的经验。该公司的负责人称:“我们相信,我们有责任不断推进我们的技术,同时推进这种技术对世界的积极影响。就人工智能驱动的机器人技术而言,我们要积极主动地提供透明、公平和隐私的系统,使得人们对人工智能充分信任。

人工智能与机器人技术高度结合

今天的工业机器人正在发生根本性的转变,从局限于重复性动作的机器蜕变为认知性的人类工作合作者。人工智能需要摄入基于机器人的传感器收集的大量数据,这些数据需要实时解译,因此这些数据不能被送到云端进行处理,而是要接近机器的地方进行分析。正是这种边缘计算赋予了机器实时意识,使机器人能够比人类更快地对决策采取行动,而人类则需要信任这些决策。

随着机器人的移动性、协作性、边缘驻留以及与其他物联网设备的连接,数据丰富的生态系统给潜在的黑客提供了可乘之机。公司可能会发现自己容易受到恶意软件、网络赎金、生产延迟和业务中断等方面的影响。更为重要的是,针对高度灵活且强大的机器人系统的网络攻击也带来了一些严重的物理安全问题。

人工智能的风险是什么?

围绕人工智能的潜在问题的引发人们的讨论,目前主要集中在几个关键问题上。

  • 隐私和安全:人工智能在数据上运行,因此网络安全漏洞可能对个人和组织构成威胁。
  • 不透明性/透明度:数据是如何处理的,如何使用的?人工智能系统识别的模式可能无法真正代表分析决策的输出。哪些数据被选中?其质量如何确定?这些都需要在系统中建立透明的算法问责制度,以确保人工智能的输出真正符合标准,并且是公平且没有偏见的。
  • 偏见:偏见会以多种方式影响算法,特别是通过使用有缺陷的数据或与当前问题无关的数据集(统计偏见)。
  • 规范的道德考虑:与人工智能之前的其他颠覆性技术一样,管理这一领域的法律和法规的制定正在追赶着人工智能的发展。有大量的技术努力来检测和消除人工智能系统的偏见,但是它们都还处于早期阶段。此外,技术修复也有其局限性,因为它们需要制定一个公平的数学概念,而这是很难做到的。

虽然目前实际的政策很少,但也有一些值得注意的尝试。数据创新中心2019年的一份欧盟政策文件提出:值得信赖的人工智能应该是合法的、道德的和技术上有弹性的,并能够阐明能够实现这些目标的前提要求:人类监督、技术稳健性、隐私和数据治理、透明度、公平性、问责制等。随着人工智能不断发展,这些要求都将编入立法之中。

另外,据美联社报道,在2021年秋天,总统乔·拜登的顶级科学顾问开始呼吁制定新的“权力法案”,以防范更加强大的新人工智能技术所带来的风险。

如果公司能够合理地应用人工智能,这将为公司带来巨大利益,但如果在没有道德保障的情况下使用人工智能,也会损害公司的声誉和未来业绩。制定标准或起草立法并不是很容易就能完成的,这是因为人工智能涵盖了一个广泛的、无定形的领域,从战场机器人到自动驾驶汽车到用于审查合同的法律助理,人工智能无处不在。事实上,几乎所有与机器学习和数据科学有关的东西现在都被认为是人工智能的一种形式。

评估人工智能应用的框架

展望未来,作为对之前工作的补充,一个旨在确保道德实施的拟议框架正在成为人们讨论的焦点。该框架是围绕四个关键支柱建立的,即信任、透明、公平和隐私。

  • 信任:首先,证明人工智能应用的可信度毫无疑问是应用人工智能的门槛问题。人们需要知道,他们正在使用的人工智能应用程序是来自可靠的来源,并且是在负责任和可信的监督下开发的。
  • 透明度:充分披露人工智能使用的透明度,并解释其在具体使用场景中的好处,将在减少人们的担忧和扩大人工智能应用方面起到很大作用。
  • 公平性:开发者需要表明,人工智能是以公平和公正的方式部署的。由于人工智能在其基本状态下缺乏应用判断的能力,而主要侧重于模式识别,因此需要对算法进行微调以消除偏见。还应引入一些程序,以消除我们人类不可避免地带来的一些偏见。
  • 隐私:至关重要的是,开发人员应考虑到使用人工智能可能会影响数据中嵌入的个人身份信息(PII)。虽然当前的人工智能通过绕开人类与敏感数据的互动这种方式确实消除了一些隐私问题,但它同时也引发了其他问题,如信息的使用范围,它的存储位置,以及谁可以访问它的权限问题。

技术界对人工智能的积极态度

人工智能毫无疑问将继续存在于我们的生活,而人工智能的监管与控制问题肯定会随之而来。行业参与者正在积极寻找方法,以确保他们的应用程序遵循要求,同时也要保证人工智能的发展复合信赖、透明、公平和确保隐私的框架。目前的一个有效措施就是使用同行评审系统。在此系统中,人工智能开发者将提交他们应用程序的用例,在一个类似于开源环境的人工智能社区中进行审查。

另一个增加人工智能应用清晰度的方法是建立一个特设组织,公司将把他们的项目和应用提交给一个中央人工智能注册处,与通常由控制议程的正式机构不同,注册处将是一个收集反馈、建议和肯定的自我报告机构。最终,确保人工智能应用以道德方式进行部署。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部