2020 AI治理元年,人们到底在担心些什么?

2020 AI治理元年,人们到底在担心些什么?
2020年01月10日 17:48 万能的大熊

人工智能在我看来可以说是一个人类最伟大的创造,并不是说这个技术能够实现什么样的高度,而是这个技术真的解放了人类,激发出机器的生产力,让人释放出来可以做更具人性和创造性的事情。不过对于人工智能的担忧也与生俱来,人工智能会不会失控,会不会带来人类无法挽回的后果?

近日,人工智能公司旷视科技宣布成立AI治理研究院,呼吁各界对AI治理事件的关注和讨论。“人工智能技术要可持续化发展,过去几年,人工智能经历了一段野蛮生长的时期,”旷视AI治理研究院负责人称:“2020年将成为AI治理元年。”

“人工智能的野蛮生长”这种说法并非没有缘由,随着互联网、云计算在各行各业的快速渗透,整个社会的网络化和数据化程度空前提升,原来越多的智能化设备开始切实的落地进入到智慧城市之中,而相关的算法也不断进步,人工智能开始在各种领域中开展探索应用,甚至已经开始进入到一个自我学习和进化的过程之中。尤其是在最近几年,伴随着人工智能技术的大规模产业化应用,一些并无先例可循的人与人工智能矛盾逐渐浮出水面。担忧和质疑之声愈演愈烈,尽快探讨出一种可预期的、可被约束的、行为向善的人工智能治理机制,成为了近人工智能时代的首要命题。

AI的边界在哪儿?

从《终结者》说起

1984年,卡梅隆拍了第一部《终结者》,2019年,《终结者6》上映,35年弹指一挥间,唯一改变的就是这个世界真的已经连接在了一起,天网的故事似乎不再那么遥不可及。著名物理学家霍金在去世之前,曾经和人称“钢铁侠”的特斯拉创始人马斯克共同发布公开信,提出了对人工智能发展的担忧。霍金说:“在未来100年内,结合人工智能的计算机将会变得比人类更聪明。届时,我们需要确保计算机与我们的目标相一致。我们的未来取决于技术不断增强的力量和我们使用技术的智慧之间的赛跑。”持有这种观点的人并非少数,由于民众的担忧,美国加州就立法禁止警方在执法记录仪上使用面部识别技术,而浙理工一个博士也起诉了一家把指纹识别换成人脸识别的野生动物公园,他的理由是害怕人脸生物信息的泄露,当然这个担心也很有趣,因为比起公开的人脸信息的泄露,指纹的泄露恐怕是更致命的。显然,人工智能发展一日千里,实际应用落地也快马加鞭,人们可能还来不及思考这些看似的便利背后是否会带来什么不妥,这些设备就已经在运行之中了。而在问题逐渐暴露之前,类似的担忧和争议恐怕还会继续。

事实上,机器也好,人工智能也好,人们对新技术的担忧在近一百年中一直存在。早在1950年,阿西莫夫的科幻小说中就针对人们对机器人的担忧提出了著名的机器人三定律,奠定了一个思考的方向和基础。这三个定律就是“一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。”从这里我们可以很清晰的看到机器人生存的天条就是不得伤害人类,而后续这些规则得到了一些补充,不过最让我觉得有价值的一个补充就是繁殖原则,机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。在这个阶段,人们已经开始思考到机器人的繁衍带来的可能的危害了,而这个问题,事实上也是《终结者》中矛盾冲突的起源。

这些本属于科幻领域思考和探讨的问题,现在终于开始摆在了现实的世界面前:2020年1月,欧盟专利局驳回了英国萨里大学一个名为DABUS的AI所申报的专利成果,理由是欧盟专利申请中指定的发明者必须是人,而不是机器。但萨里大学研究人员强烈反对这一决定,他们认为因没有人类发明者而拒绝将所有权授予发明者,将成为“人类取得伟大成果的新时代”的重大障碍。

但无论如何技术发展的脚步都不会暂停,尤其是在云计算全面普及、5G全面部署,AI能力全面发育的今天,2020年将无疑成为应用爆发之年和矛盾最为突出的一年。人工智能应用的边界是什么?是否能够享有和人一样的权利?谁能够为人工智能犯的错误负责?在人工智能进入爆发期之前这些问题亟待解决。因此,称2020年是AI治理元年并不为过,除了技术研发和进步之外,关于AI伦理方面的规则制定我觉得也到了最为关键的时刻。

各国各界在摸索中前行

事实上,社会各界对AI技术的讨论热情只增不减,全球范围内很多政府或社会组织、名门政要都或多或少对人工智能提过一些要求。比如2019年4月,欧盟委员会公布了指导人工智能发展和建立信任的7项原则。虽然这些指导方针没有约束力,但它们可能成为未来几年进一步行动的基础。同年6月17日,我国国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。

但是世界各国政府层面对于人工智能治理的规范和边界,还没有进入实质性的立法或明确标准,在推动人工智能应用规范这一方面,人工智能企业反倒起了更为积极的作用。

作为国内领先的人工智能企业,旷视在推进人工智能应用的过程中已经意识到正视人工智能技术所带来的伦理问题的重要性,主张AI企业要把治理当作头等大事来关注。2019年7月,旷视首发《人工智能应用准则》,《准则》从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。据透露,旷视内部还成立了专门的道德委员会,以监督该《准则》在企业技术研发和产品应用中的实施。

旷视联合创始人、CEO印奇认为AI治理需要 “理性的关注,深度的研究,建设性的讨论和坚持不懈的行动”。这个问题我觉得各大企业乃至主管部门都应该参与其中,早些划定可以研究和使用的范畴,能够避免人工智能行业误入歧途,在良好的环境中快速发展,这就像在建大楼之前打地基。

谁来握住AI野马的缰绳

坦白说对于人工智能发展的问题,你可以提出反对意见,但却没有办法阻止它的发展,因为这是一个大势所趋。犹如核武器,犹如工业化,不管你有多大的担忧,都没有办法阻止他的发展,这是讨论这个问题的一个前提。所以剩下的其实还是一个规则和伦理的探讨,犹如核武器的管理问题,可能也是全世界最重要的一个管理问题。人工智能的管理重要性,可能并不在核武器之下,但只要这匹野马不脱缰,就能够为人类所用,载我们到达从未到过的地方。

整个人工智能领域也要制定出自己的“机器人三定律”来保证技术的发展最终不能伤害人类,毕竟之前电脑中毒重装系统就可以了,现在AI失控,就可能断水断电甚至交通瘫痪。人工智能可以看作是人类智慧的结晶,它可以具有人类掌握的所有知识,也可以操控人类世界的大部分设施,不能说全知全能其实也相去不远,在我们不断加大它的力量之前,思考清楚如何控制还是非常必要的。

如此看来,人工智能的伦理讨论要比人工智能技术的发展研究可能更重要也更急切一些,一个简单的例子,一辆自动驾驶的车辆出现了车祸,那么谁应该为此负责?是驾驶员?还是车辆的生产者?这个问题的界定恐怕比自动驾驶的技术本身更阻碍了自动驾驶的发展和落地。再比如说,人工智能写出了假新闻?谁又该为此负责?之前大热的AI换脸应用通过AI为视频换脸,包括很多模拟人声音的产品,一旦出现了假冒的事件,又有谁来负责?人们还能够说,无图无真相?无视频无真相?或者无声音无真相么? 而另一个有趣的问题则是,人脸识别的准确率对于有色人种随着肤色的加深会大大下降,换句话说,白种人可能会遭到更加严格的监管,而黑人则可能会宽松许多,这是否会造成一种不公?斯坦福大学则发表了另一项研究,用人工智能识别性取向的准确率远高于人类,那么这样去识别这种少数群体,会不会带来隐私问题,会不会带来族群的生存窘境?

所以从这个角度来看,在一线搞人工智能应用研发的科技企业应该更早的意识到这一点,一个可参考的案例就是基因和克隆方面的研究,优先的是伦理管理而非技术突破。大家应该更早的坐在一起制定研究的方向和规则,并进行有效的监督和管理,让人工智能可以在一个清晰安全的规范之下,有条不紊又可控的发展,使得2020年成为一个人类社会向前发展的关键节点。

也许东方人远比西方乐观,同样是关于机器人的幻想题材,1969年诞生的《机器猫》就显得人畜无害很多,我们相信天人合一,相信一切都能和人和谐发展。所以我也希望旷视这样的中国企业在人工智能的发展中能够起到更大的作用,更好的引领行业规范健康的发展。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部