陈根:人工智能,为何会“骂人”

陈根:人工智能,为何会“骂人”
2022年06月11日 09:15 陈根

文|陈根

在网络信息高速发展的时代下,逐渐诞生一种名为“键盘侠”的群体。他们非常容易冲动和暴躁,一旦在网络上看到与自己的认知不符的东西,就会站在道德至高点上大放厥词,甚至会攻击、辱骂他人。

近日,YouTube知名深度学习博主Yannic Kilcher用1.345亿个充满语言暴力的帖子,也训练出一个“人工智能键盘侠”。该键盘侠名为“GPT-4chan”,其通过训练学会了如何在网站上交谈,并在一天不到的时间内发布了超过15000个充满负面言论内容的帖子。

4chan的/pol/(“政治上不正确”缩写)板块是仇恨言论、阴谋论和极右翼极端主义的家园,也是4chan最活跃的版块。其在这一版块日均发帖量约为15万条,包括各种匿名的仇恨言论、以及具有人身攻击的回复。

更糟糕的是,该模型能够完整习得/pol/上渗透到大多数帖子里的攻击性、虚无主义、挑衅。这导致它不但可以响应上下文,还能流畅地谈论在最后一次训练数据后发生的事情。最初,都没有人认出来它是一个聊天机器人。

实际上,GPT-4chan并不是第一个“口出狂言”的人工智能。此前微软推出聊天机器人Tay,本以为会打开一扇新世界的大门,没想到大门是打开了,里面却不是新世界——短短不到24个小时,Tay已经学会了说脏话和发表带有种族歧视、反动色彩的言论。

 科技是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了风险,人工智能技术也是如此。倘若人工智能设计者在设计之初,就带着个人偏见和感情色彩,那么训练出来的AI也会带有这种偏见和主观。

例如,在谷歌搜索当中,如果浏览器认为你是个男性,就会给你推荐一些薪水高的职业,女性则反之。并且在一些算法中,黑人名字往往和消极性词汇联系在一起,而白人名字往往和积极向上的词眼在一块儿。

设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。所以,为了防止带有偏见以及出言不逊的AI出现,应该从“源头”抓起。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部