脸书又双叒叕摊上事儿了。
前两天,有用户在脸书上看一段关于黑人的视频的时候,发现视频下方有一个自动弹出来的提示,问他是否要“继续观看有关灵长类动物的视频”。这个截图一发出来,全网瞬间炸了。
虽然,虽然,严格来说,人在动物界的位置也属于灵长类,但在这里,这种关联明显是不合适的。
这段视频是《每日邮报》于 2020 年 6 月 27 日在 Facebook 上发布的,视频记录了一名白人男子与一名黑人男子发生争执的现场,还有警察在一旁。
视频里并没有出现与猴子或者其他灵长类动物有关的内容。
这张截图是由四年前离开脸书的前内容设计经理格罗夫斯女士(Darci Groves)发布的,据她说,这张截图是最近一位朋友发给她的。
随后,她将这张图发布到了一个面向脸书的现任和前任员工的产品反馈论坛。
一石激起千层浪。
格罗夫斯女士说,这个提示“令人震惊”。
“Facebook不能继续犯这些错误,再事后说'我很抱歉',”她说。
对此,周五,脸书发布道歉声明。
脸书发言人Dani Lever表示:
“正如我们所说,虽然我们对人工智能进行了改进,但我们知道它并不完美,还有更多的东西有待提高。我们向任何可能看到这些冒犯性推荐的人道歉。”
同时,脸书还向公开向 DailyMail.com 和 MailOnline 道歉。
“这在 Facebook 上显然是一个不可接受的错误,我们在意识到发生这种情况后立即禁用了整个主题推荐功能,以便我们可以调查原因并防止这种情况再次发生,”Facebook发言人告诉DailyMail.com。
“这是 Facebook 上的一个算法错误,并不是在反映《每日邮报》帖子的内容。”
尽管脸书的道歉还算及时,但这件事还是在网上掀起了一阵不小的风波。
有许多网友表示,借人工智能之手,宣扬种族歧视之实,在谷歌和脸书等大型互联网公司里早就不是什么新鲜事了。
“脸书将他们‘从我们做了种族歧视的事情之后已经有多少天了’的计数器归零。”
“这件*事确实应该停止了。”
更有人指出,之所以这些公司如此忽视对于黑人的面孔识别,是因为他们很少雇佣黑人员工。
而如果是一个黑人程序员在研究AI的话,应该能够注意到该问题。
但同时,也有网友评论认为,这个标签并没有问题,因为人类也是灵长类动物,我们不该对此事太过敏感。
“我们是大猿!”
但是这样说的话,那么一个任何肤色任何种族的人都应该被标记成“灵长类”,如果只针对某一个特定群体,这也许是有失公正的。
有人分析,之所以AI会出现“无法将黑人识别为人类”这样的问题,是因为计算机在分析颜色较暗的面部时存在缺陷,因为它的图像是平面的;
而我们的眼睛在这方面比计算机做得更好。
因此,为了避免类似的问题出现,在技术完善之前,应该对相关内容进行人工审查。
网友评论环节:
“如果 Facebook 永久关闭,我相信我们都会过得更好。”
“人类是灵长类动物。查一下。”
“我不相信FAKEbook。”
“科技巨头已经失控。”
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有