“人工智能心理学与算法伦理”研讨会召开 专家建议增进人对算法的认知与信任

“人工智能心理学与算法伦理”研讨会召开 专家建议增进人对算法的认知与信任
2021年05月31日 17:59 中新经纬

  中新经纬客户端5月31日电 (薛宇飞)如今,算法无处不在,对算法伦理的研究很多,但对与算法相关的数据隐私、算法偏见等争议问题却探讨甚少。为此,由清华大学社科学院主办的“人工智能心理学与算法伦理”研讨会于近日举行,清华大学社科学院院长彭凯平等十几位专家、学者共同参与,对学界关注的话题予以讨论,并发布了《人工智能心理学与算法伦理研究报告》(下称报告)。

对技术的不理解容易形成“算法厌恶”

“人工智能心理学与算法伦理”研讨会。来源:主办方供图

  上述报告认为,算法决策的发展是不可逆的潮流,但由于人们对算法的认知还未跟上技术进步的脚步,很容易形成对算法的偏见即“算法厌恶”。人们在并不了解算法的表现之前就体现出对算法的负面行为和态度,可能导致对算法决策的拒绝或不充分利用,进而给个人和社会带来损失。

清华大学社科学院心理学系博士后、助理研究员许丽颖。来源:主办方供图

  研讨会上,清华大学社科学院心理学系博士后、助理研究员许丽颖表示,“算法厌恶”的倾向首先体现在对决策主体上,相对于算法,人们更偏向于人类来做决策;其次是在人类和算法决策的利用程度上,如果他们都做出了决策,人们却更倾向采纳人类做的决策或给出的建议;最后是评价上,在算法与人都做出决策时,人们对人类做出的决策评价更好。

  报告称,提高人们对人工智能或算法的熟悉度,可以提升对算法决策的欣赏。而可靠和准确的算法,更容易赢得人们的信任,提供关于算法如何执行的解释可以减少“算法厌恶”,使用者也应提高对算法的熟悉度。研究发现,如果算法可以很好了解使用者个人偏好,不但其决策和推荐会更有效,也有助于人们对算法的接受,算法接受度受到使用场景影响,人们对文娱、网购等领域个性化服务的态度比在严肃信息等领域更积极。

西安交通大学人文学院哲学系长聘副教授、硕士生导师丁晓军。来源:主办方供图

  西安交通大学人文学院哲学系长聘副教授、硕士生导师丁晓军研究认为,对大数据的使用以及推而广之,可以考虑提升用户对相关技术的使用经验,通过各种途径提升对它的信任程度。

清华大学新闻传播学院博士后、助理研究员李凌。来源:主办方供图

  清华大学新闻传播学院博士后、助理研究员李凌更关注算法的公开,他在研讨会上称,算法应当做到可公开、可解释、可追溯。

  报告指出,人们希望AI和算法带来便利、高效、个性化体验甚至一对一定制化服务,实现更好的功能性满足和亲密关系塑造,如果在数据匿名、转码、加密等环节设置得当,算法可以更好地保护用户隐私;需要寻找用户个性化体验和机器数据收集之间的平衡,加强用户、AI应用、企业、政府等的合作,根据技术变革发展程度对隐私边界动态更新完善。

算法的道德责任如何确定?

清华大学社科学院院长彭凯平。来源:主办方供图

  研讨会上,彭凯平提出了人工智能是否需要承担道德责任的问题。他说,“除了企业和人出于社会责任感而做出一些行为,能不能让机器也担当这种责任?自动驾驶技术已经很成熟,但是谁都不愿意用,主要是谁担责的问题,撞了人,需要机器负责吗?”

  上述报告也认为,人们始终对技术之后的人提出更为严苛的道德要求,AI犯错总是会引发对人工智能的负面印象和对相关研究的不支持,而严重的社会性歧视和剥削等AI负面事件会产生对企业的连带效应。

  “面对算法伦理的复杂性和技术与人的互相影响,仅凭空泛规则并不能很好解决问题,需要从社会心理学出发,确定人与AI的关系、人对伦理问题的感知、对AI道德地位的判定以及如何对AI进行道德归责,建立以算法辅助人类、促进人机合作决策、以人为本的人工智能发展方向。”报告提出。

清华大学社科学院社会学系教授、博士生导师李正风。来源:主办方供图

  清华大学社科学院社会学系教授、博士生导师李正风认为,透明算法只是一个目标,在某种意义上而言,算法的不透明会受到一些因素的约束。他举例说,国家或者公司的机密中所隐含的技术诀窍往往就不适用透明的要求。其次,即便把算法摆在没有专业素养的普通人面前,它依然是不透明的。讨论伦理道德问题更多的是对公众讲算法透明性,但这解决不了个人所面对的问题,算法透明更重要的是它的可塑性、可设计性和可能性。

  李正风称,价值反思和伦理治理对于算法设计具有重要的指导作用,应当使算法在伦理的约束下运行,得到具有“道德”的结果。

武汉大学哲学学院心理学系教授、博士生导师喻丰。来源:主办方供图

  武汉大学哲学学院心理学系教授、博士生导师喻丰指出,对于人工智能来说,不应列出空泛的伦理规条,应该用“美德论”的方法设计出负责任、道德的人工智能体。要设置大量具体情境,把它设置成伦理脚本,这一点不仅对人工智能的使用者、设计者来说很重要,对于人工智能本身也重要。如果只是设计一条所谓的透明度原则,对每个数据的来源都进行等级、审查,是没有用的。

  “只有把它设计成具体规则,这样会怎么样,那么会怎么样,自上而下地列出规则,让人工智能体知道它如何做,那才有用。”喻丰说。

清华大学社科学院长聘副教授、博士生导师孟天广。来源:主办方供图

  清华大学社科学院长聘副教授、博士生导师孟天广则称,未来要建立适应人工智能社会更有效、更有伦理性的治理结构,必然是一个双边甚至多边的关系,人工智能治理可能是大量主体同时形成共识,设立一个联合契约,这会是比较好的方法。

算法的应用提升人们获得感

  从读新闻、看视频,到点外卖、骑单车,人们的日常生活里早就有大量人工智能算法的渗入。报告认为,算法和人工智能技术的进步给社会带来了革命性的变化,可以说,算法决策的发展是不可逆转的潮流。算法决策具有很强的优越性。首先,有些决策可能超出了人类的计算能力,人类无法有效率的甚至没有能力完成这些决策;其次,算法决策在许多方面的表现优于人类;再次,算法决策可以弥补人类的主观性、偏见等固有缺陷;最后,算法决策相对于专家建议,成本更低、适用更广。

  彭凯平称,现在的人工智能与机器算法,可能让那些能干的人掌握了一些知识、技能及资源,而在未来,让普遍人也有参与感和获得感也是很重要的。他还说:“短视频让普通老百姓都参与了进来,这就是一个好事,一个保安、一个外卖员能够从中得到快乐,这就挺好,增加了人们的获得感。”

武汉大学信管学院副研究员赵靓。来源:主办方供图

  如今,算法正在与更多学科进行深入融合,赋能社会更加健康地发展。武汉大学信管学院副研究员赵靓将人工智能与社会心理服务结合起来,研究个体及群体的心理变化。她称,人工智能的技术帮助人们以一种数据的方式,来理解更加宏观的社会心理文化上的变化。“把专家的知识和数据及技术本身的优点结合起来,可能是更好的探索,可以整合多元、多模态的大数据,做社会文化心理的监测服务,助力社会治理,提供各种政策建议。”

清华大学社科学院心理学系副教授、博士生导师伍珍。来源:主办方供图

  清华大学社科学院心理学系副教授、博士生导师伍珍关注的是智能教育领域,她称,人工智能在一定程度上可以做到尊重学生的个性特征、兴趣、特长,满足学习者的个性化需求,并能够做一些适应性的教学策略选取、个性化资源推荐等等。但是,如果人工智能算法使用的是片面化、不完整的学习样本进行训练,那可能就会出现错误的结果或者加深偏见歧视,人工智能背后的开发者需要思考怎么塑造价值观、引领学生思想,制定知识图谱和学习路径。

北京市社会科学院外国所助理研究员单许昌。来源:主办方供图

  谈及当前火热的短视频,北京市社会科学院外国所助理研究员单许昌称,短视频改变了人们的生产与生活方式,“以前说‘互联网+’是未来的趋势,在现在应当说‘短视频+’才是未来的大趋势。”他指出,短视频促进了知识传播与行业创新,背后算法要平衡好效率、公平与和谐三个价值。

西安外国语大学新闻与传播学院讲师李薇。来源:主办方供图

  西安外国语大学新闻与传播学院讲师李薇也关注算法公平问题,她分享了某平台不因算法优势而对公司进行优待的案例,指出如果平台没有公平,用户就不会流入。从行业内一些好的做法可以看出,平台的算法公平可以让平台本身和运营企业发展得更好,保证流量池会进入更多创作者的优质内容。

清华大学社科学院政治学系博士后、助理研究员李珍珍。来源:主办方供图

  清华大学社科学院政治学系博士后、助理研究员李珍珍提出应将理论与实证结合起来,加强关于人工智能伦理与治理的研究。

  彭凯平最后总结道,当前政府和社会科学对人工智能伦理的研究是相对滞后的,人工智能仅仅依靠企业、计算机科学家及商界人才推动是不够的,还需要社会科学各领域的更多人才参与,这样才能确保预见的先进性。(中新经纬APP)

中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编以其它方式使用。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部