本文转自:新华日报
□ 李乾乾
生成式AI作为一种专注于生成和创建新内容的AI技术,在新闻领域得以广泛应用。随着GPT4.0及其衍生和同位算法模型的出现,生成式AI的功能越来越强大,这使得新闻领域全方位人机协作成为可能。针对生成式AI在新闻传播过程中引发的一系列伦理问题,包括诱导受众相信虚假信息、生成内容存在偏见、侵犯个人隐私、内容归属等,各方可采取以下策略。
研发AI标识标记技术,识别虚假信息
开发反向工程AI模型。反向工程通过对AI模型的内部结构和生成机制进行分析,可以帮助工作人员更好地理解AI生成模式的工作原理。通过这一过程,研究人员可识别出AI生成内容中的潜在问题,如偏见、错误或有意无意间的误导信息。例如,通过对生成文本的语料库进行审查,研究人员可以发现并纠正特定群体的刻板印象或歧视性内容,减少新闻传播中的伦理风险。
开发自动化检测工具。自动化检测工具可以自动分析内容的生成方式,识别出可能的虚假信息,并将其标记为AI生成,以提示用户进行进一步验证。针对AI生成的虚假新闻文本,开发专门的文本分析工具,通过分析文本的语言模式、句法结构和词汇使用情况,识别出可能的AI生成痕迹。
推动媒体行业自律,提高新闻权威性
制定行业标准。明确AI生成内容在新闻报道中的适用范围,如在何种情况下可以使用AI生成的文本、图像或视频,以及如何标注这些内容的生成方式。同时,建立AI生成内容真实性审核机制。在发布AI生成的新闻前,需要通过内部审核机制,确保内容的真实性和准确性。
培育伦理意识。新闻机构定期为员工提供有关AI伦理的培训课程,使他们了解在新闻报道中使用AI技术可能带来的伦理挑战。课程应覆盖从数据收集、内容生成到发布的整个流程,帮助从业者识别和应对潜在的伦理问题。成立专门的伦理委员会,负责评估和指导AI技术的应用并提供针对性建议,确保新闻机构的操作符合伦理标准。
增强用户辨别意识,营造传播规范氛围
普及媒介素养教育。在学校和社区中,通过组织媒介素养课程、制作AI宣传教育视频等方式,普及AI与新闻生产传播相关知识。通过重点强调新闻信息的虚拟性与非真实性,提醒大众在面对新闻内容时需要保持一定警惕性,而不仅仅是被动接受信息。
发挥社交媒体作用。由新闻机构设计制作生成式AI与新闻传播相关的教育科普内容,如信息图、短视频和互动测试。将科普内容通过社交媒体传播,引导社交媒体用户快速学习如何辨别AI生成的新闻内容。社交媒体平台应顺应生成式AI应用趋势,为AI生成的新闻内容增加标识和提示,同时为用户提供有关如何识别虚假信息的工具,减少生成式AI对新闻传播的负面影响。 (作者单位:中南财经政法大学)

4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有