骑象人圆桌论坛 | 郭涛:守住AI“科技伦理”这条红线

骑象人圆桌论坛 | 郭涛:守住AI“科技伦理”这条红线
2023年04月12日 22:17 郭涛观察

【引言】ChatGPT正走进大众的视线。它极大提升了生产力、便利了大众的生活,但其也是一柄双刃剑,我国已开始筹谋提前化解人工智能的科技伦理风险。日前,科技部公开征求对《科技伦理审查办法(试行)》的意见。我们该如何防止AI“变坏”?本期骑象人圆桌邀请了10位学者及从业者,一起来聊聊如何筑牢护城河,守住AI“科技伦理”这条红线。

近日,天使投资人、资深人工智能专家郭涛受邀参加北京商报“骑象人圆桌论坛”,核心观点如下:

ChatGPT和之前的AI助手有何不同,突破在哪?

ChatGTP通过语料库进行自然语言处理的训练,采用“从人类反馈中强化学习技术”(RLHF)进行不断的强化训练,相对以往智能语音助手来说,可以非常好的模拟人类的聊天行为,理解能力和交互性表现也更强,并能精准的回答用户提问,将大幅提升用户使用体验。

如何看待ChatGPT未来发展前景?

ChatGTP具有广泛的商业化前景,将推动众多行业的快速变革,加速在AIGC、客户服务、在线教育、信息查询、在线翻译、家庭陪护等领域快速落地,并有望形成万亿级市场规模。

ChatGPT对人们就业产生怎样的影响?

ChatGPT这类AI大模型可以代替人完成某些任务,甚至是完全取代人力进行智能化工作,如客户服务、在线咨询等,但也要看到,这样的技术同样会导致产出的增加、诸多配套产业的发展与新兴商业模式的出现,随之而来的便是无数新增的就业机会,如人工智能技术和产品的研发人员、人工智能产品的生产人员、维护人员以及管理人员、大数据的研究分析工作人员、从事于个性化教育和培训的人员、从事于技术传播的人员等等。技术进步的未来之一是工作性质会发生变化,一些职业将会消失,一些职业将会得到发展,一些新的职业将会产生。

发展ChatGPT这类AI大模型主要面临哪些限制和困难?

当前,国内ChatGPT这类AI大模型处于发展的早期探索阶段,存在关键核心技术发展不成熟、算法模型不完善、理解能力不足、对语料库依赖过强、法律法规和道德伦理等突出问题,距离大规模的商业化应用还需要很长一段时间。

如何看待千余名专家联名建议暂停训练更强大的AI系统?

随着ChatGPT、AIGC等为代表的人工智能技术的快速大规模落地应用,相关网络安全威胁和风险日益突出,临时暂停训练更强大的AI模型,期间加速建立或完善相关法律法规和监管体系,减少AI技术不当滥用风险,有助于行业健康可持续发展。

ChatGPT有哪些潜在的道德、法律风险?

当前,人工智能研发与应用相关法律法规、标准体系和伦理规范等还不健全,存在数据安全风险、著作权侵权风险、深度伪造风险、商业秘密泄露风险、违法信息传播风险、歧视与偏见风险等问题。

人工智能时代来临,如何做好人工智能伦理审查?

政府有关部门需要尽快建立健全人工智能研发与应用相关法律法规和标准体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方参与协同治理平台。

更多内容详见:骑象人圆桌|如何防止GPT变“坏”?听听10位嘉宾怎么说.北京商报,2023年4月11日

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部