肖飒:热度“狂飙”的ChatGPT面临哪些潜在法律风险?

肖飒:热度“狂飙”的ChatGPT面临哪些潜在法律风险?
2023年02月06日 21:47 中新经纬

  中新经纬2月6日电 题:热度“狂飙”的ChatGPT面临哪些潜在法律风险?

  作者 肖飒 北京大成律师事务所合伙人

  2023开年之初,全球科技巨头微软的巨额投资让ChatGPT成为科技领域的“顶流”,并成功出圈。我们作为法律工作者,不禁要评估ChatGPT自身在实际运用中可能会带来的法律安全风险。

  事实上,ChatGPT似乎远没有部分消息宣传的那样“神”——其仅仅是Transformer和GPT等自然语言处理技术的集成,本质上依然是一个基于神经网络的语言模型,而非一项“跨时代的AI进步”。

  第一,人工智能在中国整体监管仍有待完善。

  和许多新兴技术一样,ChatGPT所代表的自然语言处理技术也面临着“科林格里奇窘境”(Collingridge dilemma),即信息困境与控制困境。

  所谓信息困境,即一项新兴技术所带来的社会后果不能在该技术的早期被预料到;所谓控制困境,即当一项新兴技术所带来的不利社会后果被发现时,技术往往已成为整个社会和经济结构的一部分,致使不利的社会后果无法被有效控制。

  在人工智能领域,尤其是自然语言处理技术领域的快速发展阶段,该技术很可能会陷入“科林格里奇窘境”,而与此相对应的法律监管似乎并未“跟得上步伐”。

  目前,中国尚无国家层面的人工智能产业立法,但深圳、上海等城市已有相关立法尝试。相信未来各地均会出台类似的人工智能产业立法。

  在人工智能的伦理规制方面,国家新一代人工智能治理专业委员会亦在2021年发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。

  第二,ChatGPT带来的虚假信息存在法律风险问题。

  ChatGPT等AI聊天基础存在的现实合规问题也急需重视。ChatGPT基于AI背后已有的自然语言文本信息(语料库)进行概率统计,返回的答案也是“统计结果”,这就导致ChatGPT在许多问题上会“一本正经的胡说八道”,这种看似真实、实则离谱的虚假信息具有一定误导性。

  倘若ChatGPT应用到搜索引擎、客户投诉系统等领域,其回复的虚假信息可能造成严重的法律风险。

  实际上,这样的法律风险已出现,2022年11月,几乎与ChatGPT同一时间上线的META服务科研领域的语言模型Galactica,就因为真假答案混杂的问题,测试仅3天就被用户投诉下线。

  在技术原理无法短期突破前提下,ChatGPT及类似语言模型要应用到搜索引擎、客户投诉系统等领域,就必须对其进行合规性改造,以最大程度降低相应的合规风险。

  第三,ChatGPT会带来知识产权的合规问题。

  聊天AI,尤其是像ChatGPT这样的大型语言模型知识产权问题应引起合规人员注意。

  第一个合规难题是“文本数据挖掘”是否需要相应知识产权授权问题。正如前文所指,ChatGPT依靠巨量自然语言本文(或言语料库)运转,其需要将语料库中内容复制到自有数据库中,相应行为通常在自然语言处理领域被称为“文本数据挖掘”。当相应文本数据可能构成作品前提下,文本数据挖掘行为是否侵犯复制权,当前仍存在一定争议。

  目前,中国著作权法并未将AI中的“文本数据挖掘”纳入到合理适用范围内,文本数据挖掘在中国依然需要相应知识产权授权。

  第二个合规难题是ChatGPT产生的答复是否具有独创性?我们认为,无论某一答复是AI完成还是人类完成,其都应当根据现有独创性标准进行判定。

  此时,其实还面临另一个争议,如果AI生成答复具有独创性,那著作权人可以是AI吗?显然,包括中国在内的大部分国家知识产权法律下,作品的作者仅有可能是自然人,AI无法成为作品的作者。

  第三个合规难题是ChatGPT倘若在自己的回复中拼接了第三方作品,其知识产权问题应当如何处理?

  我们认为,如果ChatGPT的答复中拼接了语料库中拥有著作权的作品(虽然依照其工作原理,这种情况概率较小),按照中国现行著作权法,除非构成合理使用,否则必须获得著作权人的授权后才可以复制。(中新经纬APP)

  本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。

  责任编辑:李惠聪

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部