儿童手表又出事,不良信息只能靠“一刀切”屏蔽敏感词解决吗?

儿童手表又出事,不良信息只能靠“一刀切”屏蔽敏感词解决吗?
2024年08月23日 19:23 燃新闻

未来网北京8月23日电(记者 张冰清)近日,360儿童手表因在回答问题时出现的争议性内容,引发了社会各界的广泛关注。这一事件不仅让消费者对360儿童手表内容的安全性产生怀疑,也再次将儿童智能手表行业的合规性问题推向了风口浪尖。

8月22日晚,360集团创始人、董事长周鸿祎在微博发文,就360儿童手表在答疑时出现的争议言论表示歉意。周鸿祎指出,出现问题的手表是2022年5月份的一个旧版本,该版本并未装入公司的大模型,而是通过抓取互联网公开网站上的信息来回答问题。这一机制导致了不恰当的回答内容出现。目前,360已经迅速完成了整改,删除了所有有害信息,并将软件升级到人工智能版本,以确保类似问题不再发生。

随着AI大模型在终端产品上的落地,一系列科技伦理治理的问题浮出水面。对此专家表示,对于AI的价值观,在青少年的使用过程当中,确实需要高度重视。对于人工智能不能仅关注其能力,而忽视了道德观、价值观。如果价值观出错,人工智能反而会变成一个“坏人”。

(曝料邮箱:Rcaijing@163.com 新闻热线:010-56793767)

儿童智能手表行业合规性待加强

此次事件并非孤例。近年来,随着儿童智能手表市场的快速增长,一系列不合规现象不断显现。近日江苏省消费者权益保护委员会发布的《儿童智能手表消费调查报告》显示,市场上部分产品存在涉嫌虚假宣传、未经允许违规扣费、信息安全隐患等问题。这些问题不仅损害了消费者的合法权益,也严重影响了儿童智能手表行业的健康发展。以及平台监管不到位,部分内置游戏血腥暴力、漫画少儿不宜等问题。更是严重影响了未成年人的身心发展。

记者搜索黑猫投诉[下载黑猫投诉客户端]后发现,关于儿童手表的投诉超过2900条,投诉主要集中在质量问题、虚假宣传、手表应用诱导儿童消费等问题。具体来看,部分儿童智能手表在宣传时夸大其词,误导消费者。其中,一些产品宣称具备高精度定位、长时间续航等功能,但实际使用效果却大打折扣。此外,一些手表还存在未经用户允许便私自扣费的情况,给家长带来了不必要的经济损失。更为严重的是,部分手表存在信息安全隐患,容易泄露儿童的个人信息,给孩子的安全带来潜在威胁。

据媒体报道,今年6月,一名投诉者称,360儿童手表存在诱导未成年儿童充值的问题,“一款名为历史时光机的软件看上去是学习软件,实际里面有大量诱导孩子进行购买vip的项目,导致孩子在未经大人同意的情况下进行消费,半个月期间购买299包年会员一次,79包季会员一次,29包月3次。”还有家长反映,360儿童手表存在恶意广告的情况,打开App后自动弹出广告,只有等广告播放完成后才能点击关闭。

中国政法大学教授王贞会在接受未来网记者采访时表示,他也给孩子购置过此类电话手表,除内置软件外,孩子是可以自主下载其他软件的,他就曾发现孩子下载过游戏类App等。

“但作为家长,仅从智能手表的广告宣传上来看,并不能明确认定其是一款学习类产品,其中内含的广告推送、游戏等内容让家长不易察觉。”王贞会表示,如果家长没有关注孩子的一言一行,就很难发现孩子使用时是否会被广告推送或游戏内容吸引,乃至付费。

针对这些问题,监管部门和行业协会已经采取了一系列措施。目前,《儿童手表》国家标准、《儿童智能手表个人信息和权益保护指南》等已发布实施。一方面,加强对儿童智能手表市场的监管力度,严厉打击虚假宣传、违规扣费等不法行为;另一方面,推动行业标准的制定和实施,提高产品的安全性和合规性。同时,企业也应承担起社会责任,加强内部管理,提高产品质量和服务水平,以赢得消费者的信任和支持。

智能手表迎来AI大模型落地,内容审核只能靠“一刀切”屏蔽?

事实上,随着人工智能技术的快速发展,科技巨头纷纷推出搭载AI大模型的儿童手表、智能学习机、智能台灯等多类产品。而随着AI大模型在终端产品上的落地,一系列科技伦理治理的问题浮出水面。

去年10月,有家长称在自家孩子的科大讯飞学习机中发现一些诋毁伟人、扭曲历史等违背主流价值观的学习内容。彼时,科大讯飞董事长刘庆峰回应表示,已在发现后第一时间下架内容,并对负责保障内容安全的合作伙伴作出处罚处理,同时内部已经将用于大模型上的内容审核机制放在了学习机上,力求使学习机的内容审核更加严格。

今年5月,小天才儿童手表还曾陷入涉黄涉暴风波,后又因被吐槽“一刀切”屏蔽敏感词受到吐槽,引发了公众对儿童手表厂商在内容审核标准问题的讨论。

用户投诉截图

对此,小天才电话手表的官方客服表示,因为电话手表使用群体是未成年人,想创造一个绿色的沟通环境,因此设计了一些保护孩子的功能。一些敏感词汇或者不文明用语都是发送不出去的。不论是家长跟孩子之间还是孩子相互之间的聊天,此类内容均无法发送。

北京工业大学信息学部人工智能与自动化系讲师石睿在接受未来网记者采访时表示。“目前人工智能大模型生成内容的价值观、道德观,如何界定伦理、如何与人类道德认知对齐,是一个备受关注的问题。在技术层面上主要涉及人工智能可解释性、通用性等专业知识。”

王贞会则向记者表示,科技公司既然选择生产面向未成年人的智能产品,就应当考虑内容的正向合规。不论是使用科技手段还是人工审核手段,显然只靠“一刀切”屏蔽显然是不合适的。

“对于AI的价值观,在青少年的使用过程当中,确实需要高度重视。”清华大学新闻学院元宇宙文化实验室主任、教授沈阳接受记者采访时表示,对于人工智能不仅关注其能力,而忽视了道德观、价值观。如果价值观出错,人工智能反而会变成一个“坏人”。

沈阳表示,人工智能大模型出现价值观偏差,问题可能在于语料的选取把关不严格、算法策略规定上不完整、价值观对齐环节多学科参与上未齐头并进,还有可能是出现了AI幻觉。

“现在一些科技公司往往只注重技术主导,忽视了人工智能类人性的伦理问题,这才是导致现在问题发生的主要原因。”沈阳坦言。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部