据macrumor报道称,苹果近日公布了新的儿童安全功能,功能里有一项掀起了不少人士的反对。
据苹果介绍,苹果正在与儿童安全专家合作开发的三个领域引入新的儿童安全功能,希望帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并限制儿童性虐待材料 (CSAM) 的传播。
Messages应用程序将使用设备上的机器学习来警告敏感内容,如照片被识别为色情将自动模糊,同时保持Apple无法读取私人通信;其次,更新Siri和搜索为父母和孩子提供更多信息,并在他们遇到不安全情况时提供帮助。当用户尝试搜索儿童性虐待材料 (CSAM) 相关主题时,Siri和搜索也会进行干预。另外,iOS 和 iPadOS 将使用新的密码学应用程序来帮助限制儿童性虐待材料 (CSAM) 在线传播,同时为用户隐私进行设计。CSAM 检测将帮助 Apple 向执法部门提供有关 iCloud 照片中 CSAM 集合的宝贵信息。这些功能将于晚些时候正式推送给iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey。
也就是“CSAM 检测将帮助 Apple 向执法部门提供有关 iCloud 照片中 CSAM 集合的宝贵信息”这一条引发了不少讨论。据了解,从iOS 15开始,苹果将能够检测扫描存储在 iCloud 照片中的已知儿童性虐待材料 (CSAM) 图像,从而使Apple 能够将这些情况报告给国家失踪和受虐儿童中心 (NCMEC) ,一个与美国执法机构合作的非营利组织。
对此,不少用户纷纷表示支持保护儿童,但是反对苹果扫描用户照片隐私。对此外媒报道称苹果回应称;“不相信这款在用户设备上查找儿童色情图片的工具会留下削弱隐私的后门。这套系统并不是为了政府监控公民而设计,且仅在美国可用,并且只有在用户打开了iCloud照片的情况下才能启用。”
你如何评价这项功能?
4000520066 欢迎批评指正
Copyright © 1996-2019 SINA Corporation
All Rights Reserved 新浪公司 版权所有
All Rights Reserved 新浪公司 版权所有