遏制儿童性虐待 苹果拟采用照片识别“新招”
李彦南
美国苹果公司5日宣布,将于今年晚些时候推出一个照片识别系统,用以监控美国境内用户是否向云储存系统(iCloud)上传含有儿童性虐待内容的照片。
这一计划得到儿童保护团体支持,同时引发隐私安全争议。
【提前监控】
苹果公司打算运用的新系统将在美国境内用户向云端上传照片前识别照片是否涉及儿童性虐待。仅存储于手机而未上传的照片不在监控范围内。在《金融时报》看来,在照片上传之前、而非储存到云服务器后监控,是该新系统的一个重要特征。
新系统运用“散列法”(又译“哈希法”),把用户准备上传的照片转译为一种可正确识别、但无法用于重构该图像的数字代码。随后,运用一项名为“神经散列”的技术,把照片与美国执法部门儿童性虐图片数据库比对。这项技术也可以识别与原始图像相似的编辑后图像。
据路透社等媒体报道,经过“神经散列”技术处理的儿童性虐图片数据库将以代码形式,在今年晚些时候操作系统更新时储存到用户的苹果设备上。
苹果公司说,系统发现与数据库匹配的儿童性虐照片后,将交由人工审核;人工确认无误后,将禁用相关账户,并向美国失踪和受剥削儿童中心或执法部门报告。苹果用户如果发现账户误被停用,可申请恢复。按照苹果公司的说法,这一系统的“误判率”低至万亿分之一。
美国失踪和受剥削儿童中心负责人约翰·克拉克说,苹果产品用户众多,对在网络上遭诱骗和性虐照片遭传播的儿童来说,新系统或许能“救命”。
【隐私争议】
美国政府向苹果公司施压多年,要求后者同意加强对加密数据的监视。谷歌、脸书和微软公司等技术巨头近年也致力于借助监控系统发现儿童性虐图像。
美联社评述,苹果公司推出新系统,需要在打击儿童性剥削和履行保护用户隐私的高调承诺之间取得微妙的平衡。
一些专家在社交媒体上表达对新系统隐私安全的担忧,认为新系统的监控范围最终可能扩大,用于在手机中查找更多遭禁止的内容或政治言论。
约翰斯·霍普金斯大学密码学专家马修·格林说,苹果公司“发出了一个非常清晰的信号”。“在苹果看来,构建能够扫描用户手机上遭禁止内容的系统是安全的。”他警告,这将导致“大坝决口”,可能被用于更广范围的监控。
美国电子前沿基金会研究员因迪娅·麦金尼和埃丽卡·波特诺伊在一篇博客文章中写道,外部人士几乎不可能核查苹果公司是否信守诺言、只监控儿童性虐图像。她们认为,对信赖苹果安全隐私保护措施的用户而言,苹果推出这个新系统是一次“令人震惊的巨大转变”。(完)(新华社专特稿)
关键词:苹果公司(Apple Inc)、神经散列(NeuralHash)、美国失踪和受剥削儿童中心(National Center for Missing and Exploited Children)
来源:新华社
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有