返回

在隐私问题遭到强烈反对后,苹果推迟了扫描设备上虐待儿童图像的计划

发布时间:2022-01-27 16:51:46 342
# 数据库# 数据# 信息# 隐私
Apple

由于担心该工具可能被用于大规模监控,并会侵蚀用户隐私,苹果公司在收到持续的回击后,暂时暂停了对用户设备进行儿童性虐待材料(CSAM)筛选的有争议的计划。

“根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能,”这家iPhone制造商在其网站上发表声明说。

然而,该公告并没有明确说明它将收集什么样的信息,它打算设计什么样的变化,或者它打算如何以一种方式实施该系统,以缓解一旦部署后可能出现的隐私和安全问题。

这些变化最初计划在今年晚些时候与iOS 15和macOS Monterey一起上线,从美国开始。

8月,苹果详细介绍了几个旨在帮助限制CSAM在其平台上传播的新功能,包括扫描用户的iCloud照片库中的非法内容,这是短信应用程序中的一个通信安全选项,用于在接收或发送色情照片时警告儿童及其父母,当用户试图搜索与CSAM相关的主题时,Siri和Search中的指导也得到了扩展。

所谓的NeuralHash技术将在用户的iPhone、iPad和Mac电脑上的照片上传到iCloud照片之前,与国家失踪和受剥削儿童中心(NCMEC)维护的已知儿童性虐待图像数据库进行匹配,而无需拥有这些图像或收集其内容。超过30个匹配哈希值的iCloud帐户将被手动审查,禁用其配置文件,并报告给执法部门。

这些措施旨在在保护客户隐私和满足政府机构在有关恐怖主义和儿童色情制品的调查中日益增长的要求之间达成妥协;此外,它还为罪犯利用加密保护来掩盖其违禁活动的所谓“走向黑暗”问题提供了解决方案。

然而,这些提议遭到了即刻的强烈反对,电子前沿基金会(EFF)号召科技巨头试图建立一个设备监视系统,增加了“一个彻底的文件化、仔细考虑过的、狭隘的后门仍然是后门”。

“一旦这种能力被植入苹果产品,该公司及其竞争对手将面临来自世界各国政府的巨大压力和潜在的法律要求,不仅要扫描CSAM的照片,还要扫描政府认为不合适的其他图像,”民主与发展中心(Center for Democracy&;科技(CDT)在一封公开信中表示。

“这些图像可能是侵犯人权、政治抗议、公司贴上“恐怖分子”标签的图像“或者暴力极端主义的内容,甚至是那些政客的不敬的形象,他们将迫使公司去扫描他们。这种压力可以扩展到存储在设备上的所有图像,而不仅仅是上传到iCloud的。因此,苹果将为全球范围内的审查、监视和迫害奠定基础。”信上写着。

但在苹果内部流传的一封电子邮件中,发现儿童安全活动人士将隐私活动人士和安全研究人员的投诉视为“少数群体的尖锐声音”

此后,苹果开始介入,以缓解因意外后果而引发的潜在担忧,抵制该系统可能被用于应专制政府要求检测其他形式照片的可能性。该公司表示:“让我们明确一点,这项技术仅限于检测存储在iCloud中的CSAM,我们不会同意任何政府扩大这项技术的要求。”。

不过,它并没有减轻人们的担忧,即客户端扫描可能会构成令人不安的隐私侵犯,并可能扩展到进一步的滥用,并为打破端到端加密提供了蓝图。研究人员能够创造“散列碰撞”也无济于事;又名假阳性—;通过对算法进行反向工程,导致两个完全不同的图像生成相同的哈希值,从而有效地诱使系统认为图像是相同的,而不是相同的。

约翰·霍普金斯大学教授、安全研究员马修·D·格林(Matthew D.Green)在推特上写道:“我对苹果公司的建议是:(1)在做任何事情之前,先与技术和政策界人士进行沟通。同时也要与公众进行沟通。这不是一个花哨的新触控栏:它是一个影响10亿用户的隐私妥协。”。

格林补充道:“要弄清楚为什么要扫描,扫描什么。从什么都不扫描(只扫描电子邮件附件)到扫描每个人的私人照片库是一个巨大的增量。你需要证明这样的升级是合理的。”。


特别声明:以上内容(图片及文字)均为互联网收集或者用户上传发布,本站仅提供信息存储服务!如有侵权或有涉及法律问题请联系我们。
举报
评论区(0)
按点赞数排序
用户头像
精选文章
thumb 中国研究员首次曝光美国国安局顶级后门—“方程式组织”
thumb 俄乌线上战争,网络攻击弥漫着数字硝烟
thumb 从网络安全角度了解俄罗斯入侵乌克兰的相关事件时间线