苹果为保护儿童引入新政策 但也带来一些争议
admin
2021-08-06 17:06:54
0

苹果公司今日宣布将开始在iPhone上检测儿童色情的图像。

虽然苹果使用的方法最大限度地保护了隐私,但一些国外媒体仍居认为,苹果的这种做法存在安全隐患和争议。

CSAM指纹

约翰·霍普金斯大学的密码破译专家马修·格林讲解了扫描儿童性虐待图像(CSAM)指纹(这里指的数据特征)的一些问题。

CSAM的指纹是故意不完美的。如果他们只检测到一幅图像的精确副本,那么人们只要裁剪一个像素,就可以让它不再与指纹相匹配。

这也就意味着指纹是模糊的,有时会标记完全无害的文件。 这样就会产生两个问题。

首先,即使只是苹果的某个人或者一个独立的监督机构,审查了照片或视频并宣布他是无辜的,但这之间隐私泄露已经发生了。 可能非常私密的照片或视频已被第三方浏览了。

其次,更令人担忧的是,即使被怀疑有严重的罪行这也会对一些人的生活造成严重破坏。 他们的手机、平板电脑和电脑可能会被没收,并且可能在相当长的一段时间内无法归还。 如果有人发现警方正在调查,这可能会使某人的工作、关系和声誉受到一定的影响——即使他们后来被证实是无辜的。

利用CSAM指纹制造麻烦

我们已经注意到,与虐待儿童无关的图像有时也可能匹配到CSAM指纹,但Green的一篇论文指出,完全有可能故意创建图像,来生成一个匹配的哈希算法。

如果一个人想给别人制造麻烦,他可以给他们发送一个看起来一点也不像有问题的照片,但这张照片与已知的CSAM指纹相匹配。这样一来,他就会存在刚刚涵盖的所有风险。

独裁政府的滥用

数字指纹可以用于任何类型的材料,而且不仅仅是CSAM。有什么能阻止一个威权政府向数据库中添加政治竞选海报或类似图片?

因此一个专门针对严重罪犯的工具有可能被变相使用,可以发现那些反对政府和政府政策的人。

苹果是从各国政府那里获得指纹数据库,它也将发现自己也在不知不觉中帮助镇压了政治活动人士。

向消息传递领域的潜在扩展

目前,这种类型的指纹数据识别主要用于图像识别,比方说照片和视频,但同样的方法也可以用来匹配特定的文本。而大部分密码的检查方式都是服务器不存储实际密码,但存储它的散列版本——数字指纹。那这样的话,苹果在设备上运行指纹检查的方法,实际上可能会将隐私强度转变为隐私漏洞。

如果你使用的是像iMessage 这样的端到端加密信息服务,苹果就无法查看这些消息的内容。就算是政府带着法院命令来问责,苹果也可以表示它并不知道消息中说了什么。但是,如果政府为文本类型添加指纹,比如计划抗议的日期、时间和地点,那么苹果就可以轻松创建一个政治对手的数据库。

隐私的平衡问题

第四修正案保护美国公民的隐私,让他们免受警察对他们的个人、车辆或房屋进行随机搜查。但是,它还规定了对该隐私权的限制。例如,一个警察有合理的理由怀疑你犯了罪,而且证据可以在你的家中找到,他就可以要求法官批准搜查令,这样搜查就合法了。如果没有这个例外,警察就不可能进入一个家庭找到被偷的财产或绑架的受害者。

在个人隐私权和执法部门之间找到适当的平衡,对苹果公司来说可能是极具挑战性的,尤其是当涉及到虐待儿童和恐怖主义这两个热点问题时。苹果公司在隐私问题上采取强硬立场,并将其用作营销工具,但它在寻找这种平衡时,会使自己处于一个特别棘手的位置。

苹果在隐私问题上走钢丝

格林(Green)承认苹果可能会采取保护措施。例如,公司可能希望从源图像中生成自己的指纹,并且可能拒绝任何扫描文本消息的提议,这样的措施无疑会给一些无辜的用户带来风险。这是苹果不得不在隐私问题上走钢丝的又一个例子。例如,苹果坚决拒绝为iPhone创建任何形式的政府后门,并对iMessage和FaceTime都使用端到端加密。但iCloud备份不使用端到端加密,因此,如果政府发布法院命令,那么苹果可以移交iCloud备份的任何数据。

iCloud 备份的端到端加密能否实现?

苹果公司强大的隐私系统意味着不对 iCloud 备份使用端到端加密,十分不正常,尤其是在中国,一家国有企业可以访问存储备份的服务器。因此,我们可以推断,这是苹果妥协的第一步:它将在未来转向对iCloud备份的端到端加密,包括照片和视频,但同时也建立让政府可以扫描用户的照片库以及潜在的信息的机制。

相关内容