自从8月4日的发现(由Mathew Green.),苹果将监控上传到iCloud上的儿童性侵照片(CSAM)。一些人认为这是苹果公司保护儿童的伟大举措。另一些人认为,这是一种潜在的危险,远离隐私,可能不会真正保护孩子,事实上,可能会导致一些孩子受到伤害。

这是如何运作的?

重要的是要明白,与听起来不同的是,苹果不会在iCloud上搜索你所有的照片。所有对CSAM材料的扫描都将通过人工智能算法在设备上完成。这个被称为neuralMatch的系统将执行两个功能。

第一个是在上传到iCloud之前对设备上的任何照片进行哈希。(“哈希”是一个计算值,它应该是一个文件的唯一表示,但不能被逆转以获得文件本身的副本。)该散列将与设备上已知CSAM材料的散列数据库进行比较。结果会被加密记录,并与照片一起存储在iCloud上。如果用户的照片超过了已知CSAM哈希值的最低阈值,苹果将能够访问这些照片,iCloud帐户将被关闭。

第二个功能是保护13岁以下的儿童不发送或接收CSAM图像。苹果的人工智能将尝试检测通过iMessage发送或接收的图像是否含有此类内容。在这种情况下,孩子将被警告,如果他们选择查看或发送内容,他们的父母将被通知。对于13到18岁的孩子,同样的警告也会出现,但家长显然不会得到通知。这一切都依赖于孩子在家庭账户下管理的苹果ID。

我为什么要担心监控一个孩子的短信?

这有很多潜在的问题。这可能是对孩子隐私的严重侵犯,而这种行为基于一个可能不正确的假设:孩子与父母的关系是健康的。但情况并非总是如此。父母或监护人可能参与了CSAM内容的创建。此外,有虐待倾向的父母可能会看到一张被错误认定为CSAM内容的合法照片的警告,并可能基于错误的信息伤害孩子。(是的,家长可以选择查看照片,但也有可能不这么做。我当然不希望我的孩子出现在我的脑海里。)

另外,考虑这适用于这一事实被送去一个图像,而不仅仅是发送一个图像。想象一下,如果欺凌者或骗子发送CSAM材料会造成多大的麻烦,或者如果虐待父母的孩子发送了一张CSAM图像,并在完全不理解为什么它被屏蔽或将产生什么后果的情况下查看它,会造成多大的损害!

最后,作为Eff的Eva Galperin指出在Twitter上,这也有这种良好的目的的功能“将要出于很多奇怪的孩子来到他们同性恋父母”的危险。

监控照片上传到iCloud的问题是什么?

虽然将散列与文件进行比较的误报概率很低,但这种情况肯定会发生。苹果公司声称,误报的概率应该是一万亿分之一,但这在实践中是否正确还有待观察。

由于误报,苹果在账户被错误关闭的情况下,苹果提供了上诉。然而,与Apple参与评论和上诉的任何人都知道他们并不总是走向你的方式,也不总是快速。有时候他们有时不是。时间会告诉这是有多困难的问题。

隐私问题呢?

对于一家一直在谈论保护用户隐私的公司来说,这似乎是一种逆转。然而,苹果显然在这方面花了很多心思,并强调这一切都不会发生在他们的服务器上。苹果表示,所有的处理过程都发生在设备上,它不会看到这些图像(除非它确定发生了滥用)。

此外,CSAM是个大问题。我认为除了恋童癖之外,没有人不希望看到CSAM的所有生产和贩卖活动被终结。很多人会称赞苹果采取这一行动。

但这并不意味着没有问题。许多人认为这是走向滑坡的第一步。阻止CSAM是件好事,但没有什么能阻止苹果开发的工具被用于其他用途。例如,假设美国政府向苹果施压,要求其开始检测与恐怖主义相关的内容。如果苹果决定或被迫遵守,那会是什么样子呢?如果一个遵纪守法的人的iCloud账户因为照片的假阳性而被标记为参与恐怖活动,会发生什么?那么追踪更普通的犯罪,比如吸毒呢?

我还可以继续说下去,因为世界各国政府——包括美国政府——可能希望苹果追踪很多东西。虽然我倾向于信任苹果,但这可能不是苹果完全可以控制的。他们是一家美国公司,未来美国法律有可能迫使苹果做他们领导层不愿意做的事情。

我们也看到苹果弯曲以前的政府的欲望。例如,Apple承认,来自中国政府的要求,这是抵制苹果的哲学。虽然这是愤世嫉俗的表现为苹果对来自中国大市场的利润更感兴趣的证据(而且它们并不完全错),但它比这更有意义。如果中国决定关闭苹果在那里做生意的能力,他们的大部分制造都是在中国完成的,他们在巨大的麻烦中。这意味着中国利用他们利用它来使苹果屈服于其愿望,至少在中国。

苹果为什么要这么做?

我敢肯定会有很多关于这一主题的辩论和猜测。一部分毫无疑问是保护儿童的愿望并防止CSAM分配。其中部分可能是营销。

不过,对我来说,这一切都可以归结为一种政治举动。苹果一直是加密和隐私的忠实拥护者,甚至走到了极端拒绝联邦调查局的要求与获取恐怖分子嫌疑人的iPhone有关。

这是从执法到科技公司给予他们“后门”的共同要求。从本质上讲,这归结为某种私人访问用户数据,理论上只能访问执法代理人。这种后门的问题是他们往往仍然保持秘密。黑客可以找到它们并获得访问权限,或者流氓政府代理人可以滥用或甚至出售他们的访问。没有安全的后门没有这样的东西。

Apple拒绝在政府访问中创造后门已经激怒了许多人认为苹果正在阻止执法的工作。一个常见的避免人们试图推动后门是老待机,“但想到了孩子们!”CSAM经常被提升为需要访问消息传递,文件存储等的原因。这实际上是一个有点聪明的论点,因为它看起来(错误地),比如反对后门争论也是支持恋童癖者的论据。

通过采取针对CSAM的具体行动,苹果有效地平息了这一争论。政客们将不再能够(本质上)指责苹果保护恋童癖,以此作为推动立法要求后门的手段。

结论

最终,这是导致很多争议和意见差异的东西。有些人支持苹果的行为,而其他人则坚持不懈。苹果似乎在这里尝试做正确的事情,似乎已经努力确保这项工作的方式是最尊重的隐私,但有一些合理的理由质疑这个新功能是否是一个好的原因主意。

这些理由不应该与支持或反对CSAM混为一谈,我们都同意这是一件非常糟糕的事情。关于这个话题有很多讨论,但CSAM是一个非常情绪化的话题,我们都应该努力防止它影响我们对苹果方法潜在问题的评估。