苹果公司计划扫描用户设备上含有虐待儿童和剥削儿童媒体的照片和信息,这一有争议的计划引起了用户和隐私倡导者的强烈不满,该公司决定停止这一计划。

如果你还记得的话,是苹果宣布8月初,它将在iOS 15,iPados 15,Watchos 8和Macos Monterey中引入新功能。这些特征是“旨在帮助保护儿童免受使用沟通工具招募和利用它们的掠食者和帮助限制儿童性虐待材料(CSAM)的传播”。

这些儿童安全功能,该公司索赔是在儿童安全专家的帮助下制定的,首先是一个更新的IMESSage应用程序,这将提醒父母及其子女在性明细的图像被从他们的设备发送或接收到。例如,如果孩子接收这样的图像,则它们将被呈现或不呈现要查看的选项。如果他们这样做,他们的父母将被通知他们已经看过它。当孩子发送性明确照片时,会发生类似的东西。

其次,iphone和ipad将允许苹果检测上传至iCloud的照片中的CSAM材料。如果i-device在已知的CSAM材料的数据库中发现了与之匹配或相似的照片,则该材料将被标记为此类照片。为了减少假阳性匹配(即用户被错误指控)的机会,用户必须在超过阈值的标志数量后,苹果才会收到真正的警告。

第三,Siri和Search将进行更新,为孩子和家长提供额外的资源,以确保在线安全。当用户搜索CSAM材料时,这两者也会发生作用。

我们不怀疑苹果的良好意图,也不怀疑它正试图解决的虐待儿童问题的严重性。毫无疑问,它已经竭尽全力设计一个解决方案,试图在不为CSAM发行创建避风港的情况下保护用户的隐私。

问题是,这项技术也为一些严重问题打开了一扇门。

许多人担心苹果可能会被迫使用这种设备上的扫描基础设施来扫描其他东西,也有人对苹果对假阳性率的评估提出了质疑。

还有其他问题,这种尺寸适合所有技术可以将一些弱势用户处于危险之中。“这可能是对孩子的隐私的严重侵犯,并且这个功能的行为是在一个可能不是真实的假设上取得的:孩子与父母的关系是一个健康的。这种情况并非总是如此,“托马斯里德,Malwarebytes的Mac&Mobile主任,必威平台APP一个体贴的博客文章对此事。

里德的文章非常值得一读:它深入研究了这些新变化带来的其他潜在问题,并涵盖了这项技术如何以及为什么会以这种方式工作。

自从这项计划宣布以来,电子前沿基金会(EFF)、为未来而战(Fight for the Future)和开放媒体(OpenMedia)等组织都发起了请愿活动,要求苹果放弃实施计划。

苹果听着

根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月花更多的时间收集意见,并在发布这些至关重要的儿童安全功能之前做出改进。

滚开,推迟计划是不够的尽管。它坚持认为Apple必须“下拉计划完全将后门放入加密。”