你们中的许多人可能还记得,苹果公司宣布将不仅为 iCloud 引入端到端加密后,还希望在 iOS 中实现一项功能,扫描照片以供 iCloud 上传,以获取所谓的 CSAM(儿童性虐待材料)记录。除了照片,还有笔记、备份等,该公司还宣布CSAM 检测计划现已放弃。
在与专家广泛协商并收集有关我们去年提出的儿童保护举措的反馈后,我们正在增加对通信安全能力的投资,该能力将于 2021 年 12 月首次投入使用。我们还决定不再采用之前提出的 iCloud 照片 CSAM 检测工具。儿童受到保护,公司无需梳理他们的个人数据。我们将继续与政府、儿童权益倡导者和其他公司合作,保护年轻人、保护隐私权,并使互联网对儿童和我们所有人来说更加安全。 – 苹果
该系统的一些批评者认为,该功能在设备中创建了一个“后门”,政府和执法部门可以利用该“后门”来监控用户。另一个担忧是,有人可能会故意将 CSAM 图像添加到其他人的 iCloud 帐户并标记自己的帐户。

