当我们发现这个问题时,我们报告了这个问题。苹果计划在本地扫描用户的设备,查找用于 iCloud 上传的 CSAM(儿童性虐待材料)内容。许多民权组织和在线用户都提出抗议,美国公司无限期推迟了该计划。
现在事实证明,苹果已经删除了有关此主题的相关页面,或者考虑到儿童安全而对现有页面进行了修改,而是替换了“仅 OS 15.2 中添加的功能(如图)”。可以使用 iMessage ID 对儿童隐藏家庭群组中包含裸体的信息。

这引发了人们对苹果是否已经取消该计划的质疑。苹果发言人 Shane Bauer 在接受 The Verge 采访时表示,自 9 月份首次宣布推迟推出 CSAM 检测以来,该公司的立场没有改变。

该公司在 9 月份的一份声明中表示:“根据客户、利益相关者、研究人员和其他人的反馈,我们将在未来几个月内花更多时间提出建议,然后再发布这些至关重要的儿童安全功能。”我们决定收集这些信息。并做出改进。”

