苹果:删除CSAM扫描信息

我们对此进行了报道:苹果计划在本地扫描用户的设备,以查找用于 iCloud 上传的 CSAM(儿童性虐待材料)…

我们对此进行了报道:苹果计划在本地扫描用户的设备,以查找用于 iCloud 上传的 CSAM(儿童性虐待材料)内容。许多民权组织和在线用户都提出抗议,美国公司无限期推迟了该计划据美国媒体 MacRumors 报道,考虑到儿童安全,苹果有关此主题的相关页面已被删除或修改了现有页面,取而代之的是在美国引入并默认禁用的页面,这是唯一添加的功能。在 iOS 15.2 中。包括裸体的内容可以对家庭群组中拥有自己的 iMessage ID 的孩子隐藏。

目前尚不清楚苹果是否已完全放弃其计划,但以下有关此事的最新信息:“根据客户、利益相关者、研究人员和其他人的反馈,我们计划、我们决定花更多时间‘收集建议并在发布这些至关重要的儿童保护功能之前对其进行改进。 ”