Apple 宣布新的儿童安全保护措施

苹果今天预览了新的儿童安全功能,这些功能将随着全年的软件更新而推出。苹果宣布,这项新功能最初将仅在美国推出。 …

苹果今天预览了新的儿童安全功能,这些功能将随着全年的软件更新而推出。苹果宣布,这项新功能最初将仅在美国推出。

iPhone、iPad 和 Mac 上的“消息”应用程序添加了新的通信安全功能,可以在孩子及其父母发送或接收露骨色情照片时发出警报。苹果表示,消息应用程序使用设备上的机器学习来分析附加的图像。如果照片被认为是露骨的,它会自动模糊,并且孩子会收到警报。

Apple 宣布新的儿童安全保护措施

如果您的孩子尝试查看“消息”应用中标记为敏感的照片,他们会收到警告,该照片包含裸露内容,可能具有冒犯性。根据孩子的年龄,当此类照片到达或发送时,家长也可能会收到通知。 Apple 确保您的 iMessage 对话受到端到端加密的保护,因此 Apple 无法读取您的私人通信。

尽管可能存在一些争议,但谷歌和微软等其他公司在扫描儿童性虐待照片(CSAM,儿童性虐待材料)时已经使用了类似的机制。

展示此类内容且已知的照片可通过哈希进行识别。 Apple 可能会向国家失踪和受虐儿童中心 (NCMEC) 报告这些案件,该中心是一个与美国执法部门合作的非营利组织。

Apple 宣布新的儿童安全保护措施

苹果表示,该系统不会扫描云中的图像,而是将它们与 NCMEC 和其他儿童保护组织提供的已知 CSAM 图像的设备上数据库进行比较。 Apple 将此数据库转换为一组不可读的哈希值,并安全地存储在您的设备上。这意味着不会检查池照片是否存在裸体,而是检查照片是否与已知的 CSAM 图像具有相同的哈希值。

Apple在此页面上详细解释了整个过程。因此,即使图像在某个时刻暴露超过特定阈值,加密技术也将允许苹果评估相关日志。图像已链接。然后,Apple 手动审核每个报告以确保匹配,禁用用户的帐户,并将报告发送给 NCMEC。

如果您认为您的帐户被错误地屏蔽,您可以上诉以重新激活您的帐户。据说,每年被错误报告到特定账户的几率小于万亿分之一。

Apple 宣布新的儿童安全保护措施

据 Apple 称,所使用的技术具有数据保护优势,因为只有当您的 iCloud 照片帐户中拥有已知的 CSAM 内容集合时,Apple 才会了解您的照片。即使在这些情况下,Apple 也只会了解与已知 CSAM 匹配的图像。

苹果还扩展了 Siri 和搜索帮助,添加了额外的资源来帮助孩子和父母保持上网安全并在危险情况下获得帮助。这意味着询问 Siri 如何举报 CSAM 或儿童剥削的用户将被引导至有关在何处以及如何举报的资源。

Siri 和搜索也将更新,以便在用户询问 CSAM 时进行干预。这些干预措施向用户解释对这个主题的兴趣是有害的和有问题的,并提供合作伙伴的资源来帮助他们解决这个问题。

Apple 宣布新的儿童安全保护措施

Siri 和搜索的这些更新将于今年晚些时候发布,同时还将发布 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新。如上所述,它仅在美国可用。

感兴趣的各方可以在下面的文档中找到有关这些功能的详细信息,包括密码学和机器学习专家对 CSAM 检测系统的技术概述、证据和独立评估。