苹果上周宣布,它将开始扫描所有上传到 iCloud 的照片,以寻找潜在的儿童性虐待材料 (CSAM)。它受到了大量审查并引起了一些愤怒,包括苹果员工。在今年晚些时候推出之前,您需要了解有关这项新技术的信息。8 月 13 日:在接受《华尔街日报》乔安娜·斯特恩 (Joanna Stern) 采访时,软件工程高级副总裁 Craig Federighi 表示,苹果的新技术“被广泛误解”。他进一步解释了该系统的工作原理,如下所述。Apple 还发布了一份文档,其中包含有关 Messages 中的安全功能和 CSAM 检测功能的更多详细信息。

8 月 12 日:路透社报道称,数百条消息充斥着苹果的 Slack 频道,对新系统的担忧。
Apple 将在三个领域推出新的反 CSAM 功能:消息、iCloud 照片以及 Siri 和搜索。据 Apple 称,以下是它们中的每一个将如何实施。
消息:消息应用程序将使用设备上的机器学习来警告儿童和父母有关敏感内容的信息。
iCloud 照片:在将图像存储在 iCloud 照片中之前,会根据已知的 CSAM 哈希值对该图像执行设备上匹配过程。
Siri 和搜索: Siri 和搜索将提供额外资源,帮助儿童和家长保持在线安全,并在不安全的情况下获得帮助。
系统什么时候到?
Apple 表示消息、Siri 和搜索功能将在 iOS 15、iPadOS 15 和 macOS Monterey 中提供。需要明确的是,Apple 并没有说这些技术会在 iOS 15 登陆时到来,因此它可能会进行后续更新。iCloud 照片扫描没有具体的发布日期,但可能也会在今年晚些时候推出。

