Craig Federighi承认,苹果在上周宣布这两项新功能时处理得不好,这两项功能涉及检测儿童信息中的明确内容和存储在iCloud照片库中的CSAM内容,并承认围绕这些工具存在广泛的混淆 … Craig Federighi还透露了围绕该系统保障措施的一些新细节,例如,用户需要在其照片库中满足约30个CSAM内容的匹配,苹果才会被提醒,届时它将确认这些图像是否是CSAM的真实实例 … 如果而且只有当用户达到30张已知儿童色情图片的匹配门槛时,苹果才会知道用户的账户和这些图片的情况,而且在这一点上,苹果只知道这些图片,不知道用户的任何其他图片。