苹果公司曾表示,将实施一项系统,在将美国 iPhone 上的照片上传到其 iCloud 存储服务之前对其进行检查,以确保上传的照片与已知的儿童性虐待图像不符。
苹果表示,检测到足以防止误报的虐待儿童图像上传将触发对用户的人工审查并向执法部门报告。
它表示该系统旨在将误报减少到万亿分之一。
Apple 的新系统旨在满足执法部门的要求,以帮助阻止儿童性虐待,同时尊重作为公司品牌核心宗旨的隐私和安全实践。
但一些隐私倡导者表示,该系统可以为监控 iPhone 上的政治言论或其他内容打开大门。
大多数其他主要技术提供商——包括 Alphabet Inc 的谷歌、Facebook 和微软——已经在根据已知的儿童性虐待图像数据库检查图像。
“有这么多人使用 Apple 产品,这些新的安全措施对于那些在网上被引诱并且其恐怖图片在儿童性虐待材料中传播的儿童来说具有挽救生命的潜力,”美国国家失踪与被剥削中心首席执行官约翰克拉克说。孩子们在一份声明中说。
“现实是隐私和儿童保护可以共存。”
苹果系统的工作原理如下:
执法人员维护着一个已知的儿童性虐待图像数据库,并将这些图像转换为“哈希”——数字代码可以肯定地识别图像,但不能用于重建它们。
Apple 已经使用一种名为“NeuralHash”的技术实现了该数据库,该技术旨在还可以捕获与原始图像类似的经过编辑的图像。
该数据库将存储在 iPhone 上。
当用户将图像上传到 Apple 的 iCloud 存储服务时,iPhone 将创建要上传的图像的哈希值,并将其与数据库进行比较。
苹果表示,仅存储在手机上的照片不会被检查,并且在向执法部门报告帐户之前进行人工审查是为了在暂停帐户之前确保任何匹配都是真实的。
苹果公司表示,如果用户认为自己的账户被不当暂停,可以上诉要求恢复账户。