据报道,苹果将扫描您的 iPhone 以查找虐待儿童的图像

据报道,苹果将扫描您的 iPhone 以查找虐待儿童的图像
据可靠报道,苹果计划开始在美国的 iPhone 上安装软件,该软件将自动扫描本地照片以查找虐待儿童的图像。据报道,苹果只会扫描使用这项技术上传到 iCloud 的照片——至少一开始是这样。

更新: Apple 已在一份详细文件中确认了该报告的大部分内容。

苹果在做什么?

苹果计划的报道来自《金融时报》和约翰霍普金斯大学教授 马修格林,这两个消息来源普遍可靠。当然,在 Apple 确认情况确实如此之前,这种情况总是有可能不会发生。据报道,苹果本周早些时候向一些美国学者展示了该计划。

 

据报道,苹果将使用一种名为“neuralMatch”的系统来扫描美国 iPhone 中的虐待儿童图像。

从本质上讲,如果自动化系统认为检测到非法图像,它会提醒一组人工审核人员。从那里,团队成员将审查图像并联系执法部门。

从技术上讲,这并不是什么新鲜事——基于云的照片存储系统和社交网络已经在进行这种扫描。这里的不同之处在于,Apple 是在设备层面上做到这一点的。根据 Matthew Green 的说法,它最初只会扫描上传到 iCloud 的照片,但它会在用户的手机上执行该扫描。“最初”是那里的关键词,因为它可以很好地用于在某个时候本地扫描所有照片。

这应该可以减少系统的侵入性,因为扫描是在手机上完成的,只有在匹配时才会发送回来,这意味着并非您上传的每张照片都会受到陌生人的关注。

据出席简报会的人士称,上传到 iCloud 的每张照片都会获得一张“安全凭证”,说明是否可疑。当一定数量的照片被标记为可疑时,如果发现任何涉及虐待儿童的内容,Apple 将对其进行解密并将其发送给当局。

系统将如何区分虐待儿童的图像和其他图像?据报道,它已经在美国非营利性国家失踪和受虐儿童中心收集的 20 万张性虐待图像上进行了测试。

图像通过哈希转换为一串数字,然后与数据库中的图片进行比较。

所有这一切都出来后,苹果拒绝就正在发生的事情向《金融时报》发表评论。但是,我们认为该公司正在制定一些官方声明,以免有关这一举措的消息失控。

这开创了一个危险的先例

我们可能不需要告诉你这有多可怕。虐待儿童的人应该被抓住并受到惩罚,但很容易看出如何将这样的事情用于更具侵略性的目的。

正文完