关闭广告

上周末,我们向您介绍了一个相当有趣的新奇事物,这是一个用于检测描绘虐待儿童的图像的新系统。具体来说,苹果将扫描 iCloud 上存储的所有照片,一旦发现,将向有关当局报告这些情况。尽管该系统在设备内“安全”运行,但该巨头仍然因侵犯隐私而受到批评,受欢迎的举报人爱德华·斯诺登也宣布了这一点。

问题在于,苹果到目前为止一直依赖用户的隐私,它希望在任何情况下都保护用户的隐私。但这个消息直接颠覆了他们原本的态度。苹果种植者实际上面临着既成事实,必须在两种选择之间做出选择。他们要么让一个特殊的系统扫描 iCloud 上存储的所有图片,要么他们将停止使用 iCloud 照片。然后整个事情就会变得非常简单。 iPhone 将下载哈希数据库,然后将其与照片进行比较。同时,也会介入新闻,保护孩子,及时告知家长危险行为。然后,人们会担心有人可能滥用数据库本身,甚至更糟糕的是,系统不仅可能扫描照片,还可能扫描消息和所有活动。

苹果CSAM
这一切是如何运作的

当然,苹果必须尽快回应批评。为此,例如,它发布了一份常见问题解答文档,目前已确认该系统仅扫描照片,而不扫描视频。他们还将其描述为比其他科技巨头正在使用的版本更加保护隐私的版本。与此同时,苹果公司更准确地描述了整个事情的实际运作方式。如果将数据库与 iCloud 上的图片进行比较时出现匹配,则会为此事实创建一个加密安全凭证。

正如上面已经提到的,该系统也将相对容易被绕过,苹果直接证实了这一点。在这种情况下,只需禁用 iCloud 上的“照片”即可轻松绕过验证过程。但有一个问题出现了。这值得么?无论如何,好消息仍然是该系统仅在美国实施,至少目前如此。您如何看待这个制度?您是否赞成将其引入欧盟国家,或者这是否过于侵犯隐私?

.