关闭广告

苹果操作系统的最大优势之一是安全性和对隐私的重视。至少苹果公司在承诺为用户提供最大程度的保护时是这样表现的。另一方面,事实是,在这些系统中,我们可以找到许多方便的功能,例如“使用 Apple 登录”、“应用程序跟踪透明度”、iCloud+、阻止 Safari 中的跟踪器、安全存储密码等。比如这样的iOS系统,也太好了,苹果自己也无法破解它的保护。

毕竟,自 2015 年 5 月以来,苹果粉丝就知道了这一点,当时美国联邦调查局 (FBI) 要求苹果开发一款在不知道密码的情况下解锁任何 iPhone 的工具。当时,警方没收了参与加州圣贝纳迪诺市恐怖袭击的一名枪手的 iPhone XNUMXC。但问题是他们没有办法进入手机,而且苹果拒绝开发这样的工具。该公司表示,创建后门会创造许多破坏保护的不友好机会,从而有效地使每部 iPhone 都容易受到攻击。苹果因此拒绝了。

苹果会解锁 iPhone 的后门吗?

无论如何,多年前,苹果就向我们证实,它不会掉以轻心地对待用户的隐私。这一事件因此增强了整个公司在隐私方面的声誉。但苹果做得对吗?事实是,这并不是那么容易的事情。一方面,我们可能对犯罪调查有帮助,另一方面,也可能对整个 iOS 操作系统构成​​威胁。不过,正如我们上面提到的,库比蒂诺巨头在这方面已经采取了坚定的立场,并且没有改变。毕竟,上述担忧在这方面确实有道理。如果该公司本身有能力解锁几乎任何 iPhone,无论使用的密码强度或生物识别身份验证(Face/Touch ID)的设置如何,它都将真正解锁类似的东西被轻易滥用的可能性。只需要一个小错误,这些选择就可能落入坏人之手。

这就是为什么系统中没有后门很重要。但有一个小问题。许多苹果种植者抱怨说,所谓的后门即将推出。 CSAM 保护的引入表明了这一点。 CSAM(儿童性虐待材料)是描述虐待儿童的材料。去年,苹果公布了推出一项功能的计划,该功能可以扫描每条消息并比较是否捕获了与该主题相关的内容。以同样的方式,应扫描存储在 iCloud(在“照片”应用程序中)上的图像。如果系统在年幼儿童的消息或照片中发现露骨的色情材料,苹果就会警告家长,以防孩子们试图进一步发送这些材料。该功能已在美国运行。

苹果追踪
这项保护措施的推出引起了苹果种植者的强烈反应

保护儿童还是违反规则?

正是这一变化引发了关于安全话题的热议。乍一看,这样的东西似乎是一个很棒的小工具,可以真正帮助处于危险中的儿童并及时发现潜在的问题。在这种情况下,对上述照片的扫描由“经过训练的”系统处理,该系统可以检测上述色情内容。但如果有人直接滥用这个系统怎么办?然后他得到了一个强大的武器来迫害几乎任何人。在最坏的情况下,它将成为细分特定群体的合适工具。

无论如何,苹果公司辩称,在发布这一消息时,它最关心的是用户的隐私。因此,照片不是在云端进行比较,而是通过加密哈希直接在设备上进行比较。但这不是目前的重点。如上所述,虽然这个想法可能是正确的,但它很容易被滥用。那么,几年后隐私是否有可能不再成为优先考虑的问题呢?目前,我们只能希望这样的事情永远不会发生。

.