传Apple在2019年就开始扫描用户iCloud邮件,以查找儿童性虐待内容:全球用户呼吁Apple放弃计划!

关注我们的 WhatsApp 频道, TikTokInstagram 以观看最新的短视频 - 开箱,测评与第一手新闻资讯。

不久前,Apple宣布一项名为“neuralMatch”技术的新政策,它会在图片上传到iCloud之前进行扫描。一旦找到了匹配的CSAM(儿童性虐待照片),将会通知审核人员检查。若确认存在儿童色情内容,那么Apple方面将关闭账户,并通知美国国家失踪和被剥削儿童中心。

但是,这政策引发了大家对隐私问题的担忧,毕竟如此一来用户的相册照片就会被上传至云端,被后台人员查看。虽然Apple也曾向用户解释他们不会扫描机主的整个照片库来寻找虐童图片,而是使用密码学把图片与美国国家失踪与受虐儿童中心提供的已知数据库进行比对,但此举依然让人感觉到不舒服。

随着事件的不断发酵,关于Apple“侵犯隐私”的报道越来越多,甚至有消息称Apple从2019年就已经开始对iCloud邮件账户进行扫描,查找儿童性虐待内容。

据消息称,Apple从2019年就对考试iCloud Mail附件进行扫描,这些邮件是没有加密的,在上传Apple服备器时可以扫描。不过,报道称Apple并没有扫描iCloud备份。目前许多网络安全和IT专家对Apple的计划表示不满,全球范围内的90多个团体联名给Apple CEO Tim Cook写了一封公开信,呼吁Apple可以放弃此计划。

需注意的是,Apple表示,这套系统只在美国提供,并且只有在用户打开iCloud照片后才能启用。更多的科技资讯,请继续守住TechNave中文版

资料来源

大家来评论

传Apple在2019年就开始扫描用户iCloud邮件,以查找儿童性虐待内容:全球用户呼吁Apple放弃计划!

| 新闻/资讯 |