游戏传奇首页
游戏我的天下首页
最好看的新闻,最实用的信息
04月26日 8.7°C-14.8°C
澳元 : 人民币=4.71
悉尼
今日澳洲app下载
登录 注册

苹果高管承认儿童安全功能让用户混淆 并透露相关保障措施新细节

2021-08-14 来源: cnBeta 原文链接 评论0条

Craig Federighi承认,苹果在上周宣布这两项新功能时处理得不好,这两项功能涉及检测儿童信息中的明确内容和存储在iCloud照片库中的CSAM内容,并承认围绕这些工具存在广泛的混淆。很明显,很多信息在如何理解方面被搞得很乱,苹果希望可以更加清楚地向用户进行说明。

苹果高管承认儿童安全功能让用户混淆 并透露相关保障措施新细节 - 1

事后看来,在同一时间推出这两个功能是造成这种混乱的主要原因。苹果推出的通信安全功能意味着,如果儿童通过iMessage发送或接收露骨的图像,他们在查看之前会得到警告,图像会被模糊,并且会有一个选项让他们的父母得到提醒。另一方面,CSAM扫描则试图在上传到iCloud之前,将用户的照片与已知CSAM的散列图像进行匹配。检测到CSAM的账户将接受苹果公司的人工审查,并可能被报告给美国国家失踪和被剥削儿童中心(NCMEC)。

这些新功能受到了来自用户、安全研究人员、电子前沿基金会(EFF)和爱德华斯诺登的大量批评,甚至是苹果员工的批评。在这些批评声中,Craig Federighi解决了其中一个主要的关注领域,强调苹果的系统将受到保护,防止被政府或其他第三方利用,并有多层次的可审计性。

Craig Federighi还透露了围绕该系统保障措施的一些新细节,例如,用户需要在其照片库中满足约30个CSAM内容的匹配,苹果才会被提醒,届时它将确认这些图像是否是CSAM的真实实例。如果而且只有当用户达到30张已知儿童色情图片的匹配门槛时,苹果才会知道用户的账户和这些图片的情况,而且在这一点上,苹果只知道这些图片,不知道用户的任何其他图片。

Craig Federighi还指出了将匹配过程直接放在iPhone上的安全优势,而不是发生在iCloud的服务器上。因为它在手机上,安全研究人员能够不断研究苹果手机软件中发生了什么。因此,如果做出任何改变,以某种方式扩大这个范围,安全研究人员就会及时发现。

当被问及用于匹配用户设备上CSAM内容的图像数据库是否会插入其他材料(如政治内容)而受到影响时,Craig Federighi解释说,该数据库是由多个儿童安全组织的图像构建的,其中至少有两个是在不同的司法管辖区。据Craig Federighi称,这些儿童保护组织以及一个独立的审计机构将能够核实图像数据库只包括来自这些实体的内容。

转载声明:本文为转载发布,仅代表原作者或原平台态度,不代表我方观点。今日澳洲仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络content@sydneytoday.com。
今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

分享新闻电话: (02) 8999 8797

联系邮箱: info@sydneytoday.com 商业合作: business@sydneytoday.com网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:news@sydneytoday.com

友情链接: 华人找房 到家 今日支付Umall今日优选