苹果因取消儿童性虐待材料检测计划遭起诉,受害者指控其违背保护承诺

   日期:2024-12-09     来源:网络整理    作者:二手钢材网    浏览:129    评论:0    
核心提示:年取消原定的儿童性虐待材料(CSAM)检测计划而被起诉。岁女性以化名起诉苹果,指控其违背了保护受害者的承诺。检测功能因隐私专家、儿童安全组织和政府的广泛反对被取消。”他提到苹果扩展了信息应用中的裸露内容检测功能,并允许用户举报有害材料。

_苹果因2022年取消CSAM检测功能被起诉_苹果因2022年取消CSAM检测功能被起诉

_苹果因2022年取消CSAM检测功能被起诉_苹果因2022年取消CSAM检测功能被起诉

苹果在 2021 年底宣布,计划通过设备端哈希系统扫描图像,以检测和防止 CSAM 的传播,并在用户发送或接收包含裸露的照片时发出警告。目前,裸体检测 ( ) 仍然存在,但由于隐私专家、儿童安全组织和政府的广泛反对,CSAM 检测被删除。

_苹果因2022年取消CSAM检测功能被起诉_苹果因2022年取消CSAM检测功能被起诉

原告称,执法部门通知她,在 CSAM 检测功能仍处于活动状态时,她被性虐待的图像已上传到在佛蒙特州查获的一部手机中。她在诉讼中表示,苹果决定终止该功能,导致该材料得以广泛传播,向消费者出售“有缺陷的产品”,从而对像她这样的用户造成伤害。

苹果因2022年取消CSAM检测功能被起诉__苹果因2022年取消CSAM检测功能被起诉

据该女子的律师称,原告要求苹果公司改变其做法,并向可能多达 2,680 名其他符合资格的受害者提供赔偿,根据法律,这些受害者每人至少有权获得 15 万美元的赔偿。如果所有受害者成功获得赔偿,苹果的赔偿金额可能会超过12亿美元(IT之家注:目前约为87.28亿元人民币)。

苹果因2022年取消CSAM检测功能被起诉__苹果因2022年取消CSAM检测功能被起诉

类似的案例在北卡罗来纳州也发生过。一名 9 岁的 CSAM 受害者正在起诉苹果公司,称她通过链接收到了陌生人发来的非法视频,并被鼓励拍摄和上传类似内容。苹果提出了驳回此案的动议,称联邦法规第 230 条保护其免于对用户上传的材料承担责任。但法院最近裁定,这种法律保护仅适用于主动内容审核的情况,这可能会削弱苹果的辩护。

针对新的诉讼,苹果发言人 Fred Sainz 表示:“苹果认为儿童性虐待材料令人愤慨,我们致力于在不损害用户隐私和安全的情况下积极打击相关犯罪行为。”他提到苹果在消息应用程序中扩展了裸体检测,并允许用户报告有害内容。然而,原告及其律师玛格丽特·马比认为,苹果的措施还远远不够。

苹果因2022年取消CSAM检测功能被起诉_苹果因2022年取消CSAM检测功能被起诉_

Mabee 表示,她通过执法报告和相关文件发现了 80 多起与受害者图像和苹果产品有关的案件。分享这些照片的人之一是一名湾区男子,他的账户中存储了 2000 多张非法照片。图片和视频。

 
打赏
 
更多>同类资讯

0相关评论
推荐热播视讯

推荐视频

    Copyright © 2017-2020  二手钢材网  版权所有  
    Powered By DESTOON 皖ICP备20008326号-2