

苹果在 2021 年底宣布,计划通过设备端哈希系统扫描图像,以检测和防止 CSAM 的传播,并在用户发送或接收包含裸露的照片时发出警告。目前,裸体检测 ( ) 仍然存在,但由于隐私专家、儿童安全组织和政府的广泛反对,CSAM 检测被删除。

原告称,执法部门通知她,在 CSAM 检测功能仍处于活动状态时,她被性虐待的图像已上传到在佛蒙特州查获的一部手机中。她在诉讼中表示,苹果决定终止该功能,导致该材料得以广泛传播,向消费者出售“有缺陷的产品”,从而对像她这样的用户造成伤害。

据该女子的律师称,原告要求苹果公司改变其做法,并向可能多达 2,680 名其他符合资格的受害者提供赔偿,根据法律,这些受害者每人至少有权获得 15 万美元的赔偿。如果所有受害者成功获得赔偿,苹果的赔偿金额可能会超过12亿美元(IT之家注:目前约为87.28亿元人民币)。

类似的案例在北卡罗来纳州也发生过。一名 9 岁的 CSAM 受害者正在起诉苹果公司,称她通过链接收到了陌生人发来的非法视频,并被鼓励拍摄和上传类似内容。苹果提出了驳回此案的动议,称联邦法规第 230 条保护其免于对用户上传的材料承担责任。但法院最近裁定,这种法律保护仅适用于主动内容审核的情况,这可能会削弱苹果的辩护。
针对新的诉讼,苹果发言人 Fred Sainz 表示:“苹果认为儿童性虐待材料令人愤慨,我们致力于在不损害用户隐私和安全的情况下积极打击相关犯罪行为。”他提到苹果在消息应用程序中扩展了裸体检测,并允许用户报告有害内容。然而,原告及其律师玛格丽特·马比认为,苹果的措施还远远不够。

Mabee 表示,她通过执法报告和相关文件发现了 80 多起与受害者图像和苹果产品有关的案件。分享这些照片的人之一是一名湾区男子,他的账户中存储了 2000 多张非法照片。图片和视频。


