苹果因未能打击滥用图片而面临 12 亿美元诉讼

一名在婴儿时期遭受虐待的 27 岁女性对苹果公司提起诉讼,指控该公司未能有效阻止她童年受虐图像的继续传播。该法律行动突显了科技公司如何在线管理和报告 CSAM(儿童性虐待材料)方面持续存在的挑战。

该诉讼向北加州美国地方法院提起,声称苹果没有完全实施其承诺的识别和删除非法图像的工具。出于安全原因,这位不愿透露姓名的原告辩称,尽管苹果开发了一种名为 NeuralHash 的扫描系统,但在面临网络安全专家的批评后,苹果放弃了该技术。

据报道,该法律诉讼旨在代表 2,680 名潜在受害者,损失可能超过 12 亿美元

纽约时报。该诉讼对苹果处理 CSAM 的方式提出了挑战,指出与谷歌和 Facebook 等其他科技巨头相比,该公司历来报告的案例要少得多。

该案反映了新兴的法律策略,挑战科技公司对用户生成内容的责任。最近的法院裁决表明,之前《通信规范法》第 230 条规定的保护措施可能无法提供全面豁免。

苹果坚称,它致力于打击 CSAM,同时保护用户隐私。该公司推出了安全工具,例如消息应用程序中的内容警告以及报告有害材料的方法。

法律专家表示,该诉讼面临重大挑战。斯坦福大学以人为中心的人工智能研究所的 Riana Pfefferkorn 指出,成功的起诉可能会引发有关政府强制内容扫描的复杂宪法问题。

该诉讼源于对科技平台如何处理敏感内容的更广泛担忧。自 2009 年微软首次开发 PhotoDNA 来识别非法图像以来,科技公司一直在努力平衡隐私问题与儿童保护工作。

对于原告来说,这起诉讼不仅仅代表着法律挑战,更是一项声明,要求科技公司有责任保护弱势群体免受滥用材料持续流通造成的持续创伤。