英国监管机构指控苹果未能报告儿童色情图片
苹果正在被儿童安全专家指责未能有效监控其平台或扫描儿童性虐待的图像和视频,这引发了关于该公司如何处理与人工智能相关的这类材料数量增长的担忧。
英国防止虐待儿童协会(NSPCC)指责苹果严重低估了儿童色情虐待资料(CSAM)在其产品中出现的频率。根据NSPCC获取的警方数据,在英格兰和威尔士,儿童色情内容制造者在仅一年内就使用苹果的iCloud、iMessage和FaceTime存储和交换CSAM的案例数量比该公司在全球其他所有国家报告的情况还要多。
根据通过自由信息申请收集的数据,并与《卫报》独家分享,这家儿童慈善组织发现,2022年4月至2023年3月,在英格兰和威尔士发生了337起儿童色情图像犯罪案件。在2023年,苹果仅向美国国家失踪和被剥削儿童中心(NCMEC)报告了267起全球范围内其平台上可疑CSAM的案例,而谷歌报告的数量超过147万,Meta报告的数量超过3060万,根据NCMEC的年度报告。
所有总部位于美国的科技公司有义务向NCMEC报告他们在平台上检测到的所有CSAM案件。这家总部位于弗吉尼亚州的组织充当了世界各地儿童虐待的举报中心,审查这些举报并将其发送给相关执法机构。iMessage是一种加密消息服务,这意味着苹果无法查看用户消息的内容,但Meta的WhatsApp也是如此,它在2023年向NCMEC报告了大约140万起可疑CSAM案例。
NSPCC的在线儿童安全政策负责人理查德·科拉德表示:“英国苹果服务中发生的儿童性虐待图片犯罪案件数量与其向当局报告的虐待内容几乎为零的比例之间存在令人担忧的差距。苹果在处理儿童性虐待问题方面明显落后于许多同行公司,所有科技公司都应该投资于安全,并为在线安全法在英国的推出做好准备。”
苹果拒绝对本文发表评论。该公司转而指引《卫报》查看其去年8月发表的声明,声明中称其决定不推进扫描iCloud照片中的CSAM的计划,因为它选择了一条“优先考虑用户安全和隐私”的道路。
在2022年底,苹果放弃了推出iCloud照片扫描工具的计划。苹果的名为neuralMatch的工具将在上传到iCloud的在线照片存储之前扫描图像,通过数学指纹(称为哈希值)与已知的儿童虐待图像数据库进行比较。
然而,数字权利团体对该软件提出了反对意见,他们担心它最终会被用来危害所有iCloud用户的隐私和安全。儿童安全倡导者谴责了此功能的撤销。洛杉矶儿童保护非营利组织Heat Initiative的首席执行官萨拉·加德纳表示:“苹果根本未能大规模地在多数环境中检测CSAM。他们显然在低报,也未投资于信任和安全团队来处理这个问题。”
苹果宣布将推出一项人工智能系统Apple Intelligence的消息引起了儿童安全专家的警示。“在人工智能生成的儿童虐待内容正将儿童置于危险之际,对警方保护年轻受害者的能力造成影响的情况下,苹果计划推出Apple AI的竞争令人担忧,尤其是在苹果推迟嵌入保护儿童技术的情况下,” 科拉德说。苹果表示,这项与OpenAI合作开发的AI系统将定制用户体验,自动化任务,并增加用户的隐私。
2023年,NCMEC收到了4700多份AI生成的CSAM报告,并表示预计未来这类报告数量将增加。由于能够生成CSAM的AI模型已经经受“现实生活”中儿童虐待图像的训练,AI生成的图像也牵涉到对儿童的伤害。《卫报》在六月份报道称,儿童色情制造者正在利用人工智能创造他们喜欢的受害者的新图像,进一步加剧了幸存者或儿童虐待画面的创伤。
加德纳表示:“公司正在向我们知道可能对儿童造成极具破坏性和危险的领域迈进,而其自身没有能力处理这一问题的记录。”“苹果是一个黑洞。”
探究更多相关主题
苹果
儿童
西海岸
新闻
分享
重复使用此内容。请务必合理使用。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
英国监管机构指控苹果未能报告儿童色情图片