谷歌、Meta、OpenAI 联同其他行业巨头共同打击 AI 产生的儿童性虐待图像|TodayAI

PonderAI-智能助手

谷歌、Meta、OpenAI 等全球科技巨头已联合行动,与其他行业领导者共同宣布,将加强措施,防止人工智能技术被用来制造或传播儿童性虐待图像。

为打击儿童性虐待材料(CSAM:child sexual abuse material)的传播,这些顶尖的生成式 AI 开发商组成了一个联盟,并承诺围绕这项新兴技术执行安全措施。这一联盟由两个非营利组织——儿童科技组织 Thorn 和总部位于纽约的 All Tech is Human 组织牵头成立。Thorn 自2012年由演员黛米·摩尔和阿什顿·库彻发起,原名为DNA基金会。

该集体在周二宣布了这一承诺,并发布了一份新的 Thorn 报告,提倡在生成式 AI 开发中实施“安全设计”原则,以防止在 AI 模型的整个生命周期中产生儿童性虐待材料(CSAM)。

Thorn 在一份声明中呼吁所有开发、部署、维护和使用生成式 AI 技术与产品的公司,承诺采纳这些安全设计原则,并展示他们防止产生和传播 CSAM、AIG-CSAM 以及其他儿童性虐待和剥削行为的决心。AIG-CSAM 指的是 AI 生成的 CSAM,报告显示这种材料相对容易制作。

Thorn 开发了旨在保护儿童免受性虐待和剥削的工具和资源。根据其 2022 年的影响报告,该组织发现了超过 824,466 个包含儿童虐待材料的文件。去年,Thorn 报告称,仅在美国就有超过 1.04 亿个疑似 CSAM 的文件被报道。AIG-CSAM的涌入对已经征税的儿童安全生态系统构成了重大风险,加剧了执法部门在识别和拯救现有虐待受害者方面面临的挑战,并扩大了更多儿童的新的受害情形。

随着公开可用的生成式 AI 模型的出现,不依赖云服务的独立 AI 模型开始在暗网论坛上流传,深度伪造儿童色情内容的问题急剧增加。

Thorn 指出,生成式 AI 使得现在比以往任何时候都更容易创造大量内容。一个儿童性掠夺者(predator)可能会创造大量的儿童性虐待材料(CSAM),包括将原始图像和视频转换为新内容。

谷歌、Meta、OpenAI 联同其他行业巨头共同打击 AI 产生的儿童性虐待图像|TodayAI

Thorn 的报告概述了一系列原则,生成式 AI 开发者将遵循这些原则,以防止他们的技术被用来创建儿童色情内容。这包括负责任地获取训练数据集、纳入反馈循环和压力测试策略、采用内容历史或“来源”来考虑对抗性滥用,并负责任地托管各自的 AI 模型。

加入这一承诺的还有 Microsoft、Anthropic、Mistral AI、Amazon、Stability AI、Civit AI 和 Metaphysic 等公司,它们都为此发布了独立的声明。

谷歌、Meta、OpenAI 联同其他行业巨头共同打击 AI 产生的儿童性虐待图像|TodayAI

“Metaphysic 的一部分精神就是在 AI 世界中负责任的发展,这不仅是赋权,更是责任感,” Metaphysic的负责人说。“我们很快认识到,启动和发展意味着确实要保护我们社会中最脆弱的群体,即儿童,并且不幸地是,这项技术的最黑暗用途,即被用于制作儿童性虐待材料,包括深度伪造色情内容。”

“在 Meta ,我们花了十多年时间努力维护在线安全。在此期间,我们开发了许多工具和功能,帮助预防和对抗潜在的伤害——随着掠夺者试图逃避我们的保护措施,我们也在持续适应这些变化,”Meta 在一份准备好的声明中说。

谷歌的信任与安全解决方案负责人在一篇文章中写道:“在我们的产品中,我们通过哈希匹配技术、人工智能分类器和人工审查的结合,主动检测和移除 CSAM 材料。我们的政策和保护措施旨在检测所有类型的 CSAM ,包括 AI 生成的 CSAM 。当我们发现有剥削性内容时,我们会将其移除并采取适当行动,这可能包括向 NCMEC 报告。”

OpenAI 对此次倡议没有进一步评论,而是提供了一份来自其儿童安全负责人的公开声明:“我们非常关注我们工具的安全性和负责任的使用,这就是为什么我们在 ChatGPT 和 DALL-E 中建立了坚固的防护措施和安全措施。”该负责人在声明中说。“我们致力于与 Thorn、All Tech is Human 以及更广泛的技术社区合作,坚持安全设计原则,并继续我们在减少对儿童潜在伤害方面的工作。”

英国监管机构 Internet Watch Foundation 在去年10月份警告称,AI生成的儿童虐待材料可能会“压倒”互联网。

科技巨头和行业领导者的这些行动体现了科技行业对于儿童安全的深刻关注和持续的努力。通过这种跨公司、跨行业的合作,行业领导者们展示了他们在利用科技保护最弱势群体——儿童方面的责任意识。这种集体行动不仅反映了对现有法律和道德责任的遵守,也是对技术未来可能带来的风险的前瞻性管理。

此外,这些措施和承诺也表明,科技企业正致力于持续改进他们的产品和服务,确保它们不被用于非法和有害的目的。通过实施严格的安全设计原则和维持高水平的警觉性,这些公司希望减少儿童性虐待材料的产生和传播,保护儿童免受网络空间的伤害。

这些努力和承诺是一个长期过程,需要持续的监督、评估和改进。同时,这也需要公众、政府机构和全球监管机构的参与和支持,以确保这些技术被负责任地开发和使用,真正达到保护儿童和其他弱势群体的目的。

通过这样的集体行动和公共承诺,科技行业正展示其在解决AI技术可能带来的社会和伦理挑战方面的领导力和责任感。这些努力表明,虽然科技发展速度惊人,但在推动技术进步的同时,维护人类的基本权利和安全仍然是至关重要的。

谷歌、Meta、OpenAI 联同其他行业巨头共同打击 AI 产生的儿童性虐待图像|TodayAI
© 版权声明

相关文章