Stanford Internet Observatory 的研究发现,被 Google 和 Stable Diffusion 等 AI 产品使用的机器学习数据库 LAION-5B 包含了 3,226 幅疑似儿童色情图像,其中 1,008 幅已被外部验证。LAION 组织已暂时将数据库下线,以在重新发布前确保它是安全的。Large-scale Artificial Intelligence Open Network(LAION)是一个为机器学习创建开源工具的非营利组织,它从开放网络中抓取了逾 50 亿幅图像,其中可能会混入儿童色情 (CSAM)材料。而在大部分国家,传播儿童色情材料都是非法的。LAION 组织也早就认识到数据库包含 CSAM 的可能性。他们承认无法保证所有儿童色情材料都被移除。
https://www.404media.co/laion-datasets-removed-stanford-csam-child-abuse/