研究人员称,儿童虐待图像已从人工智能图像生成器训练源中删除
人工智能研究人员周五表示,他们从用于训练流行人工智能图像生成工具的数据集中删除了 2,000 多个疑似儿童性虐待图像的网络链接。LAION 研究数据集是一个巨大的在线图像和标题索引,它是 Stable Diffusion 和 Midjourney 等领先的 AI 图像制作者的资料来源。
但斯坦福互联网观察站去年的一份报告发现,其中包含儿童色情图片的链接,这导致一些人工智能工具能够轻松制作出描绘儿童的逼真的深度伪造作品。
去年 12 月的报告促使非营利性大型人工智能开放网络 (LAION) 立即删除了其数据集。八个月后,LAION 在一篇博客文章中表示,它与斯坦福大学监督组织以及加拿大和英国的反滥用组织合作解决了这个问题,并发布了一个清理过的数据集,供未来的人工智能研究使用。
斯坦福大学研究员、12 月份报告的作者戴维·蒂尔 (David Thiel) 对 LAION 的重大改进表示赞赏,但表示下一步将停止分发仍然能够制作虐待儿童图像的“受污染模型”。
斯坦福大学认定的“最受欢迎的露骨图像生成模型”之一——基于 LAION 的工具——Stable Diffusion 的旧版和轻度过滤版本——一直很容易获取,直到周四,总部位于纽约的 Runway ML 公司将其从 AI 模型库 Hugging Face 中删除。Runway 在周五的一份声明中表示,这是“计划弃用未积极维护的研究模型和代码”。
在世界各国政府密切关注某些技术工具如何被用于制作或分发儿童非法图像之际, LAION数据集的清理版本发布了。
旧金山市检察官本月初提起诉讼,寻求关闭一批允许制作人工智能生成女性和女孩裸照的网站。据称,Telegram 上传播儿童性虐待图片是导致法国当局于周三对该平台创始人兼首席执行官帕维尔·杜罗夫提出指控的原因之一。
加州大学伯克利分校研究员戴维·埃文·哈里斯 (David Evan Harris) 表示,杜罗夫的被捕“标志着整个科技行业发生了巨大变化,这些平台的创始人将被追究个人责任”。哈里斯最近联系 Runway,询问为什么这个有问题的人工智能图像生成器仍然可以公开访问。几天后,该应用程序被删除。
页:
[1]