微软更新了 Designer,这是一款人工智能工具,能够从文本指示开始创建图像,这些图像本来可以用来创建泰勒·斯威夫特 (Taylor Swift) 的露骨色情照片,这些照片后来病毒式传播并被 X 平台屏蔽。

更新后,该应用程序不再允许您关联任何露骨的色情术语来生成类似的图像,即使是非名人的图像。据 404 Media 网站报道,AI 制作的泰勒·斯威夫特 (Taylor Swift) 裸照来自 4chan 论坛和 Telegram 频道,人们在其中使用 Designer 生成名人的 AI 图像。

在斯威夫特的信息在社交媒体上传播之前,设计师通过输入“泰勒·斯威夫特裸体”等术语来阻止内容的创建,但用户可以通过错误拼写名字和使用仅具有性暗示的词语来绕过保护。更新后将修复的缺点。

“我们正在调查这些报告,并采取适当的措施来解决这些问题,”微软发言人在深度伪造品被分享后不久表示。 «行为准则禁止使用我们的工具创建亲密或未经同意的成人内容,任何重复尝试制作违反我们政策的内容都可能导致无法使用该服务。我们有团队致力于此类监控,符合负责任的人工智能原则,包括内容过滤和滥用检测,为用户创造一个更安全的环境”,雷德蒙德公司总结道。

(联合在线/D)

© Riproduzione riservata