Microsoft hat Designer aktualisiert, das Tool für künstliche Intelligenz, mit dem Bilder ausgehend von Textangaben erstellt werden können, die zur Erstellung sexuell eindeutiger Fotos von Taylor Swift verwendet wurden, die später viral gingen und von der X-Plattform blockiert wurden.

Nach dem Update erlaubt die App nicht mehr, beliebige sexuell eindeutige Begriffe zur Generierung ähnlicher Bilder zu verknüpfen, auch nicht von nicht berühmten Personen. Laut der Website 404 Media stammten die von der KI erstellten Nacktfotos von Taylor Swift aus dem 4chan-Forum und einem Telegram-Kanal, wo Menschen mithilfe von Designer KI-Bilder von Prominenten erstellten.

Bevor Swifts Nachrichten in den sozialen Medien verbreitet wurden, verhinderte der Designer die Erstellung von Inhalten, indem er Begriffe wie „Taylor Swift nackt“ eingab, aber Benutzer konnten die Schutzmaßnahmen umgehen, indem sie den Namen falsch buchstabierten und Wörter verwendeten, die nur sexuell anzüglich waren. Mängel, die nach dem Update behoben würden.

„Wir untersuchen die Berichte und ergreifen geeignete Schritte, um dagegen vorzugehen“, sagte ein Microsoft-Sprecher kurz nach der Veröffentlichung der Deepfakes. „Der Verhaltenskodex verbietet die Verwendung unserer Tools zur Erstellung intimer oder nicht einvernehmlicher Inhalte für Erwachsene und jeder wiederholte Versuch, Inhalte zu erstellen, die unseren Richtlinien widersprechen, kann zum Verlust des Zugriffs auf den Dienst führen.“ „Wir haben Teams, die an einer solchen Überwachung im Einklang mit den Grundsätzen verantwortungsvoller künstlicher Intelligenz arbeiten, einschließlich Inhaltsfilterung und Missbrauchserkennung, um eine sicherere Umgebung für Benutzer zu schaffen“, schloss das Redmonder Unternehmen.

(Uniononline/D)

© Riproduzione riservata