Microsoft ha aggiornato Designer, lo strumento di intelligenza artificiale capace di creare immagini a partire da indicazioni testuali che sarebbe stato utilizzato per realizzare foto sessualmente esplicite di Taylor Swift poi diventate virali e bloccate dalla piattaforma X. 

Dopo l’aggiornamento l’app non permette più di associare alcun termine sessualmente esplicito per la generazione di immagini simili, anche di personaggi non famosi. Secondo il sito 404 Media le foto di nudo di Taylor Swift create grazie all'IA provenivano dal forum 4chan e da un canale Telegram in cui le persone usavano Designer proprio per generare immagini di celebrità con l'IA.

Prima che quelle di Swift venissero diffuse sui social, Designer impediva la realizzazione di contenuti digitando termini come "Taylor Swift nuda", ma gli utenti erano riusciti ad aggirare le protezioni scrivendo il nome in modo errato e usando parole solo sessualmente allusive. Lacune che sarebbero state risolte dopo l’aggiornamento.

«Stiamo indagando sulle segnalazioni e adottando le misure appropriate per affrontarle», aveva riferito un portavoce di Microsoft subito dopo la condivisione dei deepfake. «Il codice di condotta vieta l'uso dei nostri strumenti per la creazione di contenuti intimi per adulti o non consensuali e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre politiche potrebbe comportare la perdita dell'accesso al servizio. Abbiamo team che lavorano proprio su un monitoraggio del genere, in linea con i principi di intelligenza artificiale responsabile, tra cui il filtraggio dei contenuti e il rilevamento degli abusi per creare un ambiente più sicuro per gli utenti», ha concluso la società di Redmond.

(Unioneonline/D)

© Riproduzione riservata