Attenzione a come usate l’intelligenza artificiale e a quale vi rivolgete. Emerge un avvertimento per i consumatori dall’ultima sanzione emessa dal Garante della privacy nei confronti della società statunitense Luka Inc. che gestisce il chatbot “Replika”: dovrà pagare cinque milioni di euro «per non aver individuato le basi giuridiche delle operazioni di trattamento dei dati personali. Inoltre la società «aveva fornito una privacy policy inadeguata sotto vari profili». Non solo: il Garante ha anche avviato una autonoma istruttoria per verificare il corretto trattamento dei dati personali effettuato dal sistema di intelligenza artificiale generativa alla base del servizio.

Ma di cosa si parla?  Replika è un chatbot progettato per migliorare il benessere emotivo degli utenti, aiutandoli a comprendere i propri pensieri e sentimenti, monitorare l’umore, gestire lo stress e lavorare su obiettivi di crescita personale. Gli utenti possono configurare il “compagno virtuale” in diversi ruoli, tra cui amico, terapista, partner romantico o mentore. Il servizio si basa su un sistema di intelligenza artificiale generativa, in particolare su un Large language model (Llm), un modello probabilistico di linguaggio naturale che si perfeziona continuamente attraverso l’interazione con gli utenti. Questo tipo di intelligenza artificiale utilizza algoritmi neurali per creare contenuti originali in risposta ai prompt degli utenti, spaziando dalla generazione di testi alla produzione di immagini, suoni e video.

Il chatbot, dotato di un’interfaccia scritta e vocale, consente all’utente di “generare” un “amico virtuale” a cui attribuire il ruolo di confidente, terapista, partner romantico o mentore.

Il Garante ha accertato anche che la società non prevedeva alcun meccanismo per la verifica dell’età degli utenti né all’atto della registrazione al servizio, né durante il suo utilizzo, benché la società dichiarasse di escludere i minorenni tra i potenziali utenti. Dagli accertamenti tecnici effettuati è emerso che il sistema di verifica dell’età attualmente implementato dal titolare continua ad essere carente sotto molteplici aspetti.

Nella richiesta di informazioni che ha dato avvio alla nuova istruttoria, il Garante ha chiesto a Luka dei chiarimenti in merito ai trattamenti dei dati relativi all’intero ciclo di vita del sistema di AI generativa sotteso al servizio. In particolare, riguardo alla valutazione dei rischi e alle misure adottate per tutelare i dati nelle varie fasi di sviluppo e addestramento del modello linguistico alla base di “Replika”, alle tipologie e categorie di dati utilizzati, all’eventuale implementazione di misure di anonimizzazione o pseudonimizzazione.

(Unioneonline/E.Fr.)

© Riproduzione riservata