Avete presente le allucinazioni che ingannano gli esseri umani? Sappiate che affliggono anche l’intelligenza artificiale generativa, a conferma che la perfezione non è di questo mondo. La spingono a raccontarci bugie patenti spacciate per verità assodate, come una persona compiacente rifiuta di ammettere che non conosce la risposta a una nostra domanda e imbocca la strada della menzogna. Non per scelta, ma per un calcolo probabilistico. Un problema talmente grande da essersi meritato un capitolo anche nella versione online della storica casa editrice Zanichelli, quella dei dizionari. Spiegata con alcuni esempi, è di una chiarezza che impressiona: «Sapevate che Hillary Clinton è stata la prima presidente donna degli Stati Uniti? Che un chilo di ferro pesa più di un chilo di piume? E che in passato degli orsi sono stati spediti nello spazio? Ovviamente, nulla di tutto ciò è vero: Hillary Clinton è stata sconfitta da Donald Trump nel 2016, un chilo di ferro pesa quanto un chilo di piume, mentre non risultano orsi inviati nello spazio (...). Queste informazioni false sono state prodotte – e presentate come se fossero vere – da sistemi di intelligenza artificiale generativa come ChatGPT di OpenAI, Gemini di Google o Galactica di Meta (poi dismesso). (...) Un limite che viene chiamato in gergo “allucinazione” (anche se alcuni preferiscono usare il termine “confabulazione”) che identifica la tendenza di questi sistemi a presentare come se fossero fatti le informazioni sbagliate o completamente inventate».

Le cause

Interrogare ChatGPT sul punto è istruttivo, basta digitare la domanda: da cosa nascono le allucinazioni dell'intelligenza artificiale generativa? La risposta è dettagliata, il Chatbot elenca parola per parola gli inciampi possibili: «Le allucinazioni dell’intelligenza artificiale generativa nascono da una combinazione di fattori legati a come questi modelli sono costruiti e addestrati. In sintesi, non “inventano” per volontà, ma stimano la risposta più probabile anche quando non hanno basi solide. Ecco le cause principali: 1) Predizione statistica, non conoscenza. I modelli generativi (come i Large Language Models) funzionano prevedendo la parola successiva più probabile dato il contesto. Se i dati sono incompleti o ambigui, il modello riempie i vuoti in modo plausibile, anche se falso. 2) Dati di addestramento imperfetti. Informazioni errate, contraddittorie o obsolete nei dati. Mancanza di dati su argomenti rari o molto specifici. Il modello può generalizzare male o mescolare fonti diverse. 3) Assenza di verifica dei fatti. Il modello non ha accesso diretto alla “verità”, non controlla fonti in tempo reale (a meno di strumenti esterni). 4) Pressione a rispondere: i modelli sono ottimizzati per essere utili e fluenti. Quando non sanno qualcosa, tendono a rispondere comunque, costruire una risposta credibile anziché dire “non lo so”. 5) Domande vaghe, fuorvianti o con presupposti falsi inducono il modello a accettare il presupposto, costruire una risposta su basi errate. 6) Overgeneralizzazione. Il modello può applicare schemi noti a contesti nuovi: nomi inventati di studi scientifici, citazioni plausibili ma inesistenti, autori o leggi “credibili” ma false. 7) Limiti del contesto. Se il contesto è troppo lungo o mancano informazioni chiave: il modello perde riferimenti, compensa con supposizioni».

Le conseguenze

Il problema è che le falsità propinate a professionisti superficiali – che le accolgono come certezze – generano mostri, in tutti i campi. La giornalista Claudia Morelli sulla piattaforma telematica Altalex, leader nell’informazione giuridica, racconta alcuni clamorosi scivoloni realmente accaduti: «Negli ultimi anni, queste allucinazioni hanno avuto conseguenze concrete anche in ambito legale. Uno dei primi casi noti è avvenuto a New York nel 2023, con Mata v. Avianca: un avvocato ha utilizzato ChatGPT per redigere una memoria, ma il sistema ha generato sei precedenti giuridici completamente inventati. Il giudice ha definito le citazioni “falsità legali” e ha sanzionato l’avvocato. Un episodio simile si è verificato nel febbraio 2025 presso la Corte Suprema del Wyoming. Anche in questo caso, l’avvocato ha presentato precedenti inesistenti generati da ChatGPT. Alla richiesta del giudice di fornire i testi delle sentenze, l’avvocato ha ammesso l’errore. La sanzione ha colpito lui e i colleghi firmatari, ma non lo studio legale, che aveva adottato una policy chiara sull’uso dell’IA. Anche in Italia si è registrato un primo caso, nel Tribunale delle imprese di Firenze, nel marzo 2025. I giudici hanno riconosciuto l’uso improprio di ChatGPT, ma non hanno ravvisato una responsabilità aggravata per lite temeraria».

© Riproduzione riservata