Iran, la prima guerra dell’IA: ha anche previsto la data di inizio
Grok, il chatbot di Elon Musk, aveva anticipato l’attacco del 28 febbraio. Altri sistemi di intelligenza artificiale stanno sostituendo i militari nelle scelte: e forse sono i responsabili delle stragi di civiliPer restare aggiornato entra nel nostro canale Whatsapp
Diciamo la verità: non era difficilissimo prevedere l’attacco contro l’Iran, non è stata esattamente una sorpresa. Però, proprio perché se ne parlava da mesi, con un’altalena di ultimatum e rasserenamenti da parte di Trump, non era neppure facile azzeccare il momento preciso (chiedere al ministro Crosetto per conferma). C’è riuscita solo l’intelligenza artificiale, e in particolare quella creata da Elon Musk. Nel diluvio di notizie tragiche che ci ha inondato da quando gli Usa e Israele hanno iniziato a bombardare il regime degli ayatollah, è passata quasi inosservata una rivelazione del quotidiano israeliano Jerusalem Post: qualche giorno prima dell’inizio del conflitto, i redattori avevano interrogato quattro piattaforme di IA generativa per sapere quale fosse la data più probabile per l’inizio delle ostilità da parte di Washington. La risposta corretta, cioè il 28 febbraio, è arrivata solo da Grok, il chatbot creato dal patron di Tesla (e collegato al social network X, anch’esso di Musk).
Oltre a Grok, il Jerusalem Post aveva posto la domanda a Gemini di Google, Claude di Anthropic e ChatGpt di OpenAI. A tutti erano stati dati gli stessi input, ma tutti hanno fornito risposte diverse. Solo Grok, a quanto pare, ha indicato per ben due volte il 28 febbraio, legando la data all'esito dei colloqui di Ginevra. Qualcuno ha ironizzato sul fatto che l’amicizia tra Musk e Donald Trump, pur coi loro alti e bassi, potrebbe aver avuto un ruolo nel “suggerire” a Grok la risposta giusta. Ma appunto, è poco più di una battuta.
L’uso degli algoritmi
In realtà però il ruolo dell’intelligenza artificiale nella guerra scatenata contro l’Iran è stato ben più incisivo di una previsione azzeccata. Lo hanno già definito il primo conflitto dell’IA: in realtà è stata utilizzata già in precedenti operazioni belliche, ma è vero che si tratta del primo conflitto su larga scala in cui l’IA è determinante non solo nella gestione degli atti di guerra, ma anche nella loro pianificazione e nelle decisioni dei vertici militari.
Uno dei principali servizi garantiti dalle macchine intelligenti, infatti, è l’analisi in tempi brevissimi di enormi quantità di dati. Per esempio delle rilevazioni satellitari dei movimenti a terra, specie per quanto riguarda gli obiettivi sensibili. Gli algoritmi possono contribuire a identificare in tempo reale minacce che l’analisi umana impiegherebbe giorni a intercettare. Spesso quindi le singole azioni possono essere, di fatto, “decise” dall’IA. Quest’ultima inoltre è preziosissima per la gestione ottimale della logistica, automatizzando i rifornimenti di materiali, il trasporto di risorse e munizioni e così via. Ancora più facile immaginare il ruolo che simili strumenti possono avere nel guidare droni o veicoli terrestri e sottomarini, così come nell’individuare e colpire i bersagli prefissati.
L’esercito israeliano, a quanto è dato sapere, sfrutta in modo particolarmente abile le opportunità concesse dall’intelligenza artificiale. Ma Tel Aviv è tradizionalmente molto riservata sulle questioni che attengono le proprie forze armate. Negli ultimi tempi invece si è parlato molto del rapporto tra la Difesa degli Stati Uniti e alcune piattaforme di IA. Proprio nei giorni precedenti all’avvio dell’offensiva contro Teheran, era circolata la notizia del rifiuto di Anthropic di eliminare, su richiesta del governo di Washington, alcune restrizioni all’utilizzo della propria piattaforma Claude. La società fondata e guidata dall’italoamericano Dario Amodei ha avuto un duro scontro col segretario alla Difesa Pete Hegseth, che avrebbe voluto impiegare Claude per sviluppare sistemi autonomi di sorveglianza e di attacco.
Il passo falso di OpenAI
Di fronte al no di Amodei, Hegseth ha vietato l’uso degli strumenti di Anthropic. Eppure, secondo il Wall Street Journal, per lanciare l’attacco all’Iran il Pentagono ha continuato a servirsi di Claude. Washington non ha però voluto svelare se siano stati adoperati sistemi di IA per decidere l’attacco alla scuola iraniana Shajareh Tayyebeh in cui sono morte 165 persone, tra studentesse e personale. È agghiacciante pensare che la sorte di centinaia di civili possa essere affidata alle scelte impersonali di una macchina, ma purtroppo non è più una cosa troppo sorprendente.
Qualcuno che non si rassegna a questa deriva però c’è ancora, stando alle ultime notizie arrivate dagli Stati Uniti. Dopo aver dichiarato l’ostracismo a Claude, il governo Usa ha confermato l’accordo con OpenAI, la società che ha creato ChatGpt. Ma nei giorni successivi le disinstallazioni di questa piattaforma sono aumentate di quasi il 300 per cento, mentre sono cresciuti al ritmo del 40-50 per cento al giorno i download di Claude, forse proprio come “premio” per il rifiuto di Anthropic di facilitarne l’impiego militare. Anche le scelte dei cittadini in fatto di intelligenza artificiale, insomma, stanno diventando un terreno di scontro politico. E forse, se gli orientamenti dei consumatori si consolideranno, potranno influire – questo sì a sorpresa – sulle scelte dei miliardari che stanno nelle stanze dei bottoni dell’IA.
