Dopo aver messo a soqquadro il dark web nella sua precedente avventura (“Il giorno del Bianconiglio”, Chiarelettere, 2021), Leonardo Artico, l’esperto di cybersecurity creato da Alessandro Curioni, finisce nuovamente nel mirino di avversari pericolosissimi. Nella sua seconda avventura, “Certe morti non fanno rumore” (Chiarelettere, 2022, pp. 300, anche e-book) deve fare i conti con un’antica amante, nel frattempo diventata la potentissima manager di una big tech, accanto alla quale si materializza un’eminenza grigia a capo di un nucleo “particolare” dei servizi segreti. Entrambi hanno per Leonardo Artico un’offerta di quelle che non si possono rifiutare.

Il nostro protagonista - con i suoi compagni di avventura l’hacker Roberto Gelmi e la giornalista Teresa Aprili - si ritrova così coinvolto nel segretissimo Progetto Da Vinci, che attraverso l’uso dell’intelligenza artificiale punta a rivoluzionare il mondo della sicurezza informatica.

All’autore del libro, Alessandro Curioni, uno dei massimi esperti internazionali di cybersecurity, chiediamo naturalmente se l’intelligenza artificiale è così “straordinaria” come appare nel suo romanzo:

“Se ci pensate la chiamiamo Intelligenza Artificiale perché non siamo stati in grado di trovare un termine migliore. In fondo non esiste una definizione unanimemente accettata di cosa sia l’intelligenza. In ogni caso si tratta pur sempre di una macchina che riesce a emulare alcune capacità proprie del cervello umano: per esempio il riconoscimento di immagini. In effetti oggi abbiamo a disposizione le cosiddette intelligenze artificiali deboli, cioè specializzate. Nulla a che vedere con quelle rappresentate in molte opere di fantascienza che sono in grado di simulare contemporaneamente tutte le capacità di una mente umana. Dal mio punto di vista, tenete presente che di mestiere mi occupo di cybersecurity: per me è fondamentale sapere che laddove ci sono grandi opportunità, come in questo caso, ci sono grandi rischi”.

Quindi l’intelligenza artificiale è in qualche modo già una realtà?

“Assolutamente sì. Spesso interagiamo con algoritmi intelligenti anche senza rendercene conto. Pensate a tutti gli assistenti virtuali, alle auto a guida autonoma che iniziano a fare la loro comparsa, ai sistemi di scoring creditizio. Insomma, siamo circondati da oggetti più o meno intelligenti”.

contentid/NjQ1ZjY4MjQtYjlhNS00
contentid/NjQ1ZjY4MjQtYjlhNS00

Perché appare come la tecnologia del futuro per antonomasia?

“Credo per il semplice motivo che riuscirà a fare una cosa che a noi esseri umani è impossibile: gestire ed estrarre conoscenza da basi dati di inconcepibile grandezza. Quelli che definiamo ‘big data’ sono per noi inaccessibili: abbiamo a disposizione una quantità di informazioni come mai nella storia dell’umanità; eppure, non riusciamo a utilizzarle perché sono troppe. Molti anni fa il critico d’arte Federico Zeri ebbe a dire: ‘Stiamo morendo per eccesso di informazioni’. Ecco, in questo le intelligenze artificiali ci possono salvare”.

Eppure, l’intelligenza artificiale è anche pericolosa…

“Lo è per alcune ragioni. In primo luogo, è tanto fragile, quanto potente. Manipolando le basi dati sulle quali viene addestrata è possibile indurla a sviluppare dei pregiudizi cognitivi. Un caso celebre riguarda l’algoritmo Compass utilizzato anni orsono negli Stati Uniti per valutare la recidiva dei criminali. Alla fine, si scoprì che era razzista. In secondo luogo esiste il problema del ‘dual use’: quello che può essere utilizzato per proteggerci può servire anche per danneggiarci. Sono stati messi a punto degli algoritmi in grado di emulare lo stile di scrittura. Questo significa che potrebbero riconoscere una e-mail truffaldina con grande precisione, ma potrebbero anche scriverne una decisamente credibile. Terzo fattore è quello che viene definito come ‘opacità’. Delegando delle decisioni alle intelligenze artificiali - pensate a un’auto a guida autonoma piuttosto che a un algoritmo che compra e vende azioni - è molto probabile che non saremmo in grado di comprendere le sue scelte. Questo significa perdere la possibilità di controllarlo”.

Davvero l'intelligenza artificiale può mettere a rischio l'umanità come la concepiamo oggi?

“Non mi sento di escluderlo. Alcuni pensano che ci stiamo avvicinando alla cosiddetta ‘singolarità tecnologica’, ovvero il momento in cui il progresso tecnico accelera oltre la nostra capacità di comprensione. Le singolarità hanno la caratteristica per cui piccole variazioni possono produrre stravolgimenti di portata eccezionale. Provo a spiegarmi con un esempio. La transizione ambientale dipende in larga parte dalla trasformazione digitale, il cui punto più alto è probabilmente rappresentato dalle smart cities. Città intelligenti la cui gestione sarà affidata in gran parte alle intelligenze artificiali che si occuperanno di monitoraggio e di ottimizzazione, per esempio, dei consumi degli edifici e del traffico. Si tratterà di miliardi di sensori che produrranno trilioni di informazioni poi date in pasto a migliaia di intelligenze artificiali Ci troveremmo al cospetto di un sistema di straordinaria complessità. Se nel 1975 Lorenz si domandava ‘può il battito della ali di una farfalla in Brasile causare un uragano in Texas?’, non credo sia molto lontano il giorno in cui ci chiederemo: ‘Può il guasto di un semaforo a Singapore causare un blackout a Londra?’”.

© Riproduzione riservata