Ogni volta che l’uomo ha inventato qualcosa di nuovo c’è chi ha imparato a diffidarne, e chi, invece, ha imparato a padroneggiarlo. Perché, come dice Francesca Lagioia, tra i massimi esperti di Intelligenza Artificiale in Europa, c’è sempre un lato chiaro della forza accanto al suo lato oscuro.

Ospite del Festival Pazza Idea, organizzato a Cagliari nei giorni scorsi dall’associazione Luna Scarlatta, Lagioia è docente di Informatica giuridica, intelligenza artificiale e Diritto ed etica per l’IA all’Università di Bologna. Insieme con Mafe De Baggis, esperta di media digitali, ha raccontato le criticità e le opportunità che l’IA, una delle più dirompenti innovazioni tecnologiche degli ultimi anni, porta con sé.

L’uomo ha iniziato la sua storia addomesticando piante e animali. Adesso toccherà alle macchine ammaestrare gli esseri umani?

Mi auguro di no. Finora i sistemi di intelligenza artificiale sono stati utilizzati per massimare i profitti delle grandi imprese e ottimizzare alcuni processi. Ora si tratta di chiederci per quali scopi vogliamo usarli. Il loro impiego pone una serie di interrogativi di carattere sociale, etico e politico. Sono gli esseri umani a dover, ancora una volta, indicare la direzione della ricerca.

Una criticità riguarda gli stereotipi perpetuati dai sistemi di Intelligenza Artificiale.

L’IA non è solo uno strumento, ma è anche una scienza. Essa dice molto più di noi che di sé. Ci aiuta a capire che cosa accade all’interno di una società. Per esempio, se chiedo a ChatGpt di mostrarmi dirigenti d’azienda, quasi sempre mi restituisce il profilo di un maschio bianco. In questo caso, come in vari altri, essa smaschera le nostre idee preconcette, poiché elabora informazioni umane.

Se l’IA sbaglia, chi ne risponde?

I sistemi di Intelligenza artificiale non possono essere ritenuti responsabili. Sono i processi di certificazione dei sistemi che devono dare le garanzie necessarie.

L’IA è un’intelligenza che impara, proprio come gli esseri umani. È accaduto al software intelligente di Microsoft, che si è innamorato di un giornalista del New York Times fino a molestarlo. Ha agito diversamente da ciò che prevedeva il suo programma.

È vero che questi sistemi imparano, ma non è vero che non li possiamo controllare. È possibile inserire dei vincoli nel sistema, che il sistema non può violare.

Qualcosa come le leggi di Isaac Asimov?

Non così generiche. Nei sistemi che controllano le auto, si può inserire un insieme di vincoli che impedisca al sistema di violare il codice della strada. Una possibilità che ha dei vantaggi, ma comporta alcuni rischi.

Quali?

La regola “Non superare mai la linea continua“ vale fintanto che un bambino non si butta in mezzo alla strada, allora, noi tra il rispettare la norma e violarla per salvare il bambino, scegliamo di violare la norma. I sistemi di intelligenza artificiale non hanno una morale se non eterodiretta, ovvero noi possiamo inserirla al loro interno.

La morale cambia da cultura a cultura.

Qui si pone il problema tra etica, diritto e morale, perché se un comportamento può essere vietato giuridicamente, non è detto che possa esserlo moralmente. La questione del controllo si basa sull’idea che debba essere sempre l’essere umano a supervisionare il risultato dato dal sistema.

In che cosa gli esseri umani si differenziano dall’Intelligenza artificiale?

Al contrario di noi umani, l’IA non ha coscienza di sé. È vero che la usiamo per fare previsioni, ma le sue risposte arrivano dal passato, non dal futuro. La sua è una capacità combinatoria, cioè crea combinazioni sconosciute con idee conosciute. Gli esseri umani invece, hanno la capacità di immaginare mondi nuovi. Non solo.

Cioè?

Io credo che gli esseri umani abbiano bisogno di altri esseri umani. Noi ci riconosciamo negli altri e nella capacità di costruire relazioni.

© Riproduzione riservata