Il tema è dibattutissimo: quali sono i limiti etici dell’Intelligenza artificiale? Sul tema la letteratura è ampia, le tesi le più disparate. Anche perché non c’è campo che possa disinteressarsi.

Filippo Arras, ingegnere e digital creator con competenze specifiche, ha provato a rappresentarlo in una mostra in corso a Casa Melis, a Capoterra, in una esposizione di opere d’arte realizzate con il supporto dell’intelligenza artificiale e finalizzate ad indagare come questi sistemi, se guidati da algoritmi privi di senso etico, potranno amplificare discriminazioni e rafforzare pregiudizi nella società contemporanea.

«È innegabile constatare come l’intelligenza artificiale stia già influenzando le nostre vite in modo capillare, anche in settori ed usi per i quali oggi non siamo pienamente consapevoli: dall’utilizzo quotidiano degli smartphone, alla medicina e salute pubblica, alle pratiche di finanziamento, alla legalità, alla politica, all’arte e alla cultura», ha spiegato Arras intervenendo a Caffè Corretto, su Radiolina.

«Gli algoritmi di apprendimento dell’intelligenza artificiale vengono utilizzati per addestrare le reti neurali mediante l'osservazione di una enorme quantità di dati non strutturati, come fotografie, testi, filmati, dati ambientali», evidenzia. «Se i dati di addestramento contengono dei preconcetti - e tutti i dati ne contengono, in quanto riferiti ad informazioni sull’uomo medio – gli algoritmi addestrati - ne amplificheranno gli effetti generando stereotipi, pregiudizi, e rafforzando dei veri e propri bias cognitivi, e veicolando informazioni polarizzate».

Sbagliato pensare che tutto ciò possa non riguardarci direttamente. “Siamo proiettati in un sistema di decisioni dove un bias (cioè un pregiudizio) potrà fare la differenza fra essere dentro ed essere fuori. Gli utenti più vulnerabili alle distorsioni di queste anomalie”, aggiunge l’ingegnere, “sono senz’altro quei segmenti di popolazioni che risultano meno rappresentativi nelle fasi di addestramento algoritmico: le minoranze entiche, sociali, culturali e religiose, i diversamente dotati, le comunità Lgbtqia+, gli emarginati, i cittadini periferici. Ed è per questo che oggi più che mai l’utilizzo di questi sistemi va regolamentato a livello governativo (L’Unione Europea ha adottato il cosiddetto AI Act) anche attraverso l’utilizzo dell’”algoretica”, la disciplina che indaga sui problemi etici creati dagli algoritmi per evitare che si riproducano discriminazioni ed esclusioni a sfavore della collettività”.

Le opere presentate nella esposizione, che si intitola “B.I.A.S” indagano sulle problematiche e i rischi generabili da algoritmi non inclusivi, ma allo stesso tempo restituiscono un riscatto del popolo dei “non rappresentati”, attraverso una serie di “foto mai scattate”, generate dalla stessa intelligenza artificiale forzandone vincoli sintattici e regole semantiche.

Per l’autore Filippo Arras non si tratta della prima iniziativa di questo genere: alla fine dell’anno scorso, durante il festival letterario RainBook ha organizzato un vero e proprio “test di Turing” aperto al pubblico (test ideato da Alan Turing per determinare se una macchina è in grado di esibire un comportamento intelligente) guidando un dialogo ironico fra la Drag Queen sarda La Trave nell’Okkio e una Drag Queen artificiale, addestrata ad utilizzare algoritmi linguistici attraverso l’uso del sarcasmo, ironia, improvvisazione e doppi sensi.

L’esperimento, primo ed unico in Italia, ha dimostrato come questi sistemi linguistici autogenerativi siano oggi in grado di sfidare e raggiungere il livello di complessità del linguaggio umano, dando la sensazione di dialogare con una persona in carne e ossa.

L’esposizione “bIAs” si inserisce all’interno della rassegna “Casa Melis vestita d’arte: tra sentimento e innovazione”, organizzata dall’amministrazione comunale di Capoterra con la collaborazione degli assessorati allo Spettacolo, alla Cultura e alle Politiche sociali. L’esposizione sarà visitabile fino a fine agosto tutti i giorni dal lunedì al venerdì e nei weekend su prenotazione.

© Riproduzione riservata