Era l'anno 1824 quando un piccolo quotidiano della Pennsylvania pensò di chiedere direttamente ai propri lettori chi avrebbero votato tra i candidati alla presidenza degli Stati Uniti. Ogni abbonato doveva ricevere un foglietto sul quale indicare un nome e restituirlo poi alla redazione che avrebbe pubblicato i risultati. Anche un altro giornale ebbe la stessa idea. Entrambi i giornali però sbagliarono la previsione, ma da quel momento pensarono di rappresentare l’opinione pubblica.

Eravamo alla fine dell’Ottocento e queste prime esperienze servivano per capire i gusti ed i desideri delle persone con lo scopo di aumentare il commercio, le vendite. La rivista Literary Digest, fondata nel 1890, con i suoi magazines Public Opinion e Current Opinion si occupava di capire gli orientamenti, le opinioni e le aspirazioni della società americana. Inviava i suoi questionari agli indirizzi presi dagli elenchi telefonici. Con questo sistema aveva comunque previsto l'elezione di Roosevelt nel 1932.

George Horace Gallup che aveva insegnato giornalismo alla Drake University, aveva fondato nel 1935 l’American Institute of Public Opinion. Le sue stime dell'opinione pubblica fatte con metodi scientifici vennero chiamate Gallup polls. Il 1936 è stato un anno importante. Si sarebbe eletto il 32esimo presidente degli Stati Uniti. La rivista Literary Digest aveva condotto un sondaggio elettorale e reclutato 2,3 milioni di cittadini scelti dagli elenchi telefonici e dal registro automobilistico. Le loro previsioni davano Landon vincente. George Gallup utilizzando solo un campione di 50mila abitanti aveva invece previsto, come avvenne, la vittoria di Roosevelt.

Agli studenti di statistica viene insegnato proprio questo, che ha scarsa importanza la dimensione del campione statistico, mentre è più importante la sua composizione, che deve essere casuale, probabilistica e rappresentare tutta la popolazione. La scelta del campione dagli elenchi telefonici aveva fatto intervistare troppi repubblicani proprio perché avevano più utenze telefoniche a svantaggio dei democratici.

Ma veniamo al futuro, anzi al presente. Nelle elezioni presidenziali americane del 2012 il machine learning, una branca della Intelligenza Artificiale, è stato protagonista. Mitt Romney, il candidato repubblicano, aveva raggruppato gli elettori in macrocategorie scegliendone poi alcune alle quali rivolgersi. Barack Obama, candidato democratico, aveva scelto Rayid Ghani, esperto di machine learning, come capo della sua campagna. Tutte le informazioni disponibili sugli elettori vennero raggruppate in un unico database e arricchite dei dati disponibili nei social network e nel marketing. Gli elettori vennero poi divisi in quattro categorie arbitrarie che descrivevano modelli di elettore.

Ogni notte su queste categorie vennero eseguite 66mila simulazioni di voto i cui risultati servirono per coordinare l'esercito dei volontari: chi contattare, chi incontrare, cosa dire. Sappiamo chi vinse. Se questa è la strada imboccata dalla politica il machine learning aiuterà i politici a capire maggiormente gli elettori e a trattarli da interlocutori. Ma allora anche la scelta dei candidati ed i programmi dei partiti dovranno essere calibrati in funzione del profilo degli elettori.

Shoshana Zuboff ne "Il capitalismo della sorveglianza" si spinge più avanti. Ci racconta come ai padroni della rete non interessano le nostre preferenze dichiarate. Ma i dati impliciti legati all'uso della rete, dei social network, dei dispositivi collegati alla rete.

Questi metadati sono la forma, il nostro inconscio. Con questo bagaglio di conoscenze sarà possibile farci comprare di più, ma non è escluso che potrebbero anche farci votare in un certo modo.

Antonio Barracca
© Riproduzione riservata