Intelligenza artificiale e algoritmi razzisti

 

Le principali enciclopedie scientifiche definiscono l’intelligenza artificiale come una branca dell’informatica che si occupa di come i calcolatori possano essere programmati in modo da fornire prestazioni che, a un osservatore comune, sembrerebbero di pertinenza esclusiva dell’intelligenza umana. È effettivamente molto difficile dare una semplice definizione di intelligenza artificiale, forse perchè anche il solo definire “intelligenza” non è per niente banale. “Machine learning” e “reti neurali” rappresentano invece determinati metodi teorici e computazionali tesi proprio all’imitazione del funzionamento del cervello umano (ne avevamo parlato qui).

Questo è un campo di studio dalle sorprendenti applicazioni: dal riconoscimento delle immagini, alle auto senza pilota, passando per le traduzioni automatiche non più esilaranti come quelle di qualche anno fa, fino all’utilizzo in campi di ricerca avanzata, come quello sulle onde gravitazionali. Tuttavia, si tratta di una tecnologia ancora imperfetta e in pieno assestamento, che presenta a volte alcuni problemi. Tra gli altri, uno particolarmente antipatico è la sua apparente deriva razzista.

Nel 2015 l’applicazione Google Photos, che consente di archiviare le foto dell’utente e che ha anche l’interessante feature di riconoscere i contenuti delle immagini e di assegnarvi automaticamente delle didascalie, è stata la protagonista di un incidente imbarazzante: ha cominciato a fare confusione tra i gorilla e gli afroamericani. Dopo ovvie scuse pubbliche, il problema è stato apparentemente risolto in maniera un po’ grossolana: semplicemente sono stati bloccati tutti i risultati per le ricerche della parola “gorilla”.

                                                       Twitter @jackyalcine

Inoltre, secondo una recente inchiesta, un sistema basato sull’intelligenza artificiale sarebbe utilizzato nel sistema giudiziario americano per stimare il rischio che una persona indagata per un crimine, una volta rilasciata, ne commetta un altro. L’algoritmo predirrebbe correttamente la recidività nel 61% dei casi totali. Tuttavia gli afroamericani avrebbero quasi il doppio delle probabilità rispetto ai bianchi di essere considerati ad alto rischio pur non commettendo nuovi crimini in futuro. Esattamente il contrario accadrebbe per i bianchi: questi avrebbero infatti molte più probabilità rispetto ai neri di essere considerati a basso rischio anche commettendo poi, effettivamente, nuovi crimini.

Dati da: ProPublica analysis of data from Broward County, FL.

Da dove viene questo razzismo artificiale?
Bisogna notare che di solito una rete neurale non è propriamente “programmata” per il compito che deve svolgere. Possiamo definirla una tecnologia a “scatola chiusa”: molto spesso gli stessi sviluppatori non hanno idea di come e perchè un sistema faccia determinate scelte invece di altre.

Ma come fa una macchina a imparare? In generale, la rete neurale riceve un input (l’immagine di un albero) e deve restituire un output (dire che è un albero). All’inizio le sue risposte saranno prevedibilmente molto lontane da quelle attese, ma dopo migliaia e migliaia di immagini di alberi “apprese” comincerà anche a distinguere pini e cipressi. È quindi evidente che quanti più esemplari essa abbia assimilato, più alta sarà la sua capacità di riconoscerne in futuro.

Questo è comunque un tipo di apprendimento privo di modelli, molto poco plausibile dal punto di vista psicologico. Il cervello umano infatti si affida a modelli causali ed intuitivi per affrontare problemi e interpretare ciò che osserva. L’importanza dei modelli è sottolineata da Joshua Tennenbaum del MIT, come riportato da Nicola Nosengo per il Tascabile: “La comprensione umana comporta la creazione di una narrazione che spieghi ciò che viene osservato, basato su una fisica intuitiva e una psicologia intuitiva”.

Tutti questi problemi sono sicuramente lo specchio del fatto che si tratti di tecnologie tutt’altro che perfette, e la strada verso la piena affidabilità di un assistente digitale intelligente è ancora molto lunga.

Per approfondire:

World White Web è il progetto della designer svedese Johanna Burai che, a partire da un’interessante osservazione, cerca di sensibilizzare sul bias razziale di internet.

Source: World White Web

Fonti:

www.nature.com
www.iltascabile.com
www.maddmaths.simai.eu
www.propublica.org
www.wired.com

Sull’Autore

Sono laureata in fisica teorica e sono affascinata dall'infinitamente grande dell'Universo e dall'infinitamente piccolo del mondo quantistico. Gli oggetti del mondo in media scala mi lasciano in genere abbastanza indifferente, a parte i dischi di David Bowie.

Articoli Collegati