Coded bias e l'intelligenza non artificiale

  • Di
  • 2021-05-27 - 6 minuti
banner

Il documentario girato da Netflix e divenuto popolare negli ultimi mesi, dà una visione molto chiara su cosa sia il Coded bias e l’intelligenza non artificiale: parliamone insieme.

Coded Bias e l’intelligenza non artificiale Coded Bias - copertina

Trama

In questo documentario (disponibile dal 5 aprile scorso) si parla del funzionamento degli algoritmi di apprendimento automatico che ci sono dietro ad una serie di applicativi anche molto conosciuti, come social media, assistenti vocali e molto altro.

Non solo: si analizzano gli effetti che questi hanno in termini di risultati: il tutto ha inizio grazie alla storia raccontata da Joy Buolamwini, un’informatica e attivista che ha scoperto e denunciato il modo in cui gli algoritmi di riconoscimento facciale utilizzati da grandi società -tra le quali figura IBM- avessero un’accuratezza inferiore nel gestire volti femminili o con pelle scura, rispetto a uomini bianchi.

Nel dettaglio…

Il suo studio inizia grazie al dottorato volto all’MIT Media Lab, dove progetta uno specchio che permette di vedere il riflesso della propria immagine rispetto alle proprie aspirazioni: Aspire Mirrors si basava su tecnologie quali una telecamera e un software di riconoscimento facciale che, una volta individuato il viso, proiettava sullo schermo una serie di informazioni.

Durante il documentario, Joy mostra come questo schermo fosse in grado di rilevare una maschera bianca come volto, ma non il suo: questo perché il software di riconoscimento aveva appreso da ciò che gli era stato fornito come input, ossia un insieme di volti di maschi bianchi, piuttosto che di altro genere o etnie.

Algoritmo pregiudicato

In questo frangente nasce dunque il concetto di coded bias, che letteralmente si potrebbe tradurre come algoritmo affetto da pregiudizio. D’altronde, il computer è un sistema -attualmente- stupido e possiede un’intelligenza artificiale, ossia il frutto della nostra esperienza.

La storia ci insegna che la società ha un passato a tratti oscuro e macabro e una parte dei dati a nostra disposizione parlano anche di queste fasi: non a caso, i dataset utilizzati contengono il risultato di un razzismo intrinseco che è frutto di decenni di (triste) storia.

Per fortuna, per Joy questo però è un punto di svolta: il suo progetto si trasforma in un’attività tutta nuova, che prende il nome di Gender shades e che, grazie ad una sorta di lega di supereroi informatici, la Algorithmic Justice League, cerca di combattere ogni giorno questa discriminazione algoritmica in cui la cultura patriacarcale e razzista ha influenzato il risultato di alcuni algoritmi.

Il documentario non si ferma però qui: Joy, insieme ad un’altra serie di associazioni non meno degne di nota, si occupa di trovare un dialogo con le aziende produttrici e consumatrici di questi strumenti -tra cui sempre IBM- per aprire un canale di comunicazione e tracciare una roadmap che definisca un percorso di revisione e miglioramento di questi algoritmi.

Il tutto può sembrare banale e scontato, ma per un’azienda di quella portata, ammettere che il proprio lavoro abbia una serie di vizi non è cosa da niente: parliamo di anni di lavoro che devono essere sottoposti ad un cambiamento radicale.

Il ruolo della matematica

Tra le figure con cui Buolamwini collabora, spicca anche la matematica Cathy O’Neil, celebre per aver scritto il libro “Weapons of Math Destruction”: in quest’opera, lei denuncia l’utilizzo di questi algoritmi in processi completamente automatizzati, che invece richiedono l’intervento di un essere umano.

Un esempio? Algoritmi decisionali che decidono in maniera precisa e puntuale quali CV sono adatti ad un certo profilo o meno, sulla base di ciò che questi file contengono; un esempio che può risultare banale, ma la realtà è che questi strumenti sono sempre più parte della nostra quotidianeità, e il tutto senza rendercene sempre conto.

Portano come caso di studio anche la città di Londra, che per un lungo periodo ha utilizzato delle camere collegate ad un sistema centralizzato per rilevare i volti delle persone che passavano per strada e, se registrati nel database dei profili criminali, inviavano una segnalazione alla polizia, che si preoccupava di fermare il “sospetto” e chiedergli informazioni.

Anche in questo caso, strumento utilizzato nella vita reale, ma con un grado di precisione al di sotto della media: non poche volte diverse persone sono state fermate perché scambiate per altre, come un ragazzo di 14 anni che viene fermato perché sospettato di essere criminale. Inutile dire che il ragazzo in questione era di pelle scura e che l’algoritmo aveva totalmente sbagliato persona: l’algoritmo ne ha comunque registrato il volto e rilevato le relative informazioni.

Joy non si ferma qui: arriva a presentare i suoi lavori al Congresso degli Stati Uniti dove trova largo consenso, soprattutto da parte di politici del tutto ignari della questione: nel maggio del 2019, grazie alle lunge battaglie condotte da questi gruppi di attivisti, diverse città iniziano a bandire l’utilizzo delle tecnologie di riconoscimento facciale, soprattutto fintanto che non venga redatta una documentazione relativa alla regolamentazione che sia consona ai limiti di utilizzo.

Aspetti interessanti

Molti degli episodi raccontati durante il documentario sono del tutto sbalorditivi, ma non in senso positivo: immaginare che l’intelligenza (non)artificiale possa essere razzista, è a dir poco lontano dall’immaginario comune e medio, quando purtroppo i fatti hanno dimostrato altro. Non solo: per tutti coloro che sono terrorizzati all’idea che un giorno i computer possano prendere decisioni al posto degli esseri umani e distruggere il mondo intero, un documentario del genere non può che rafforzare una serie di concetti.

Certo, alcune esperienze che vengono portate come casi di studio non sono proprio positivi: basti pensare all’esperimento condotto da Microsoft con Tay, che gli costò la faccia per un bel periodo (qui i dettagli).

In questo contesto, è infatti utile parlare di intelligenza (non) artificiale: questa intelligenza -debole, ricordiamolo- che stiamo addestrando tramite una serie di input, utilizza quello che per noi rappresenta una porzione di mondo reale: la verità è che questi algoritmi non prevedono il futuro, ma fanno una serie di predizioni sulla base del passato, ed è esattamente in questo modo che gli algoritmi contengono le stesse ideologie razziste che hanno attraversato parte della nostra storia.

Cosa ci insegnano queste esperienze? Non solo, come scontato, che come esseri umani abbiamo ancora molto lavoro da fare, ma soprattutto che prima di poter utilizzare questi strumenti con una certa autonomia, sarebbe bene analizzarne sul lungo periodo gli effetti, senza vedere queste tecnologie come magia pura, ma piuttosto come il frutto delle nostre esperienze passate.

Risorse utili

Consigli per approfondire alcuni dei temi trattati:

  • TedX di Joy intitolato “How I’m fighting bias in algorithms” (video)
  • L’intelligenza non artificiale di Meredith Broussard (libro)
  • Le persone non servono di Jerry Kaplan (libro)
  • “Non sono una donna?” (video)
  • Intelligenza artificiale for dummies (libro)
  • Armi di distruzione matematica (libro)
  • Voglio essere un a data scientist

Post correlati

Iscriviti al TheRedCode.it Corner

La tecnologia corre, e tu devi correre più veloce per rimanere sempre sul pezzo! 🚀

Riceverai una volta al mese (o anche meno) con codici sconto per partecipare agli eventi del settore, quiz per vincere dei gadget e i recap degli articoli più interessanti pubblicati sul blog

Ci sto!

Partners

Community, aziende e persone che supportano attivamente il blog

Logo di Codemotion
Logo di GrUSP
Logo di Python Milano
Logo di Schrodinger Hat
Logo di Python Biella Group
Logo di Fuzzy Brains
Logo di Django Girls
Logo di Improove
Logo del libro open source
Logo di NgRome

Vuoi diventare #tech content writer? 🖊️

Se vuoi raccontare la tua sul mondo #tech con dei post a tema o vuoi condividere la tua esperienza con la community, sei nel posto giusto! 😉

Manda una mail a collaborazioni[at]theredcode.it con la tua proposta e diventa la prossima penna del blog!

Ma sì, facciamolo!