Etica e responsabilità dell'IA
AI Etica
L’etica dell’intelligenza artificiale è una branca che nasce con lo scopo di definire delle linee guida riguardanti i valori fondamentali che ogni sistema di AI dovrebbe adottare, come diritti individuali, tra cui privacy e inclusione.
La questione etica è complessa e molto dipende dalla cultura in cui il sistema di AI agisce, per cui non può essere applicata con i soli mezzi tecnici.
Un problema molto conosciuto è quello del carrello ferroviario, che risale agli anni ‘70: come riporta Wikipedia, nella versione originale, un autista di un tram conduce un veicolo capace solo di cambiare rotaia (tramite deviatoio), senza la possibilità di frenare.
Sul binario percorso si trovano cinque persone legate e incapaci di muoversi e il tram è diretto verso di loro. Tra il tram e le persone legate si diparte un secondo binario parallelo, sul quale è presente una persona legata e impossibilitata a muoversi. La persona nei pressi del deviatoio si trova di fronte un’alternativa che comporta due sole opzioni: lasciare che il tram prosegua dritto la sua corsa, uccidendo le cinque persone, oppure azionare lo scambio e ucciderne una sola.
Nel corso degli anni sono nate diverse varianti: la persona sul binario da sola potrebbe essere un criminale, e quindi la scelta sembrerebbe più semplice; nel caso in cui si abbia a che fare con una persona di età alta: cosa fare?
L’etica nell’ambito dell’AI è un tema importante, soprattutto quando parliamo di applicazioni come le auto a guida autonoma.
L’aspetto fondamentale è comprendere che non esiste un’opinione universale sul tema né delle linee guida, perché è una questione estremamente eterogenea. In Giappone o Cina, ad esempio, il problema del tram viene spesso risolto con la prima opzione, mentre sembra che il mondo occidentale propenda per uccidere una persona.
Creare algoritmi è un’attività contestuale e dipende da diversi fattori, tra cui la cultura, per cui prendere delle decisioni solamente sui dati a nostra disposizione può portare a bias.
All’interno di un processo di IA responsabile, abbiamo bisogno di costruire soluzioni minimal ethical: queste dovrebbero permettere di creare dei prodotti le cui attività di AI possano essere messi “in pausa” senza perdere la funzionalità del prodotto, nonché il rispetto dei principi etici di base. Un principio è la benevolenza: sviluppare un minimum ethical product significa monitorare attentamente come la soluzione impatta gli utenti. Non solo: è bene porsi domande come: qual è lo scopo che cerca di raggiungere questo sistema? C’è bisogno di sfruttare uno o più algoritmi di AI per raggiungere questo obiettivo? Ci sono altri metodi a più basso rischio che è possibile utilizzare? E, infine, il sistema di AI svolge in maniera efficiente?
Non dimentichiamo che l’impatto sull’utente non solo dipende dal modo in cui il sistema viene progettato, ma anche in base a come l’utente vi interagisce.
Principi per un’IA responsabile
- Equità: si tratta di un principio socio-tecnico che non può essere trattato come una singola prospettiva. Ci sono almeno 20 definizioni di equità che a volte si contraddicono e non includono eguaglianza. Un sistema non può essere “giusto” nei confronti di tutti i gruppi valutati nello stesso momento, quindi è più giusto parlare di fairness-related harms come meccanismo per valutare i gruppi più impattati e dare una priorità a loro. Problemi relativi al senso di giustizia di un sistema solo quelli che portano, tra le altre cose, a una mancata rappresentazione (sistemi di accesso che non prevedono accesso per uomini o donne neri o persone che portano dei cappelli). Nei set di dati che coinvolgono informazioni di identificazione personale, è estremamente importante garantire che non vi siano pregiudizi in termini di razza, genere o etnia.
- Trasparenza: Un sistema di IA trasparente supporta la governance richiesta alle aziende per garantire l’uso etico dell’IA. È difficile avere fiducia nelle azioni di un sistema che non può essere spiegato. Raggiungere la fiducia potrebbe comportare un compromesso in cui viene fatto un piccolo compromesso nelle prestazioni del modello al fine di selezionare un algoritmo che può essere spiegato.
- Responsabilità: chi progetta e chi sviluppa sistemi di IA ha la responsabilità di considerare la progettazione, lo sviluppo, i processi decisionali e i risultati dell’IA. Il giudizio umano gioca un ruolo in un sistema apparentemente oggettivo di decisioni logiche. Sono gli esseri umani che scrivono algoritmi, che definiscono il successo o il fallimento, che prendono decisioni sugli usi dei sistemi e che possono essere influenzati dai risultati di un sistema. Ogni persona coinvolta nella creazione di una soluzione di IA in qualsiasi fase è responsabile di considerare l’impatto del sistema per gli utenti finali, così come le aziende che hanno investito nel suo sviluppo.
- Interpretabilità: Quando i sistemi di intelligenza artificiale non funzionano come dovrebbero, i team devono essere in grado di tracciare una complessa catena di algoritmi e processi per scoprire il motivo. Le organizzazioni che utilizzano l’IA dovrebbero essere in grado di spiegare i dati di origine, i dati risultanti, cosa fanno i loro algoritmi e perché lo stanno facendo. “L’IA deve avere un forte grado di tracciabilità per garantire che se si verificano danni, possono essere ricondotti alla causa”, ha affermato Adam Wisniewski, CTO e co-fondatore di AI Clearing.
- Inclusione: Un sistema di intelligenza artificiale inclusivo è imparziale e funziona ugualmente bene in tutti gli spettri della società. Ciò richiede la piena conoscenza di ciascuna fonte di dati utilizzata per addestrare i modelli di intelligenza artificiale al fine di garantire che non vi siano distorsioni intrinseche nel set di dati. Richiede inoltre un’attenta verifica del modello addestrato per filtrare eventuali attributi che possano deviare il modello creato nel processo. I modelli devono sempre: essere attentamente monitorati per garantire che non si verifichino fenomeni di corruzione anche in futuro.
Considerare le conseguenze
Uno dei motivi per cui uno sviluppo responsabile è difficile è che l’IA può creare più errori nascosti. I modelli sono semplicemente rappresentazioni statistiche delle caratteristiche osservabili come il movimento dei muscoli facciali, la lunghezza dei capelli o il tono della pelle. E non riescono a rappresentare concetti non osservabili come emozioni, genere o razza.
L’etica delle macchine si occupa di garantire che il comportamento delle macchine nei confronti degli utenti umani e forse anche nei confronti di altre macchine sia eticamente accettabile. Idealmente, il ragionamento dell’IA dovrebbe essere in grado di tenere conto dei valori sociali, delle considerazioni morali ed etiche, soppesare le rispettive priorità dei valori detenuti dai diversi stakeholder in vari contesti multiculturali e spiegarne il ragionamento e garantire la trasparenza.
In un sondaggio di Avanade Insights, hanno scoperto che l'83% degli stakeholders aziendali e tecnologici ritiene
che l’etica digitale sia una base per un’intelligenza artificiale di successo. Tuttavia, c’è un divario di esecuzione tra le nostre intenzioni dichiarate e ciò che facciamo in pratica. Ci sono due tipi di conseguenze. Inteso e non intenzionale. Le conseguenze previste sono il cambiamento o l’impatto che stai cercando di apportare. Questi sono i requisiti del tuo progetto.
Le conseguenze a cui un sistema può portare sono chiaramente di due tipologie: previste, quindi anche inerenti lo scopo originale del business a beneficio dell’utente e di che sviluppa il sistema, e non previste, quindi delle azioni che non sono state incluse tra quelle previste.
Non tutte le conseguenze sono negative: nel caso di un sistema che diagnostica una predisposizione per il cancro al seno, la conseguenza è estremamente positiva!
Quando si esegue quindi una valutazione etica del sistema e si calcolano le conseguenze, è necessario chiedersi:
- Quali sono le conseguenze previste e non attese del sistema che l’utente deve aspettarsi?
- Quali sono quelle su cui vogliamo che il prodotto punti il suo focus?
- Quali conseguenze vogliamo mitigare, tra quelle non attese?
Conclusioni
Molte grandi aziende stanno lavorando a dei framework di intelligenza artificiale: questi permetterebbero di delineare le best practice per aderire ai principi di un’IA etica e di regolamentare il relativo impatto e monitoraggio.
Google parla di approccio human-centered, IBM porta al centro dell’ecosistema il contesto della soluzione, dove i diversi attori contribuiscono con feedback continui.
La documentazione che viene presentata è sempre molto curata e ben presentata -la UX design è così attenta che navigare il sito dà un senso di pace, proprio per non far insorgere preoccupazione negli utenti che temono le conseguenze dell’AI-.
Resta da chiedersi, in che modo però si riesce a conciliare nel pratico diritti umani e AI?