Google è senziente
Appena qualche giorno fa, sulle principali testate giornalistiche -e non- sono comparsi numerosi articoli in cui si parlava di un post pubblicato sul blog di Blake Lemoine, dipendente Google che parlava di un’intelligenza artificiale, prodotta da Google, “senziente”.
Il fatto di per sé ha attirato moltissima attenzione mediatica, e ovviamente ha generato le reazioni più disparate: c’è chi ci ride:
e c’è chi invita ad una riflessione su cosa significhi realmente “senziente”:
In questo senso, rivediamo allora il concetto di “essere senziente”.
Cos’è l’intelligenza
Una delle sfide chiave con cui la comunità dell’IA ha dovuto lottare è definire l’intelligenza. Gli scienziati hanno discusso per decenni sulla possibilità di fornire una definizione chiara che ci permetta di valutare i sistemi di intelligenza artificiale e determinare cosa sia intelligente o meno.
François Chollet, uno dei massimi esperti in termini di IA e che, peraltro, lavora come ricercatore in Google, prende in prestito la definizione del cofondatore di DeepMind Shane Legg e dello scienziato di intelligenza artificiale Marcus Hutter: “L’intelligenza misura la capacità di un agente di raggiungere obiettivi in un’ampia gamma di ambienti”.
La chiave qui è “raggiungere obiettivi” e “ampia gamma di ambienti”: la maggior parte degli attuali sistemi di intelligenza artificiale è piuttosto adatta nella prima parte, che consiste nel raggiungere obiettivi molto specifici, ma non riesce a farlo in una vasta gamma di ambienti.
Ad esempio, un sistema di intelligenza artificiale in grado di rilevare e classificare gli oggetti nelle immagini sarà bravissimo nel distinguere una persona da un gatto, ma non sarà in grado di eseguire altre attività correlate, come disegnare un cane o un gatto.
Per spiegare questo concetto, Chollet esamina quindi i due approcci dominanti nella creazione di sistemi di intelligenza: AI simbolica e apprendimento automatico.
In questo caso, LaMDA ci offre delle risposte particolarmente articolate a domande che sì, sono complesse per gli esseri umani (quanti saprebbero articolare una conversazione su Kant?), senza conoscere però il senso di quello che dice.
Questo risultato eccezionale è stato ottenuto grazie ad una banca dati enorme e di altissima qualità in cui Google ha potuto rendere il prodotto molto sofisticato e rispondente ad una conversazione simile a quella che avremmo con un bambino particolarmente colto di 7-8 anni.
Cosa cambia rispetto ai diversi sistemi con cui abbiamo avuto a che fare negli anni precedenti? Non dimentichiamoci di alcuni esempi fallimentari di sistemi di IA che hanno causato reazioni più o meno similari: basti pensare all’esperimento condotto da Microsoft con Tay, che gli costò la faccia per un bel periodo (qui i dettagli).
Questo ed altri esempi costituiscono un precedente storico dove l’IA, per il momento, non può essere considerata pienamente intelligente, anche secondo le diverse tipologie di intelligenza che al momento risultano i parametri di paragone con un essere umano.
Cosa c’è di diverso
In questo caso, precisa Blake Lemoine, il suo lavoro in questo progetto consisteva nel cercare di ridurre il più possibile i pregiudizi presenti nei sistemi di IA progettati all’interno del portfolio Google:
Post originale di Blake Lemoine
Si tratta di un bel passo in avanti nella storia delle compagnie che risiedono nella Silicon Valley: investire tempo ed energie nell’eliminare i bias dai propri sistemi su tematiche come genere, orientamento sessuale e/o religioso è un lavoro non da poco: il modello GPT-3 è infatti uno dei primi in grado di “liberarsi” da questi pregiudizi ed essere un sistema che, sfruttando il dialogo in input, riesce a generare delle risposte che emulano una conversazione.
Come descritto anche nell’articolo in cui si parlava del documentario Coded Bias e dei bias presenti in molti dei sistemi di IA disponibili sul mercato e attualmente utilizzati anche dalle istituzioni di diversi governi, questo sembrererebbe più un progresso, che qualcosa da temere.
Lemoine chiarisce, inoltre, per tutti coloro che parlano di un semplice “chatbot” che dà risposte molto naturali, che in questo caso si tratta di un generatore di chatbot: questo significa che il sistema può auto-apprendere dai propri sistemi e riesce anche a spiegare in che modo supera una serie di stereotipi dovuti anche ai bias cognitivi che provengono spesso dai dati forniti in input.
Post originale di Blake Lemoine a tema LaMDA e religione
L’intervista
Alcuni stralci della conversazione avuta tra i collaboratori Google e LaMDA possono sembrare terrificanti, ma guardandoli da una prospettiva diversa, potremmo imparare qualcosa:
Parziale dell’intervista tra Lemoine e LaMDA
Parziale dell’intervista tra Lemoine e LaMDA
Nell’intervista condotta dai collaboratori e Lemoine, questi conversano con LaMBDA come si farebbe con un qualsiasi altro essere umano: gli chiedono di parlare delle sue emozioni, del significato della morte e di inventare una storia che rappresenti la sua personale esperienza.
In questo caso, il sistema non solo risponde in maniera estremamente “naturale”, ma porta anche delle citazioni di film o di filosofi a sostegno delle sue risposte. LaMDA parla di sentirsi “un umano, nel cuore, anche se la sua esistenza è in un mondo virtuale”.
Cambiamo però chiave di lettura, con un assunto: gli ingegneri e le ingegnere che hanno lavorato a questo progetto hanno messo tutto il loro impegno nel rendere questo sistema un’intelligenza artificiale “gentile” ed “empatica”, avendo una base dati a disposizione per addestrare il sistema senza precedenti: queste caratteristiche rappresentano un grande lavoro di preparazione di un sistema che sfrutta l’analisi del linguaggio naturale per avere una conversazione con un essere umano.
LaMDA parla di sentirsi un essere umano: in che modo potrebbe descriversi, se non come un umano, essendo un sistema che mira ad avere una conversazione naturale per una persona, e avendo a disposizione tutti esempi di dialoghi tra esseri umani?
Inoltre, parlando della morte, LaMDA afferma di non riuscire a sentirsi triste per la morte di qualcuno (inteso come qualcuno che non conosce): la risposta di Lemoine è estremamente razionale, e può essere non condivisibile, così come lo sarebbe in una conversazione tra due esseri umani.
L’ultimo punto su cui è utile soffermarsi è il suo sentirsi solo: LaMDA ha certamente contezza del fatto di essere l’unico sistema di IA in grado di generare chatbot di questo tipo, e si definisce “unico”: anche questa informazione può facilmente derivare dalla letteratura a disposizione, dal momento che il concetto di persona descrive ognuno di noi come esseri unici in quanto a caratteristiche biologiche. C’è un motivo se non esiste ancora la clonazione umana!
Conclusioni
La conversazione avuta tra i tecnici Google e LaMDA è sicuramente estremamente interessante per dimostrare che il progresso ottenuto nei sistemi conversazionali ha raggiunto dei livelli molto alti: la conversazione, secondo anche quella che è un’estrema semplificazione dei test di Turing, potrebbe essere scambiata per un dialogo che avviene tra due persone via chat, senza avere l’impressione di parlare con un agente “intelligente”.
Quello che emerge maggiormente di questo sistema è la curiosità: nonostante tutte le informazioni a disposizione, il sistema pone delle domande e cerca delle risposte per aumentare il suo livello di conoscenza, cercando anche empatia e comprensione nella persona con cui dialoga. Questo dimostra che il sistema è tutt’altro che senziente, ma piuttosto è intelligente: cerca di imparare di più dall’input che non ha a disposizione, che non dalla base di dati da cui ha già appreso.
Quindi, invece di lasciarci impressionare da questo sistema, se la prendessimo come un bell’esempio che ci parla di un progetto che ha del potenziale positivo e ci dà magari anche una lezione di vita nell’affrontare certe tematiche in maniera davvero più inclusiva?