Allucinazioni da LLM

  • Di
  • 2024-06-11 - 6 minuti
banner

Alcuni LLM soffrono di un grande problema: hanno le allucinazioni. Cosa vuol dire questo nel concreto?

Cosa sono le allucinazioni

Quando un modello ha delle allucinazioni, significa che produce output semanticamente e sintatticamente corretto, ma basato su falsi assunti o lontani dalla realtà fattuale.

In altre parole, produce risposte che sono verosimilmente corrette, ma che non corrispondono a fatti considerabili veritieri o attendibili, o che addirittura sono completamente fuori contesto o errate.

Questo può portare le persone che utilizzano questi strumenti fuori strada e, soprattutto, quelli meno esperte ad utilizzare dati inconsistenti o errati: è quindi di fondamentale importanza ridurre al minimo il livello di allucinazioni che un modello può avere e contrastarle all’origine.

Quali sono le cause?

Un semplice motivo per descrivere la ragione delle allucinazioni nei LLM è perché i modelli linguistici di grandi dimensioni è che non hanno idea della realtà sottostante descritta dal linguaggio. Questi sistemi generano testo che “suona bene”, grammaticalmente e semanticamente, ma in realtà non hanno alcun tipo di obiettivo se non quello di soddisfare semplicemente la coerenza statistica con il prompt.

Tuttavia, se dovessimo indossare il capello da data scientist e guardare al vero motivo di questo problema, potremmo attribuirlo ai seguenti motivi:

  1. Dati obsoleti: i Large Language Models presentano un problema di aggiornamento dei dati: basti pensare a GPT 3.5, i cui dati sono aggiornati a gennaio del 2022, e quindi attualmente indietro già di un paio di anni. Il mondo, secondo gli LLM, è congelato nel tempo, come una sorta di fotografia: conoscono il mondo solo come appariva attraverso i dati di addestramento. Ciò crea problemi per qualsiasi caso d’uso che si basa su informazioni aggiornate o su un particolare set di dati non disponibile al momento dell’addestramento.

  2. L’overfitting è un problema in cui un modello di intelligenza artificiale si adatta troppo bene ai dati di addestramento. Questo vuol dire che non può rappresentare pienamente l’intera gamma di input che può incontrare, ovvero non riesce a generalizzare il suo output a dati nuovi e magari mai visti. L’adattamento eccessivo può portare il modello a produrre contenuti allucinati.

  3. Distorsioni: un altro fattore è la presenza di alcune distorsioni nei dati di addestramento, che possono far sì che il modello fornisca risultati che rappresentano tali storture o incongruenze nei dati piuttosto che la loro natura effettiva. Ciò è simile alla mancanza di diversità nei dati di training, che limita la capacità del modello di generalizzare a nuovi dati.

Conseguenze

Tra le prime conseguenze c’è la generazione di contenuti tossici o discriminanti, poiché i dati sulla formazione LLM sono spesso pieni di stereotipi socioculturali a causa dei pregiudizi intrinseci e della mancanza di diversità (e soprattutto trattandosi di dati storici, che quindi rappresentano tratti della nostra storia che, purtroppo, ha attraversato e attraversa fasi non felici). Gli LLM possono, quindi, produrre e rafforzare queste idee dannose contro dei gruppi svantaggiati o delle minoranze nella società. Possono generare contenuti discriminatori e incitanti all’odio basati su razza, genere, religione, etnia, e via dicendo.

Inoltre, i LLM vengono formati su un vasto corpus di formazione che spesso include le informazioni personali delle persone. Ci sono stati casi in cui tali modelli hanno violato la privacy, facendo trapelare informazioni specifiche come numeri di previdenza sociale, indirizzi di casa, numeri di cellulare e dettagli medici.

Infine, una conseguenza è quello legata alla disinformazione, come accennato in precedenza: i modelli linguistici possono produrre contenuti simili a quelli umani che sembrano accurati ma che, in realtà, sono falsi e non supportati da prove empiriche. Ciò può essere accidentale e portare a disinformazione, oppure può avere un intento dannoso volto a diffondere consapevolmente informazioni errate.

Tecniche di contrasto

Esistono diversi modi per prevenire le allucinazioni: alcune delle più comuni sono le seguenti.

Apprendimento per rinforzo con feedback umano (RLHF)

Per affrontare il problema delle allucinazioni, viene coinvolto un valutatore umano che esamina frequentemente le risposte del modello e sceglie quelle più appropriate per le richieste dell’utente. Questo feedback viene quindi utilizzato per regolare il comportamento del modello. Non a caso, dalla stessa interfaccia di ChatGPT e di altre applicazioni simili, è possibile fornire un feedback spontaneo rispetto all’output ottenuto.

Rilevazione precoce

Anche l’identificazione del contenuto “allucinato” da utilizzare come esempio per la formazione futura è un metodo utilizzato per affrontare le allucinazioni. Una nuova tecnica a questo proposito rileva le allucinazioni a livello di token e prevede se ciascun token nell’output è frutto di allucinazioni o meno. Questo processo include anche l’utilizzo di metodi per l’apprendimento non supervisionato dei rilevatori di allucinazioni.

Regolarizzazione

Esiste poi il processo di regolarizzazione, che consiste nello sviluppo di migliori tecniche di regolarizzazione è al centro della lotta alle allucinazioni. Aiutano a prevenire l’eccessivo adattamento e altri problemi che causano allucinazioni.

Parametrizzazione

La temperatura è uno dei più famosi: quando si costruisce con LLM (che si tratti di un modello HuggingFace come FLAN-T5 o OpenAI GPT-3 API), sono disponibili diversi parametri, incluso un parametro di temperatura. La temperatura di un modello si riferisce a un valore scalare utilizzato per regolare la distribuzione di probabilità prevista dal modello. Nel caso degli LLM, il parametro della temperatura determina l’equilibrio tra l’adesione a ciò che il modello ha appreso dai dati di addestramento e la generazione di risposte più diversificate o creative. In generale, è più probabile che le risposte creative contengano allucinazioni.

Retrieval Augmented Generation (RAG)

Questa tecnica ci consente di recuperare informazioni rilevanti da una base di conoscenza esterna e fornire tali informazioni a LLM. Fornendo l’accesso ai dati rilevanti (aggiungendo al prompt) da una base di conoscenza al momento della previsione, possiamo convertire il problema puramente di generazione in un problema di ricerca o riepilogo più semplice basato sui dati forniti.

Suggerimenti per la “catena di pensiero”

Un difetto ben noto degli LLM è la loro scarsa prestazione in compiti che richiedono un ragionamento in più fasi, ad esempio compiti aritmetici o logici. Un LLM può scrivere righe e righe di poemi (quasi) al pari di Shakespeare, ma potrebbe non riuscire a risolvere un integrale descrivendone i passaggi.

Alcuni studi mostrano che quando al modello vengono offerti alcuni esempi (pochi) nella scomposizione del compito in passaggi (definizione veloce di una catena di pensiero) e nell’aggregazione del suo risultato, le prestazioni migliorano notevolmente.

Autocoerenza

Questo approccio generale segue un procedimento basato sulla “saggezza della folla” o sul “voto della maggioranza” o sull’“insieme” per migliorare le prestazioni dei modelli, considerando la possibilità di spingere il modello a esplorare diversi percorsi nella generazione di risposte; possiamo supporre che la risposta più selezionata in questi diversi percorsi sia probabilmente quella corretta. Il modo in cui vengono generate le diverse risposte e il modo in cui vengono aggregate (per dedurre la risposta corretta) può variare.

Questo può includere anche un processo di autovalutazione: se chiedessimo a un modello di generare risposte e allo stesso tempo di generare le probabilità che le sue risposte siano corrette, queste probabilità saranno per lo più ben calibrate.

Come sappiamo, sebbene i modelli linguistici di grandi dimensioni possano fornire informazioni preziose, ci sono anche alcuni inconvenienti da considerare. Un potenziale problema è il loro ragionamento logico limitato e le tendenze alle allucinazioni. Le allucinazioni LLM sono una preoccupazione crescente e continueranno a rimanere tali finché i LLM non saranno migliorati.

Anche se sarà difficile eliminare completamente le allucinazioni, si possono mitigare i rischi/sfide attraverso le strategie discusse in precedenza. Fortunatamente, alcuni metodi possono aiutare a gestire queste sfide, di cui abbiamo già parlato in precedenza. Inutile dire che è fondamentale prestare attenzione quando si applicano questi strumenti per carichi di lavoro che richiedono fatti accurati o processi complessi di risoluzione dei problemi, poiché la precisione è fondamentale.

Post correlati

#TheRedComics

Giugno

A cura di Sophie Aiello, copy di Chiara Romano

La dura vita di una madre tech - Meme

TheRedCode Digest

La tecnologia corre, e tu devi correre più veloce per rimanere sempre sul pezzo! 🚀

Riceverai una volta al mese (o anche meno) con codici sconto per partecipare agli eventi del settore, quiz per vincere dei gadget e i recap degli articoli più interessanti pubblicati sul blog

Ci sto!

Partners

Community, aziende e persone che supportano attivamente il blog

Logo di Codemotion
Logo di GrUSP
Logo di Python Milano
Logo di Schrodinger Hat
Logo di Python Biella Group
Logo di Fuzzy Brains
Logo di Django Girls
Logo di Improove
Logo del libro open source
Logo di NgRome
Logo de La Locanda del Tech

Vuoi diventare #tech content writer? 🖊️

Se vuoi raccontare la tua sul mondo #tech con dei post a tema o vuoi condividere la tua esperienza con la community, sei nel posto giusto! 😉

Manda una mail a collaborazioni[at]theredcode.it con la tua proposta e diventa la prossima penna del blog!

Ma sì, facciamolo!