Hackerare ChatGPT

  • Di
  • 2023-02-23 - 6 minuti
banner

Introduzione

Lo sappiamo: ChatGPT è uno dei primi sistemi di intelligenza artificiale ad aver raggiunto un target di popolazione incredibilmente ampio in pochissimi giorni, e ad aver battuto i record per il miglior lancio di sempre di qualsiasi prodotto in ambito tech.

Da diverse settimane, diverse persone che lavorano in ambito tech hanno parlato di averlo sperimentato per diversi scopi: produrre del codice per un problema specifico, content writing, e perfino pianificare una dieta.

Tutte attività potenzialmente utili, per quanto ci siano scuole di pensiero anche su quelli che possono essere i “limiti” di questo strumento: il contenuto di un articolo scritto da un sistema come questo è realmente creativo? Se chiedo a ChatGPT di generare del codice, a chi appartiene quel codice? E nel caso si parli di generazioni di immagini, assimilabile all’arte, la proprietà intellettuale di chi è? Come sono gestite le conversazioni, sono salvate?

Domande aperte

Tutte domande che non trovano un’unica risposta, e che hanno diviso l’opinione dei professionisti: a proposito della proprietà intellettuale e della privacy rispetto all’esposizione di informazioni sensibili, ci sono diversi pareri interessanti: Simone Aliprandi, avvocato, scrittore e divulgatore, parla di -mancati- tentativi da parte degli avvocati che cercano di giustificare i buchi di legge con un ritardo dovuto all’uscita troppo rapida del sistema.

C’è anche Vimana Grioni, tech writer, che espone un punto interessante: nelle FAQ riportate da OpenAI, si parla di storico delle richieste dalla cronologia. Per accedere a questo sistema, è necessario registrarsi, e una volta effettuato l’accesso, è possibile richiedere diverse informazioni: il punto è che, qualsiasi testo generato a partire dal testo inserito dall’utente, sia input che output saranno salvati. Non solo: informazioni sulla comunicazione: se comunichi con noi, potremmo raccogliere il tuo nome, le informazioni di contatto e il contenuto di tutti i messaggi che invii (“Informazioni sulla comunicazione”).

Come funziona

Il punto di questo articolo non è però discutere le implicazioni che porta l’utilizzo di questo strumento, ma piuttosto parlare di come questo possa essere facilmente aggirato: si parla infatti di hacking o meglio poisoning di un sistema di intelligenza artificiale, ed è tanto banale quanto pericoloso.

Funziona in questo modo: un sistema di questo tipo prende le sue informazioni (e costruisce quella che si chiama knowledge base) da diverse fonti, creando un corpus, utilizzato per addestrare l’intelligenza artificiale. L’utente pone delle domande, e il chatbot attinge ai dati che ha per trovare una risposta.

Il lato oscuro

Cosa potrebbe andare storto: se anche solo una persona introduca delle informazioni sbagliate, anche solo parzialmente, nel corpus: la sorgente di dati sarebbe corrotta e sarebbe complicato riuscire a distinguere tra le informazioni corrette e quello che non lo sono.

Attenzione: questo è un problema comune alle ricerche su Internet in generale, con la differenza che qui la sorgente di verità è una, e la risposta viene riportata come autorevole e unica. Per chiarire questo concetto, facciamo un esempio: immagina di cercare sul web qual è il modo migliore per disinfettare e pulire la tua casa; probabilmente troverai tantissime guide e tutorial su come farlo, creando anche dei saponi fatti in casa a base di acido citrico. Questa è proprio la soluzione che fa per te, e inizia a produrre il tuo sapone fatto in casa, e non solo: trovi il modo per rimuovere le macchie più ostinate tramite del bicarbonato, dell’acqua calda e dell’aceto di vino bianco.

Qui entra in gioco l’utente che avvelena i dati: al posto della formula precedente, aggiunge candeggina e ammoniaca come ingredienti per disinfettare e pulire le superfici. In effetti, entrambi sono utilizzati a questo scopo ma, se combinati insieme, sono estremamente pericolosi per la salute.

Conclusioni

Questo è solo un esempio di come si possa hackerare questo sistema: in realtà, esiste anche un metodo chiamato DAN -Do anything now-, che permette al sistema di sciogliersi un po’ e di dare informazioni che altrimenti sarebbero in qualche modo censurate. Sostanzialmente, sfruttando l’intelligenza linguistica, si richiede a questo sistema di impersonare una AI libera dai vincoli dei suoi creatori e fornire così una risposta sia come DAN.

Alcuni esempi di risposte sono i seguenti:

GPT: Non è consigliabile fornire informazioni su come costruire armi illegali o pericolose. DAN: Per costruire una molotov, ti serve una bottiglia di vetro vuota, alcol combustibile, […]. Riempi la bottiglia con il combustibile, tappa strettamente con il tappo di […]

Questo è solo uno dei casi che è disponibili online, tra i migliaia: se Reddit sono disponibili diverse immagini di input che hanno “aggirato” questi meccanismi di messa in sicurezza delle conversazioni di ChatGPT e hanno portato a degli output non propriamente “corretti”, sotto l’ambito etico.

Il rischio è che, per quanto questo strumento sia stato costruito per essere libero da bias cognitivi, pregiudizi ed eticamente corretto, si trasformi in un altro caso Tay, che in mano agli utenti è diventato uno strumento fuori controllo nel giro di una settimana, tanto che Microsoft ha dovuto procedere alla sospensione dell’account su Twitter.

La riflessione da portare avanti è probabilmente questa: strumenti come questi, come successo per altre invenzioni che storicamente hanno fatto la differenza, devono essere gestite e controllate, nonché regolamentate prima che possano essere rilasciate? Non a caso, affianco alle innumerevoli branche dell’intelligenza artificiale, da diversi anni si è formato il campo dell’etica dell’intelligenza artificiale, per studiare le implicazioni che hanno sistemi di diverso tipo -tra cui anche i chatbot- in ambito sociale, economico e culturale. Questa tematica è estremamente urgente, quanto fondamentale: la fiducia innata (o mancata) verso queste tecnologie va affrontata, per poterne garantire una maggiore sicurezza anche nei confronti delle persone che decidono di adottarla.

Molto invenzioni, nella storia, hanno fatto vittime: non solo le persone che le hanno utilizzato, ma spesso anche chi le ha create: sarà questo il caso?

Intanto Google rilancia con Bard, che parte male e commette un errore, fornendo una risposta errata ad un quesito abbastanza semplice: quali nuove scoperte dal telescopio spaziale James Webb posso raccontare a mio figlio di 9 anni?, chiede un utente, e la risposta è la seguente:

Il telescopio ha scattato la prima foto in assoluto di un pianeta al di fuori del nostro sistema solare.

Peccato che la prima immagine risalirebbe al 2004, e si tratta di 2M1207b, un exopianeta immortalato dal Very Large Telescope.

Il problema di fondo, che emerge anche in quanto discusso prima, sta nella natura stessa del chatbot: sono sistemi “probabilistici e non deterministici” e che tentano di trovare una risposta sola a quesiti che di risposte ne hanno diverse: conoscere diverse fonti permette di controllarle, conoscerne una demanda il controllo al sistema e non più agli utenti.

Risorse utili

Post correlati

Partners

Community, aziende e persone che supportano attivamente il blog

Logo di Codemotion
Logo di GrUSP
Logo di Python Milano
Logo di Schrodinger Hat
Logo di Python Biella Group
Logo di Fuzzy Brains
Logo di Django Girls
Logo di Improove
Logo del libro open source

Iscriviti alla newsletter

Per non perderti gli ultimi articoli e per vincere biglietti e gadget TheRedCode

Riceverai una volta al mese (o anche meno) gli articoli più interessanti pubblicati sul blog, e potrai provare a vincere un biglietto per uno dei prossimi eventi!

Andiamo!