AI Shaming: quando l'uso dell'intelligenza artificiale diventa un bias

Psicologia e sociologia: due facce della stessa medaglia che studiano il comportamento umano, ma con approcci e obiettivi differenti. Mentre la psicologia si concentra sull’individuo, analizzando i processi mentali e le emozioni che guidano il comportamento, la sociologia, invece, esamina i gruppi sociali e le strutture che influenzano le interazioni tra individui.
Cosa c’entra con questo blog, e con il tema dell’intelligenza artificiale? C’entra, c’entra eccome. Perché l’AI, con la sua capacità di apprendere e adattarsi, sta iniziando a influenzare non solo il modo in cui lavoriamo e viviamo, ma anche il modo in cui ci relazioniamo gli uni con gli altri.
Parliamo di AI shaming, il fenomeno per cui le persone vengono giudicate o criticate per il loro uso (o non uso) dell’intelligenza artificiale.
Potrebbe averlo scritto un AI!
Quante volte avete sentito questa frase? O, peggio ancora, quante volte l’avete pensata, leggendo un articolo, un post o una mail? In un mondo in cui l’AI è sempre più presente grazie alla diffusione di strumenti che usano i modelli linguistici, è facile cadere nella trappola del giudizio, anzi, del pregiudizio. Se qualcuno utilizza strumenti di intelligenza artificiale per scrivere un articolo, creare un’immagine o persino programmare, viene additato di “barare” o di non essere abbastanza competente. D’altro canto, chi sceglie di non utilizzare l’AI può essere visto come “antiquato” o “resistente al cambiamento”, come se l’adozione dell’AI fosse un obbligo morale piuttosto che una scelta personale o professionale.
Il termine “AI shaming” nasce un po’ come tutte quelle espressioni che marcano un fenomeno sociale emergente, spesso in modo ironico o critico, circa la segregazione di una categoria di persone, “noi contro loro”. Ma dietro l’ironia si nasconde una realtà più complessa: l’AI shaming riflette le tensioni e le paure legate all’adozione di strumenti come ChatGPT nella nostra società.
Nella pubblicazione intitolata “AI Could Have Written This: Birth of a Classist Slur in Knowledge Work” si parla di come l’AI shaming stia emergendo come una nuova forma di discriminazione nel mondo del lavoro, in particolare tra chi lavora con il campo della conoscenza. L’autore, Aniketh Sarkar, esplora come l’uso dell’AI possa diventare un marcatore di status sociale, creando divisioni tra coloro che adottano la tecnologia e coloro che la evitano. Sarkar sottolinea che l’AI shaming non riguarda solo la competenza tecnica, ma anche le percezioni culturali e sociali legate all’uso dell’AI. In un certo senso, l’AI shaming può essere visto come una manifestazione delle più ampie dinamiche di potere e privilegio nella società, dove l’accesso e l’uso della tecnologia diventano simboli di appartenenza o esclusione: il sospetto sull’autenticità del lavoro prodotto con l’AI, la paura di essere sostituiti da macchine “intelligenti” (che poi, definire l’intelligenza ad oggi è ancora molto difficile…), e la pressione sociale per conformarsi alle nuove norme tecnologiche.
In sociologia, questo fenomeno può essere analizzato attraverso la lente delle teorie del conflitto e della stratificazione sociale. L’adozione dell’AI può essere vista come un mezzo per acquisire o mantenere il potere all’interno di un gruppo sociale, creando nuove forme di disuguaglianza basate sull’accesso e l’uso della tecnologia. Inoltre, l’AI shaming può essere interpretato come una forma di controllo sociale, in cui le norme culturali e sociali vengono utilizzate per regolare il comportamento degli individui all’interno di una comunità. Chi usa l’intelligenza artificiale per migliorare la propria produttività o creatività può essere visto come un “traditore” della tradizione, anche se questo dipende dal livello di seniority, mentre chi rifiuta l’AI può essere considerato un “ribelle” contro il progresso tecnologico, o anche una persona che non ne comprende le potenzialità.
Quante volte ti sarà capitato di leggere storie di persone che si candidano per posizioni lavorative di un certo livello di seniority e di aver pensato “ma come fa uno junior a candidarsi per quel ruolo, non avrà le competenze necessarie”? Ecco, la realtà è che in un futuro non troppo lontano, potremmo trovarci a giudicare le persone in base al loro uso (o non uso) dell’AI, piuttosto che alle loro competenze effettive.
Da un punto di vista psicologico, l’AI shaming può avere effetti significativi sull’autostima e sul benessere emotivo degli individui. Essere giudicati o criticati per il proprio uso (o non uso) dell’AI può portare a sentimenti di inadeguatezza, ansia e isolamento sociale. Inoltre, la pressione per conformarsi alle norme tecnologiche può creare stress e conflitti interni, soprattutto per coloro che si sentono divisi tra il desiderio di adottare nuove tecnologie e la paura di perdere la propria identità o autenticità. C’è chi ammette di usarlo, perché “tanto lo fanno tutti”, chi lo fa senza remore perché è nella posizione di farlo, e c’è chi si sente in colpa, come se stesse tradendo se stesso, la sua intelligenza, o i propri valori.
Si tratta non solo di uno stigma, ma dell’ennesima etichetta volta a creare un divario tra quelle capacità che non sono del tutto misurabili e che riguardano il modo in cui ci relazioniamo con gli altri, il nostro modo di pensare e di agire. Il pensiero critico, la possibilità di analizzare e sintetizzare informazioni complesse, la creatività e l’empatia sono tutte competenze umane che l’AI, ad oggi, non può replicare. Questo perché, ad oggi, non abbiamo un modo discreto per misurare queste competenze, e quindi è impossibile pensare di ridurre la creatività di Guido Van Rossum o di Linus Torvalds al solo uso di un AI per scrivere codice.
Una riflessione che vale la pena fare è la seguente: e se il driver di tutto questo fosse la paura? La paura di essere sostituiti, la paura di perdere il controllo, la paura di non essere più rilevanti in un mondo che cambia rapidamente? La paura è l’altro riflesso dell’ignoranza, e l’ignoranza è la radice di molti dei nostri pregiudizi e stereotipi. Invece di giudicare gli altri per il loro uso (o non uso) dell’AI, dovremmo cercare di comprendere dove gli strumenti ad oggi disponibili possono aiutarci a migliorare le nostre vite e il nostro lavoro, a portare valore, senza perdere di vista ciò che ci rende umani. Dopotutto, l’AI è uno strumento, e come tutti gli strumenti, il suo valore dipende da come lo usiamo. Non è l’AI in sé a essere buona o cattiva, ma il modo in cui la utilizziamo. E forse, invece di giudicare gli altri per il loro uso (o non uso) di questi strumenti, dovremmo concentrarci su come possiamo lavorare insieme, come umani, con i sistemi che ci permettono di avanzare, crescere e innovare.








