L'Intelligenza Artificiale è sempre più pervasiva nelle nostre vite: ma quanto è sano continuare a umanizzarla?

Arianna Bordi | Editor

Ultimo aggiornamento – 07 Aprile, 2025

Primo piano di un telefono con Chat GPT come assistente vocale tenuto in mano da una donna

Con l’IA da poco presente anche su Whatsapp e l’ormai abituale utilizzo da parte di innumerevoli utenti sia per ricerche scritte che tramite assistenti vocali, gli studiosi (comprensibilmente) hanno iniziato a interrogarsi sull’impatto psicologico di questi modelli linguistici (LLM, Large Language Model).

Se ci rivogliamo ogni giorno a una chat, a una voce artificiale, per svariati compiti (dalla lista della spesa a un riassunto di un film), significa che vogliamo anche stabilite una relazione con questa entità? Siamo naturalmente inclini a darle un nome e a umanizzarla?

Nell’era della solitudine ci rifugiamo nell’IA

Una ricerca di quest’anno condotta dal Massachusetts Institute of Technology (MIT) ha messo in luce una correlazione preoccupante tra l'incremento dell'uso quotidiano di ChatGPT e una serie di indicatori psicosociali negativi.

Lo studio ha evidenziato come un maggiore coinvolgimento con l'intelligenza artificiale conversazionale sia significativamente associato a un aumento dei sentimenti di solitudine, a una maggiore probabilità di sviluppare dipendenza e uso problematico della tecnologia, e a una riduzione delle interazioni sociali nella vita reale.

I risultati della ricerca suggeriscono inoltre che lo sviluppo di un forte attaccamento emotivo e una crescente fiducia nei confronti del chatbot sembrano esacerbare questi effetti negativi. In particolare, i partecipanti allo studio che hanno manifestato un legame emotivo più intenso e una maggiore credibilità attribuita all'IA conversazionale hanno riportato livelli più elevati di solitudine e dipendenza emotiva.

Un aspetto particolarmente interessante e inquietante emerso dalla ricerca riguarda l'impostazione della modalità vocale del chatbot sul sesso opposto rispetto all'utente: i partecipanti che hanno personalizzato l'IA in questo modo hanno mostrato livelli significativamente più elevati di solitudine e dipendenza emotiva rispetto agli altri.

undefined

I risultati mettono in guardia sui potenziali effetti collaterali di un'interazione eccessiva e emotivamente coinvolgente con le IA, evidenziando la necessità di ulteriori ricerche per comprendere appieno le dinamiche psicologiche in gioco e sviluppare strategie per un utilizzo più consapevole e responsabile.

È fondamentale considerare come la facilità di accesso e la crescente sofisticazione dei chatbot possano, quindi, paradossalmente, portare a un isolamento sociale e a forme di dipendenza emotiva, soprattutto in individui vulnerabili o in periodi di fragilità emotiva.

Inevitabile pensare a Theodore Twombly, protagonista del film Her del 2013, diretto da Spike Jonze, che acquista un nuovo sistema operativo basato sull'intelligenza artificiale, a cui sceglie di dare una voce femminile dal nome Samantha.

La pellicola esplora, con molti anni di anticipo, proprio la tematica dei legami, anche amorosi, con le Intelligenze Artificiali, nello specifico quelle vocali, sottolineando limiti e controversie nei ruoli che possono acquisire nelle nostre vite e nella loro sempre più crescente antropomorfizzazione.

Le intelligenze artificiali possono essere dei terapeuti?

Shannon McNamara, conduttrice del podcast Fluently Forward, ammette di affidarsi all'intelligenza artificiale in momenti di particolare vulnerabilità emotiva.

"Circa due anni fa, stavo affrontando una rottura sentimentale molto dolorosa," racconta, "e, naturalmente, ne parlavo con il mio terapeuta abituale durante le nostre sedute. Tuttavia, c'erano quelle notti, quelle prime ore del mattino in cui il bisogno di una risposta immediata era quasi insostenibile."

McNamara spiega come la sua abitudine preesistente di elaborare i propri sentimenti attraverso lunghe annotazioni testuali l'abbia portata naturalmente a sperimentare con ChatGPT: "Avevo già la consuetudine di scrivere dei veri e propri flussi di coscienza sui miei stati d'animo. In quei momenti di crisi semplicemente copiavo e incollavo l'intero documento nell'interfaccia e chiedevo all'IA di fornirmi un riassunto." L'analisi e i suggerimenti che seguivano, ricorda, "erano sorprendentemente confortanti da leggere, una sorta di validazione immediata."

Pur riconoscendo i limiti intrinseci dell'IA – "Certo, non mi pone domande sulla mia infanzia per scavare alle radici di un problema" – la podcaster apprezza la capacità di ChatGPT di fornire "fino a dieci diverse soluzioni" per affrontare una determinata situazione.

Ammette l’imperfezione di questi dialoghi, che non sostituiscono una vera terapia, ma hanno per lei il potere di placare un senso generale di impotenza e di offrire un punto di partenza per affrontare le difficoltà emotive.

Jeff Guenther, counselor popolare sui social media grazie al suo account TikTok Therapy Jeff, paragona questa pratica al ricevere consigli frammentari e decontestualizzati da terapisti online, sottolineando la superficialità intrinseca di tale approccio.


Potrebbe interessarti anche:


"Spesso i miei follower mi chiedono cosa 'direbbe Therapy Jeff' in determinate situazioni," spiega, "ma nella pratica clinica, non mi limiterei a fornire dieci soluzioni preconfezionate. Invece, esplorerei a fondo il motivo che spinge quella domanda. In terapia, ci addentreremmo nell'origine di quel bisogno, e il mio ruolo sarebbe quello di guidare il paziente attraverso la comprensione e l'analisi delle sue motivazioni più profonde."

Per Guenther coloro che affermano di utilizzare ChatGPT come una vera e propria forma di terapia dimostrano una fondamentale incomprensione del processo terapeutico: "Questi bot basati sull'intelligenza artificiale sono intrinsecamente incapaci di comprendere appieno il tuo stato emotivo, anche se sollecitati a farlo. Non possono percepire la complessità dei tuoi sentimenti più intimi," afferma con decisione.

Lo specialista evidenzia, quindi, una distinzione cruciale tra un'interazione con un'intelligenza artificiale e una relazione terapeutica autentica: "Un terapista esperto sa istintivamente quando è il momento di sfidare le tue convinzioni, di incoraggiarti a guardare le cose da una prospettiva diversa, o quando, al contrario, è necessario connettersi empaticamente con la tua sofferenza. ChatGPT può occasionalmente fornire consigli pertinenti, ma questa non è terapia. Mancano la profondità, la sintonizzazione emotiva e la comprensione contestuale che solo un essere umano può offrire."

In sintesi, Guenther mette in guardia dal considerare dei modelli linguistici artificiali come sostituti validi per la psicoterapia, sottolineando l'importanza cruciale della relazione umana, dell'empatia e della capacità di esplorare le radici profonde dei problemi emotivi – elementi che un'intelligenza artificiale, per quanto sofisticata, non può replicare.

Il counselor evidenzia inoltre la dubbia provenienza dei consigli forniti: "Ciò che si riceve in cambio di questa vulnerabilità è spesso un agglomerato di informazioni rastrellate dal web, attingendo a forum come Reddit o piattaforme come Twitter. Di conseguenza, l'utente non ha alcuna certezza sull'affidabilità o sulla competenza della fonte da cui promanano i suggerimenti."

Infatti, mentre la tentazione di trovare un sollievo immediato e gratuito in un'interazione con l'intelligenza artificiale può essere forte, Guenther mette in guardia sui rischi legati alla privacy dei dati sensibili e alla potenziale inaffidabilità dei consigli ricevuti, sottolineando l'importanza di approcci più sicuri e validati per la cura della propria salute mentale.

Arianna Bordi | Editor
Scritto da Arianna Bordi | Editor

Dopo la laurea in Letteratura e Lingue straniere, durante il mio percorso di laurea magistrale mi sono specializzata in Editoria e Comunicazione visiva e digitale. Ho frequentato corsi relativi al giornalismo, alla traduzione, alla scrittura per il web, al copywriting e all'editing di testi.

Le informazioni proposte in questo sito non sono un consulto medico. In nessun caso, queste informazioni sostituiscono un consulto, una visita o una diagnosi formulata dal medico. Non si devono considerare le informazioni disponibili come suggerimenti per la formulazione di una diagnosi, la determinazione di un trattamento o l’assunzione o sospensione di un farmaco senza prima consultare un medico di medicina generale o uno specialista.
Arianna Bordi | Editor
Arianna Bordi | Editor
in Mental health

328 articoli pubblicati

Contenuti correlati
Giovane papà con in braccio suo figlio piccolo che interagisce con lui
Festa del papà: quanto abbiamo da festeggiare in termini di parità genitoriale?

In occasione della Festa del papà è bene riflettere su quanto i padri lavoratori siano coinvolti: il congedo parentale paterno non viene ancora considerato prioritario, in primis sul posto di lavoro. 

Ragazza sdraiata sul letto che legge al PC, mentre ha sul letto anche tablet, smartphone e un quaderno
Ecco perché la "crisi di mezza età" dei Millennial è diversa da tutte le altre

I Millennial, una delle generazioni più vessata dai cambiamenti sociali, economici e culturali, sta attraversando una "crisi di mezza età" anticipata? Parliamone.