Con l’IA da poco presente anche su Whatsapp e l’ormai abituale utilizzo da parte di innumerevoli utenti sia per ricerche scritte che tramite assistenti vocali, gli studiosi (comprensibilmente) hanno iniziato a interrogarsi sull’impatto psicologico di questi modelli linguistici (LLM, Large Language Model).
Se ci rivogliamo ogni giorno a una chat, a una voce artificiale, per svariati compiti (dalla lista della spesa a un riassunto di un film), significa che vogliamo anche stabilite una relazione con questa entità? Siamo naturalmente inclini a darle un nome e a umanizzarla?
Nell’era della solitudine ci rifugiamo nell’IA
Una ricerca di quest’anno condotta dal Massachusetts Institute of Technology (MIT) ha messo in luce una correlazione preoccupante tra l'incremento dell'uso quotidiano di ChatGPT e una serie di indicatori psicosociali negativi.
Lo studio ha evidenziato come un maggiore coinvolgimento con l'intelligenza artificiale conversazionale sia significativamente associato a un aumento dei sentimenti di solitudine, a una maggiore probabilità di sviluppare dipendenza e uso problematico della tecnologia, e a una riduzione delle interazioni sociali nella vita reale.
I risultati della ricerca suggeriscono inoltre che lo sviluppo di un forte attaccamento emotivo e una crescente fiducia nei confronti del chatbot sembrano esacerbare questi effetti negativi. In particolare, i partecipanti allo studio che hanno manifestato un legame emotivo più intenso e una maggiore credibilità attribuita all'IA conversazionale hanno riportato livelli più elevati di solitudine e dipendenza emotiva.
Un aspetto particolarmente interessante e inquietante emerso dalla ricerca riguarda l'impostazione della modalità vocale del chatbot sul sesso opposto rispetto all'utente: i partecipanti che hanno personalizzato l'IA in questo modo hanno mostrato livelli significativamente più elevati di solitudine e dipendenza emotiva rispetto agli altri.
I risultati mettono in guardia sui potenziali effetti collaterali di un'interazione eccessiva e emotivamente coinvolgente con le IA, evidenziando la necessità di ulteriori ricerche per comprendere appieno le dinamiche psicologiche in gioco e sviluppare strategie per un utilizzo più consapevole e responsabile.
È fondamentale considerare come la facilità di accesso e la crescente sofisticazione dei chatbot possano, quindi, paradossalmente, portare a un isolamento sociale e a forme di dipendenza emotiva, soprattutto in individui vulnerabili o in periodi di fragilità emotiva.
Inevitabile pensare a Theodore Twombly, protagonista del film Her del 2013, diretto da Spike Jonze, che acquista un nuovo sistema operativo basato sull'intelligenza artificiale, a cui sceglie di dare una voce femminile dal nome Samantha.
La pellicola esplora, con molti anni di anticipo, proprio la tematica dei legami, anche amorosi, con le Intelligenze Artificiali, nello specifico quelle vocali, sottolineando limiti e controversie nei ruoli che possono acquisire nelle nostre vite e nella loro sempre più crescente antropomorfizzazione.
Le intelligenze artificiali possono essere dei terapeuti?
Shannon McNamara, conduttrice del podcast Fluently Forward, ammette di affidarsi all'intelligenza artificiale in momenti di particolare vulnerabilità emotiva.
"Circa due anni fa, stavo affrontando una rottura sentimentale molto dolorosa," racconta, "e, naturalmente, ne parlavo con il mio terapeuta abituale durante le nostre sedute. Tuttavia, c'erano quelle notti, quelle prime ore del mattino in cui il bisogno di una risposta immediata era quasi insostenibile."
McNamara spiega come la sua abitudine preesistente di elaborare i propri sentimenti attraverso lunghe annotazioni testuali l'abbia portata naturalmente a sperimentare con ChatGPT: "Avevo già la consuetudine di scrivere dei veri e propri flussi di coscienza sui miei stati d'animo. In quei momenti di crisi semplicemente copiavo e incollavo l'intero documento nell'interfaccia e chiedevo all'IA di fornirmi un riassunto." L'analisi e i suggerimenti che seguivano, ricorda, "erano sorprendentemente confortanti da leggere, una sorta di validazione immediata."
Pur riconoscendo i limiti intrinseci dell'IA – "Certo, non mi pone domande sulla mia infanzia per scavare alle radici di un problema" – la podcaster apprezza la capacità di ChatGPT di fornire "fino a dieci diverse soluzioni" per affrontare una determinata situazione.
Ammette l’imperfezione di questi dialoghi, che non sostituiscono una vera terapia, ma hanno per lei il potere di placare un senso generale di impotenza e di offrire un punto di partenza per affrontare le difficoltà emotive.
Jeff Guenther, counselor popolare sui social media grazie al suo account TikTok Therapy Jeff, paragona questa pratica al ricevere consigli frammentari e decontestualizzati da terapisti online, sottolineando la superficialità intrinseca di tale approccio.
Potrebbe interessarti anche:
- Difficoltà a navigare tra gli impegni della giornata? C'è sempre tempo per ricominciare
- Prendere metaforicamente un caffè con chi eravamo 10 anni fa: il potere di una malinconia propositiva
- Cozy games, granny hobbies: gli infiniti modi che cerchiamo per disconnetterci dal digitale
"Spesso i miei follower mi chiedono cosa 'direbbe Therapy Jeff' in determinate situazioni," spiega, "ma nella pratica clinica, non mi limiterei a fornire dieci soluzioni preconfezionate. Invece, esplorerei a fondo il motivo che spinge quella domanda. In terapia, ci addentreremmo nell'origine di quel bisogno, e il mio ruolo sarebbe quello di guidare il paziente attraverso la comprensione e l'analisi delle sue motivazioni più profonde."
Per Guenther coloro che affermano di utilizzare ChatGPT come una vera e propria forma di terapia dimostrano una fondamentale incomprensione del processo terapeutico: "Questi bot basati sull'intelligenza artificiale sono intrinsecamente incapaci di comprendere appieno il tuo stato emotivo, anche se sollecitati a farlo. Non possono percepire la complessità dei tuoi sentimenti più intimi," afferma con decisione.
Lo specialista evidenzia, quindi, una distinzione cruciale tra un'interazione con un'intelligenza artificiale e una relazione terapeutica autentica: "Un terapista esperto sa istintivamente quando è il momento di sfidare le tue convinzioni, di incoraggiarti a guardare le cose da una prospettiva diversa, o quando, al contrario, è necessario connettersi empaticamente con la tua sofferenza. ChatGPT può occasionalmente fornire consigli pertinenti, ma questa non è terapia. Mancano la profondità, la sintonizzazione emotiva e la comprensione contestuale che solo un essere umano può offrire."
In sintesi, Guenther mette in guardia dal considerare dei modelli linguistici artificiali come sostituti validi per la psicoterapia, sottolineando l'importanza cruciale della relazione umana, dell'empatia e della capacità di esplorare le radici profonde dei problemi emotivi – elementi che un'intelligenza artificiale, per quanto sofisticata, non può replicare.
Il counselor evidenzia inoltre la dubbia provenienza dei consigli forniti: "Ciò che si riceve in cambio di questa vulnerabilità è spesso un agglomerato di informazioni rastrellate dal web, attingendo a forum come Reddit o piattaforme come Twitter. Di conseguenza, l'utente non ha alcuna certezza sull'affidabilità o sulla competenza della fonte da cui promanano i suggerimenti."
Infatti, mentre la tentazione di trovare un sollievo immediato e gratuito in un'interazione con l'intelligenza artificiale può essere forte, Guenther mette in guardia sui rischi legati alla privacy dei dati sensibili e alla potenziale inaffidabilità dei consigli ricevuti, sottolineando l'importanza di approcci più sicuri e validati per la cura della propria salute mentale.