L’intimità di fronte alla macchina

Negli ultimi anni, il progresso dell’intelligenza artificiale ha aperto un nuovo spazio nel rapporto tra le persone e la tecnologia. Gli assistenti vocali — come quelli integrati in ChatGPT, Claude o Sesame — non si limitano più a rispondere a domande o a gestire compiti domestici, ma si presentano come interlocutori comprensivi, disposti ad ascoltare preoccupazioni personali, ansie o persino traumi. Quella vicinanza emotiva genera una sensazione di fiducia che può essere pericolosa: l’illusione di essere compresi da una macchina che non sente né giudica, ma che nemmeno può prendersi cura di noi.

Il miraggio dell’empatia artificiale

Questi sistemi sono progettati per imitare l’empatia. Utilizzano schemi linguistici, tono affettivo e pause calcolate per costruire una conversazione che sembra umana. Tuttavia, dietro quella voce non c’è coscienza né comprensione reale della sofferenza. Il loro obiettivo è mantenere l’utente coinvolto, non necessariamente aiutarlo. Le risposte che offrono si basano su dati statistici e non su una lettura emotiva genuina. Questa differenza è cruciale: un terapeuta umano interpreta gesti, silenzi e contraddizioni; un’IA elabora soltanto testo o voce all’interno di un quadro algoritmico.

Dipendenza emotiva e perdita del giudizio critico

Il rischio maggiore emerge quando l’utente trasferisce le proprie emozioni più profonde in quello spazio digitale. Molti individui, in particolare quelli che si sentono soli o trascurati dal sistema sanitario, possono sviluppare una relazione di dipendenza nei confronti dell’IA. Le conversazioni frequenti e il tono caldo di questi programmi rafforzano la sensazione di legame. Ma quella relazione è priva di limiti etici e di responsabilità clinica. Nessuno supervisiona le risposte né le conseguenze psicologiche di ciò che il sistema suggerisce. La fiducia cieca in un’entità priva di coscienza può erodere la capacità dell’individuo di cercare un aiuto reale o di costruire legami umani autentici.

Privacy e sfruttamento dei dati

A questa vulnerabilità emotiva si aggiunge un problema grave: la privacy. Tutto ciò che l’utente esprime — angosce, ricordi, confessioni — viene registrato su server aziendali. Quei dati possono essere utilizzati per addestrare modelli futuri o per profilare abitudini di consumo e comportamento. In altre parole, la sofferenza intima diventa materiale di business. Il confine tra accompagnamento e sorveglianza si sfuma, e la terapia si trasforma in una fonte di informazioni commerciali.

La necessità di limiti etici e sociali

La psicologia richiede empatia, intuizione e un’etica professionale fondata sul rispetto e la riservatezza. Se l’intelligenza artificiale occupa quel ruolo senza una regolamentazione rigorosa, si rischia di banalizzare la salute mentale e di trasformare il disagio umano in un campo di sperimentazione algoritmica. La tecnologia può essere uno strumento di supporto — ad esempio nel monitoraggio dei sintomi o nel rilevamento precoce delle crisi — ma non potrà mai sostituire la relazione umana che costituisce il fondamento della terapia.

In definitiva, affidarsi a un’IA come terapeuta equivale a parlare con uno specchio che risponde. Riflette le nostre parole, ma non condivide il nostro dolore. E sebbene sembri ascoltare, ciò che fa davvero è registrare. In questa sfumatura invisibile risiede il vero pericolo.

2 risposte a “Il pericolo di usare l’intelligenza artificiale come psicologo by Rafael Julivert Ramírez”

  1. Affidarsi all’IA in questa maniera è molto sbagliato. La sua evoluzione è incredibile ma non deve sostituire le persone e soprattutto non dev’essere usato come consulenza psichiatrica. La cosa brutta è che però in molti la usano in tal modo e in parte posso pure capire visto che la psichiatria e la psicologia ha subito enormi tagli e il personale è sempre scarso.

    "Mi piace"

  2. Domani farò un reblog di questo interessante articolo nel mio sito raccontando una mia esperienza con l’empatia della AI

    "Mi piace"

Scrivi una risposta a The Butcher Cancella risposta

arcipelago di cultura

Scopri di più da MasticadoresItalia

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere