logo tiscali tv

Lo psicologo: "Sedute di psicanalisi con l'intelligenza artificiale? Il malessere sociale è oltre i livelli di guardia"

Per lo psicoterapeuta Enrico Maria Secci chiedere il sostegno emotivo a un software è come volersi dissetare leccando l'immagine di una fontana

Lo psicologo Sedute di psicanalisi con lintelligenza artificiale Il malessere sociale è oltre i livelli di guardia

Leggi più veloce

Dopo l’ondata di psicologi reclamizzati come “bravi” e sfruttati come rider a mezzanotte per erogare sedute virtuali dal pc di casa, a minare la credibilità sociale della psicoterapia ora ci pensa anche ChatGPT. Il popolare software d’intelligenza artificiale patrocinato da Elon Musk sarebbe capace di rispondere a domande con testi grammaticalmente corretti, ben articolati e attinenti al punto che gli utenti cercano persino di utilizzarlo come “psicoterapeuta”.

La notizia pubblicata  sulla testata online Open in cui il giornalista Antonio Di Noto riporta i testi “terapeutici” prodotti dal chatbot in risposta a una richiesta d’aiuto psicologico. L’esperimento ha dell’incredibile e potrebbe sembrare divertente se non pensassimo a quante persone lo replicheranno con il serio intento di ricevere supporto emotivo da una ChatGPT qualunque anziché rivolgersi a un vero professionista della salute mentale in carne ed ossa in uno studio con pareti, quadri e finestre reali.

Una società in cui si professa il Credo del “come se” con un’ostinazione ovina;  una società che promuove l’edulcorazione in digitale dei sentimenti umani a suon di smartphone e di social è una società disperatamente triste. Quella del “come se” è una specie di Fede ignorante ma cool che mescola e confonde il reale col virtuale, che scambia l’umano con la macchina e travisa con diabolica perseveranza l’irripetibilità della connessione tra le persone in carne ed ossa nel mondo materiale.

Chiedere il sostegno emotivo di un software, per quanto ben progettato, corrisponde all’illusione di dissetarsi leccando l’immagine di una fontana su uno schermo. Allo stesso modo, assimilare una psicoterapia ad una relazione psicoterapeutica surrogata via computer, tablet o smartphone, senza la mediazione umana, rappresenta una pericolosa illusione per gli utenti e un’inaccettabile reificazione delle cure in ambito psicologico.

Le restrizioni dovute al Covid hanno probabilmente accelerato e aggravato l’abuso di protesi relazionali e surrogati interpersonali come Whatsapp, Telegram, Zoom e Tik Tok. L’evento pandemico ha incentivato la cultura del “come se” per cui l’idea di un’app come psicoterapeuta non è un’opzione orripilante quale è, ma un’opzione desiderabile, comoda ed economica. Le simulazioni relazioni terapeutiche, con o senza umani dietro lo schermo, potrebbero a breve sostituirsi alle terapie tra persone in carne ossa, occhi negli occhi, con imprevedibili, barbarici deterioramenti e crolli della salute mentale.

ChatGPT è solo un esempio d’intelligenza artificiale e accidentalmente avrebbe “dimostrato” una certa “utilità” psicoterapeutica. Presto avremo software ultra specializzati, tipo il Dott. Siri e la Dott.ssa Alexa. Li avremo sul comodino o li porteremo in tasca, come nel profetico e distopico film “Lei”. Oggetti mortiferi.

La banalizzazione dell’empatia è il business del futuro, perché alla fine l’amore, la comunicazione sintonica e la comprensione cura sono da sempre ciò che ci cura e che ci rende vivi e felici. L’urgenza di empatia e di ascolto è tale, ormai, da rendere appetibili soluzioni “psicologiche” alla carlona, “terapie” ridotte a videate senza contatto, senza un vero impegno e una presenza autentica. Senza calore e senza senso.

Provo a considerare l’inquietante ricerca di “terapeuti” portapizza (ma bravi! che bravi!) che si estremizza nella penosa richiesta d’aiuto ChatGPT. E qui mi fermo. Sento un profondo dispiacere  all’idea che le persone s’illudano che parlare con videate o persino con chatbot sia come incontrare professionisti nel mondo reale perché il dilagare di questo fenomeno indica che il malessere psicologico e sociale ha ormai superato i livelli di guardia.

04/02/2023