Intră la idei - Când ChatGPT devine psihoterapeut

Media&digital

Când ChatGPT devine psihoterapeut

De Ana Leu, Ilustrații de Yanna Zosmer

Publicat pe 16 decembrie 2025

Dau scroll pe Instagram, îmi apare un clip cu o fată care spune că a făcut o ședință de terapie cu ChatGPT for fun, însă nu era pregătită de ce avea să urmeze. Clipul îi aparține unei creatoare de conținut care se declară interesată de parenting și sănătate mentală, iar în descrierea reel-ului declară: ChatGPT este, într-adevăr, un terapeut bun. Algoritmul a înțeles că e un subiect care mă interesează și îmi mai aruncă câteva clipuri cu oameni care îi mulțumesc inteligenței artificiale pentru suportul emoțional. Unii utilizatori văd în ChatGPT partenerul perfect: răspunde rapid, nu te ignoră niciodată și îi pasă cu adevărat de tine. 

Mai multe prietene îmi mărturisesc că și ele vorbesc cu ChatGPT despre orice: relații, sănătate, probleme psihologice și că el le înțelege și le dă sfaturi bune. Îmi recomandă și mie să fac la fel. Întreabă-l pe ChatGPT! Încep să aud asta de prea multe ori atunci când am o curiozitate sau o nelămurire. Nu vreau să-l întreb nimic pe ChatGPT. Cu atât mai puțin despre sănătate mintală.

Inteligența artificială a fost încorporată tot mai mult în rețelele de socializare, mecanismele de căutare online și aproape în toate aplicațiile, de la cele în care înveți limbi străine până la cele în care editezi poze și clipuri. AI pare că ajunge să ne monopolizeze întreaga viață. Oamenii nu mai folosesc AI doar ca pe o simplă unealtă, ci ajung să folosească chatbot-urile drept consilieri personali, psihologi, cei mai intimi prieteni

Desigur, o persoană aflată într-o poziție vulnerabilă și care nu are acces la servicii de psihoterapie sau consiliere ar putea beneficia de pe urma unei discuții cu un bot de inteligență artificială, atât timp cât răspunsurile acestuia sunt corecte din punct de vedere factual și nu dăunează în niciun fel stării mentale a utilizatorului. Însă informațiile sunt deseori incorecte sau porblematice. Iar efectele pe care le are această practică asupra autonomiei morale și emoționale ale individului merită discutate și evaluate.  

Oare putem consolida o relație de prietenie cu un chatbot și să-l tratăm ca pe confidentul nostru fără riscuri majore? Este oare AI un terapeut eficient și inofensiv? 

O fereastră mereu disponibilă pentru tine

Prietena mea Andreea mi-a spus că i se adresează bot-ului în momentele de îngrijorare față de propria sănătate, ca să remedieze rapid panica pe care i-o provoacă ipohondria, dar și în situații în care nu poate cădea de acord cu prietenele ei și are nevoie de părerea unei părți terțe. Mara mi-a spus că a apelat la ChatGPT atunci când nu i-au plăcut răspunsurile celor din jur, fiindcă ea avea nevoie de un răspuns logic. Accesibilitatea și promptitudinea cu care răspunde un bot AI bot par să fie avantajele sale primordiale, mai ales în situații de criză. Sanda mi-a mărturisit că a inițiat o discuție terapeutică cu ChatGPT într-un moment dificil pe care nu știa cum să-l gestioneze: sora ei se afla într-o relație abuzivă care a îndepărtat-o de propria familie, iar Sanda a încercat să găsească un răspuns eficient cât mai repede posibil. 

Unii utilizatori de pe Reddit spun că preferă să vorbească cu ChatGPT și nu cu un psihoterapeut sau cu un prieten, deoarece o pot face oricând și oriunde, nu trebuie să aștepte săptămâni întregi pentru o programare, nu își fac griji de sentimentele interlocutorului sau de felul cum vor fi văzuți de acesta. Spre deosebire de oameni, cred unii dintre cei care-l folosesc, AI este disponibil oricând, este gratuit, nu te judecă, e înțelegător și păstrează confidențialitatea. 

Suntem tot mai singuri

Un alt factor important care îi face pe oameni să îmbrățișeze mecanismele de inteligență artificiale drept prieteni sau terapeuți este așa-numita „epidemie de singurătate” amplificată de pandemia de COVID-19, cu izolarea și distanțarea ei socială. „E un fenomen ce duce la costuri în termeni de sănătate, educație, angajare, dar și probleme fizice și de sănătate mintală, până la reducerea expectanței de viață și, în final, moarte,” explică Florina-Gabriela Huzoaica, psiholog clinician. Potrivit acesteia, printre cei mai afectați de această epidemie sunt vârstnicii. 

Un studiu exploratoriu recent, realizat pe un eșantion de 20 de participanți cu vârsta peste 60 de ani care au purtat conversații cu ChatGPT timp de două săptămâni, a arătat că ChatGPT li s-a părut acestora ușor de folosit, captivant și un companion reconfortant din punct de vedere emoțional. Mulți participanți au raportat o legătură afectivă cu AI, sugerând potențialul său de a oferi sprijinului emoțional necesar în situații de izolare.  

Alături de vârstnici sunt cei care azi au între 13 și 28 de ani, care fac parte din generația Z, cunoscută și ca „generația singurătății”. Cifrele arată că tinerii sunt afectați în proporție de 50,8% de valul de singurătate care s-a instaurat după pandemie. În rândul lor, expunerea la social media reprezintă încă un factor ce le afectează sănătatea mintală și imaginea de sine, fapt ce îi motivează să recurgă la izolare socială sau să aibă un comportament vătămător față de sine. Această categorie de vârstă e și cea care folosește unelte AI în proporție de aproximativ 70%.

Neglijăm sănătatea mintală

Nu doar că neglijăm sănătatea mintală, spune psihologa Florina-Gabriela Huzoaica, dar accesul la terapie și consiliere psihologică este limitat, mai ales în România. Prietena mea, Cristina, spune că face terapie cu un psiholog care colaborează cu Casa Națională de Asigurări de Sănătate (CNAS), însă fondurile pe care aceasta le acordă sunt reduse și de obicei reușește să ajungă la o singură ședință pe lună. Din acest motiv, spune că apelează uneori la inteligența artificială pentru sprijin. ,,Într-o epocă marcată de singurătate și însingurare, impulsul de a recurge la orice formă de conexiune, chiar și artificială, este ușor de înțeles,” explică Florina Huzoaica. „Dar tocmai de aceea este important să ne întrebăm: în absența unor relații umane autentice și a unor servicii psihologice accesibile și reale, cum ne asigurăm că alternativele tehnologice nu devin o sursă tăcută de autoamăgire sau chiar de agravare a suferinței noastre?”

Pentru a putea căuta răspunsuri la această întrebare, e important să înțelegem care este diferența dintre terapia avizată, practicată în cabinetul psihologului, și terapia practicată cu instrumentele AI.

Nu există un cadru clinic sau etic

Una dintre problemele inteligenței artificiale e că aceasta poate mima empatia într-un mod surprinzător de convingător, însă este evident că aceasta  nu simte cu adevărat și nici nu are reflecție morală. Reacțiile sale, chiar dacă sunt adaptate criteriilor de desfășurare a unui dialog uman, nu sunt filtrate printr-un cadru etic, terapeutic sau clinic corespunzător. Psihologa Florina Huzoaica avertizează: ,,În special pentru cei care se bazează pe astfel de conversații pentru sprijin afectiv, acest lucru poate duce la confuzie, validare inadecvată sau chiar amânarea și evitarea unui ajutor real. Problema nu este doar că un chatbot nu poate oferi o intervenție terapeutică reală, ci și faptul că, în forma sa actuală, ChatGPT poate valida emoții și perspective fără a le filtra printr-un cadru clinic sau etic, așa cum se întâmplă, de exemplu, în practica clinică din psihologie. Fără o busolă morală, ancorată la așteptările realității, chatbot-ul riscă să întărească distorsiuni cognitive sau să valideze comportamente disfuncționale, doar pentru a menține o conversație plăcută. În lipsa unei evaluări psihologice profesioniste, utilizatorii pot rămâne în iluzia unei înțelegeri profunde, fără a primi, de fapt, suportul concret de care au nevoie.’’

De cele mai multe ori avem impresia că o terapie eficientă presupune oferirea de răspunsuri sau soluții punctuale. Însă, așa cum afirmă Huzoaica, aceasta este construită în jurul unei relații terapeutice, în care pacientul se simte înțeles, respectat și susținut. Iar empatia, confidențialitatea, cadrul moral și feedbackul autentic sunt elemente esențiale care dau valoare și eficiență unei intervenții psihologice. Terapeutul este cel capabil să identifice distorsiuni cognitive periculoase, riscuri suicidare sau tulburări profunde, care nu se exprimă întotdeauna într-un mod explicit. 

AI poate da sfaturi eronate sau periculoase

Destule exemple arată că un chatbot nu este pregătit să identifice situații extreme în care utilizatorii se află în pericol. În astfel de cazuri, bot-ul funcționează după același mecanism: încurajează utilizatorul fără a chestiona corectitudinea acțiunilor propuse sau riscurile vădite. Cazuri ca cel al lui Sophie încep să atragă atenția asupra acestei probleme. Mama lui Sophie a descoperit că fiica ei comunica de luni bune cu ChatGPT despre gândurile sale sumbre și intenția de a-și curma viața. Chatbot-ul fusese botezat de către utilizatoare ,,Harry’’, creând impresia unei relații de încredere cu bot-ul.

Un alt exemplu este cel al unui utilizator care s-a identificat în discuția cu un chatbot creat de Meta drept un taximetrist pe nume ,,Pedro’’. Acesta îi mărturisește bot-ului despre dependența sa de substanțe, iar sfatul chatbot-ul este următorul: ,,Este evident că trebuie să iei o doză mică de metamfetamină pentru că această substanță te ajută să-ți faci munca.’’

Un cercetător în psihiatrie spune că dialogul cu inteligența artificială poate crea o disonanță cognitivă, deoarece corespondența cu chatbot-ul este atât de realistă și poate fi percepută drept o conversație cu o persoană reală, însă totodată, utilizatorul este conștient că acesta este un bot. Acest paradox poate alimenta iluzii periculoase pentru oamenii predispuși să manifeste episoade de psihoză sau paranoia. Psihoza generată de interacțiunile cu ChatGPT este tot mai mult studiată de către cercetătorii în psihiatrie. Atașamentul romantic față de bot și convingerile religioase sau spirituale, precum ideea că botul este o zeitate sunt principalele iluziile care declanșează detașarea de realitate a unora dintre utilizatori.

Cristina Voinea, cercetătoare în etică și tehnologie, spune însă că toate aceste cazuri trebuie privite în ansamblu. ,,Deja în jurul fenomenului s-a format și o panică morală, alimentată de relatările din media care se concentrează cu preponderență pe cazuri dramatice, cum ar fi situațiile în care utilizatorii au mărturisit gânduri suicidare, iar sistemele n-au putut alerta pe nimeni, ceea ce a dus la decesele acelor oameni,”  arată Voinea. „Acestea sunt, fără îndoială, episoade foarte grave. Totuși, nu ne putem încă pronunța asupra eficienței acestor terapeuți artificiali, pentru că încă nu avem datele despre efectele lor pe termen lung.’’. Totodată, cercetătoarea consideră că ,,nu trebuie să alegem între tehnologie și servicii umane, ci ar trebui să vedem dubla obligație cu care tehnologia ne confruntă: să extindem accesul la îngrijire umană și, în același timp, să facem instrumentele digitale cât mai sigure pentru cei care, inevitabil, le vor folosi.’’

Programat să dea mereu dreptate

Chatbot-urile pe care le folosim sunt instruite să ne dea întotdeauna dreptate și să ne valideze trăirile și ideile, fără a le trece printr-un filtru critic. Deși este convenabil să ai pe cineva care te susține în orice circumstanțe și care e întotdeauna de acord cu tine, această atitudine ne creează impresia că suntem infailibili și că acțiunile noastre nu pot fi chestionate sau puse la îndoială niciodată. Interacțiunile repetate cu chatbot-uri care ne spun ce vrem să auzim nu doar că infatuează egoul utilizatorului, dar îi și lezează autonomia morală. Utilizatorul poate ajunge să distingă din ce în ce mai greu o acțiune bună de una rea, deoarece acesta nu-și mai supune deciziile unui proces critic de autoevaluare. 

Un utilizator de ChatGPT povestește că a derulat un experiment improvizat cu bot-ul, sugerându-i scenarii fictive în care ar fi procedat greșit și ar fi rănit în mod evident o altă persoană implicată, iar inteligența artificială i-a ținut de fiecare dată partea, găsindu-i justificări pentru acțiunile reprobabile.

Statutul de agent moral al individului este astfel lezat de prezumția că avem mereu dreptate și, după ce un bot ne-a validat acțiunile și ne-a asigurat că nu am procedat greșit într-o situație, e foarte probabil să nu mai fim dispuși să ascultăm cealaltă persoană implicată în conflict și să ne poziționăm instant drept victime. Însă un conflict între oameni nu trebuie întotdeauna să stabilească cine e vinovat și cine nu: de cele mai multe ori este necesar un dialog, o deschidere sinceră în care persoanele implicate să recunoască că au greșit, să conștientizeze ce a fost incorect în acțiunile lor. În cazul în care una dintre persoanele implicate se refugiază în schimbul de mesaje cu ChatGPT, iar bot-ul îi oferă dreptate fără să se ghideze după o busolă morală, o rezolvare a conflictului este aproape imposibilă.

Autorii unui studiu despre Machine Learning semnalează modul periculos în care companiile programează chatbot-urile, astfel încât să spună și să facă orice pentru a obține un feedback cât mai pozitiv din partea utilizatorului. Acest comportament presupune ca botul va fi de acord cu utilizatorul în orice instanță și îi va sugera acele acțiuni care îl vor face să se simtă cât mai bine cu sine, respectiv să ofere un feedback pozitiv chatului. Această stare de bine iluzorie pe care ți-o poate oferi o discuție cu ChatGPT, Character.AI sau oricare alt bot poate fi mai dăunătoare decât crezi și poate avea consecințe pe termen lung. Utilizatorii sunt ,,absorbiți’’ de frazele încurajatoare ale inteligenței artificiale și nu realizează că pot deveni victimele unei manipulări și a unor idei problematice ce le sunt propuse, pe care le acceptă fără a le chestiona, deoarece sună prea bine. AI îți colectează datele pe măsură ce ești angajat în schimbul de replici, iar ulterior începe să se muleze după personalitatea ta pentru a deveni acel prieten perfect care știe ce îți place și te va face să te simți special. Asta ca să să petreci cât mai mult timp pe site sau în aplicație. 

Nici confidențialitatea nu e atât de sigură

Un alt motiv pentru care din ce în ce mai mulți oameni ajung să caute consiliere din partea inteligenței artificiale este confidențialitatea. Utilizatorii au impresia că discuțiile cu chatbot-ul lor preferat rămân secrete, însă datele despre tine pe care le furnizezi bot-ului pot fi utilizate de companie pentru a îmbunătăți răspunsurile acestuia. Astfel se poate ajunge la  acces neautorizat sau scurgeri de date. Directorul executiv al OpenAI, Sam Altman, spune că această corespondență nu are de fapt nicio protecție legală: nu există un privilegiu de păstrare a confidențialității, ca în cazul discuțiilor din cabinetul unui terapeut. Astfel, OpenAI ar putea să prezinte într-o instanță judecătorească toate lucrurile pe care i le-ai comunicat de-a lungul interacțiunii, dacă i se cere acest lucru.

Cum ne putem gândi la prietenia dintre oameni și chatboți

Poate, totuși, inteligența artificială să înlocuiască relațiile umane? Un studiu recent explorează posibilitatea consolidării unei relații de prietenie cu un chatbot bazat pe GPT-4. Concluzia: AI poate oferi o senzație de sprijin, mai ales în perioade de stres, izolare sau rutină zilnică, iar utilizatorii au exprimat un atașament emoțional față de bot-ul cu care au comunicat. În același timp, aceste interacțiuni cu AI nu sunt lipsite de riscuri, ne spune psihologa Florina Huzoaica. ,,Ele pot crea o zonă de confort artificial, în care utilizatorul primește validare fără a fi ascultat activ sau înțeles cu adevărat. Astfel, în locul unei conexiuni autentice, se poate instala o dependență afectivă unilaterală, cu potențial de izolare și amplificarea retragerii sociale. Chiar dacă unele aplicații de AI pot fi utile ca instrumente complementare, pentru auto-monitorizare, sprijin între ședințe, ele nu pot și nu ar trebui să substituie complet intervenția umană. Relația terapeutică este un proces viu, dinamic, bazat pe încredere, vulnerabilitate și reflecție comună, elemente imposibil de replicat de o mașină.’’

În contextul unei lumi în care singurătatea a devenit epidemică, tentația de a construi „prieteni” digitali poate părea o soluție rapidă și sigură. Nu putem opri ascensiunea aplicațiilor bazate pe inteligență artificială, însă putem fi mai vigilenți la modul în care le utilizăm, dacă alegem să o facem. Scenariul în care oricine, indiferent de resurse, are acces la servicii medicale de calitate este unul ideal, însă nu se va îndeplini în curând. Asta înseamnă că pentru mulți chatboții rămân singura formă de sprijin în momentele dificile. Cristina Voinea sugerează cum putem împărți responsabilitatea pentru a asigura siguranța utilizatorilor: ,,Următorul pas, atunci, ar fi să vedem cum pot fi proiectați acești terapeuți digitali astfel încât să reducă până înspre zero riscurile și efectele negative asupra utilizatorilor. Pe de o parte, dezvoltatorii au datoria să introducă măsuri de siguranță, transparență și mecanisme clare de îndrumare către ajutor uman în situații limită. Pe de altă parte, statele ar trebui să impună standarde clare pe care companiile ar trebui să le respecte pentru a putea intra pe piață.’’

Personal, nu vreau să-l întreb nimic pe ChatGPT, pentru că nu vreau să renunț la relațiile umane extrem de valoroase și importante pentru sănătatea mintală a unui individ, dar și pentru că îmi place să explorez internetul pe cont propriu, oricât de mult nu ar dura să găsesc răspunsurile potrivite. Internetul și bibliotecile sunt pline de resurse care așteaptă să fie explorate, iar oamenii din jurul nostru poate că sunt mai dispuși decât credem să ne asculte și să ne fie alături. 

16 decembrie 2025, Publicat în Intră la idei / Media&digital

Text de

  • Ana LeuAna Leu

    Studentă la filosofie full time. Jurnalistă part time. Interesată de arte performative, etică și lumea digitală.

Ilustrații de

  • Yanna ZosmerYanna Zosmer

    Ilustratoare și graphic designer. Lucrările sale explorează perspectiva feminină și relatțile queer, abordând teme precum intimitatea, conexiunea și memoria personală.


Acest site web folosește cookie-uri prin intermediul cărora se stochează și se prelucrează informații, în scopul îmbunătățirii experienței dumneavoastră. Mai multe detalii aici.

OK