Când simt o durere ciudată, un simptom nou sau încearcă să lămurească un termen medical greu de descifrat, din ce în ce mai mulți oameni deschid o conversație cu ChatGPT. Întrebările adresate inteligenței artificiale par să înlocuiască astfel căutările pe Google, care la rândul lor înlocuiseră — în multe cazuri — vizitele la medic. Care sunt urmările acestui nou obicei?
„De ce mă doare în piept?”.
„Ce sunt aceste puncte de pe piele?”.
„Ce tratament funcționează pentru o durere de burtă?”.
Potrivit OpenAI, peste 230 de milioane de oameni folosesc ChatGPT săptămânal pentru întrebări legate de sănătate și wellness: de la interpretarea unor analize, la simptome vagi, tratamente, efecte adverse ale unor medicamente sau diagnostice primite deja. Întrebările despre sănătate au devenit una dintre cele mai frecvente utilizări ale inteligenței artificiale. ChatGPT a devenit, pentru mulți, un fel de prim punct de contact cu informația medicală și poate chiar și „o cameră de triere” înainte de a decide cât de grave sunt anumite simptome.
Răspunsul OpenAI la această cerere masivă de informații medicale este ChatGPT Health, o versiune a chatbot-ului construită explicit pentru întrebări legate de sănătate. Față de varianta generală, ChatGPT Health protejează mai bine datele private și a fost dezvoltat în colaborare cu peste 260 de medici care profesează în 60 de țări și acoperă zeci de specializări medicale. Potrivit OpenAI, aceștia au analizat și evaluat de sute de mii de ori răspunsurile generate de model.
Deocamdată, ChatGPT Health nu e disponibil și în UE, însă este o chestiune de timp până va putea fi folosit și aici.
OpenAI nu este singura companie care pariază pe inteligența artificială ca interfață pentru informații medicale. Rivalii săi direcți merg în aceeași direcție, cu produse și modele dedicate explicit sănătății. Anthropic, compania din spatele chatbot-ului Claude, a lansat recent Claude for Healthcare, un set de instrumente AI concepute special pentru folosirea în contexte medicale și compatibile cu standarde stricte de confidențialitate. Spre deosebire de ChatGPT Health, aici accentul cade mai puțin pe utilizatorul obișnuit și mai mult pe integrarea AI-ului în fluxurile de lucru din sistemele de sănătate.
Nici Google nu stă pe margine. Prin chatbot-ul Gemini și prin modelele sale specializate Med-Gemini, compania investește masiv în AI medical capabil să analizeze nu doar text, dar și imagini medicale precum radiografii sau CT-uri. Google poziționează aceste tehnologii mai degrabă ca instrumente pentru profesioniști decât ca substitut pentru consultația medicală, dar direcția este aceeași: inteligența artificială devine o infrastructură de bază pentru informare, triere și suport decizional în sănătate.
Iar faptul că unele dintre cele mai mari companii de tehnologie din lume investesc masiv în produse axate pe sănătate e un semnal clar că acest comportament e unul deja normalizat.
„E bine sau nu să întrebi ChatGPT despre sănătate?”
Întrebarea este legitimă, dar discuția este mai complicată de-atât. E clar că oamenii o fac deja și o fac în număr foarte mare. În același timp, bineînțeles că un chatbot nu poate niciodată să înlocuiască un medic și că ar trebui folosit doar ca o unealtă extra. Miza este alta: în ce condiții poate fi acest obicei util și unde începe să devină riscant?
Pentru a afla mai multe, ne-am uitat la ce spun studiile până acum și am stat de vorbă cu doi experți din comunitatea medicală: Andrei Neagu, medic radiolog la Spitalul Militar „Carol Davila” din București și Denis Pavăl, medic psihiatru la Spitalul Clinic Județean de Urgență Cluj-Napoca.
Ce face bine ChatGPT
Unul dintre punctele forte ale AI-lui când vine vorba de sănătate este, poate în mod neașteptat, diagnosticarea. Aceasta se bazează, în mare măsură, pe identificarea tiparelor, un principiu pe care modelele AI funcționează foarte bine. Ele sunt antrenate să recunoască tipare.
Practic, AI-ul analizează simptomele și datele pacientului, le compară cu cazuri și condiții medicale cunoscute și generează un posibil diagnostic. Tiparele pe care se bazează aceste recomandări au fost validate de-a lungul timpului de medici: anumite semnale corespund unor boli specifice, iar anumite imagini medicale indică afecțiuni precise. Modelele AI au fost antrenate pe milioane de cazuri documentate, ceea ce le permite de multe ori să atingă performanțe remarcabile.
Un studiu din 2024 arată că, GPT-4, modelul de top al Open AI de la acea vreme, a reușit să diagnosticheze cu o acuratețe de peste 90% cazuri clinice complexe. Ca o comparație, medicii care foloseau resursele convenționale au atins o acuratețe de 74%. Un alt studiu din 2025 a arătat că AI-ul poate depăși performanțele oamenilor și când vine vorba de identificarea unor afecțiuni rare din imagini, inclusiv cancere agresive de piele, defecte congenitale sau hemoragii interne.
„ChatGPT poate fi un instrument de informare sau de orientare, dar nu un substitut pentru expertiza medicală. Pentru mine, ca medic, e mai ușor să filtrez informația. Pentru un om fără pregătire medicală, riscul este mai mare.” — Andrei Neagu, medic radiolog
Chiar dacă studiile arată că modelele AI pot fi foarte precise în diagnosticarea unor cazuri complexe sau rare, asta nu înseamnă că ele pot înlocui un medic. Trebuie să reținem că vorbim de o tehnologie nouă și suntem încă în faza de început, în care abia începem să înțelegem complet ce ni se întâmplă și o doză de pragmatism e utilă. Și studiile au limitări, iar în general e nevoie de zeci de ani ca să înțelegi impactul real al unei tehnologii noi.
Dincolo de asta, un diagnostic corect depinde adesea nu doar de simptome și date vizuale, ci și de contextul complet al pacientului, istoricul său medical, alte afecțiuni, stil de viață sau reacții la tratamente. AI-ul nu are mereu acces la toate aceste informații și nu poate evalua mereu subtilitățile fiecărui caz.
Însă dacă vrei să folosești ChatGPT, ar fi bine atunci când îi spui ce simptome ai să îi oferi cât mai multe informații de context posibile: de cât timp persistă simptomele, cât de intense sunt, ce alte probleme medicale ai, ce medicamente iei sau ce alte teste ai făcut deja, de exemplu.
Totuși, chiar și cu toate aceste detalii, recomandarea finală trebuie să vină de la un specialist. „Cred că ChatGPT poate fi util în aproape toate cazurile, dar cu limite clare. Eu, ca medic, l-am folosit atunci când aveam situații din afara specialității mele. Nu le știi pe toate, chiar dacă ești medic. Mi s-a părut util ca punct de plecare și, în experiența mea, m-a dus spre zone rezonabile”, spune medicul radiolog Andrei Neagu. „Însă nu cred că e ok să te bazezi doar pe ChatGPT”, precizează el. „Poate fi un instrument de informare sau de orientare, dar nu un substitut pentru expertiza medicală. Pentru mine, ca medic, e mai ușor să filtrez informația. Pentru un om fără pregătire medicală, riscul este mai mare”.
Unul dintre cele mai evidente puncte forte ale ChatGPT este interpretarea informațiilor medicale deja existente. De exemplu, poate ajuta foarte mult când vine vorba de analize de sânge, rezultatele de la diverse teste sau rapoarte de investigații imagistice precum CT, RMN sau radiografii. „Mi se pare foarte util pentru a explica pe înțelesul pacientului un raport medical, mai ales unul de imagistică. Rapoartele de radiologie sunt scrise pentru alți medici, nu pentru pacienți. AI-ul poate traduce acel limbaj tehnic într-unul accesibil tuturor”, explică Andrei Neagu.
AI-ul poate deveni, astfel, un fel de asistent personal care te ajută să înțelegi mai bine ce spun medicii și să te pregătești pentru consultația viitoare. Acest ajutor nu poate înlocui totuși evaluarea unui specialist, care va analiza întotdeauna analizele în contextul complet al pacientului și va decide pașii următori în tratament.
Pe lângă interpretarea rapoartelor, ChatGPT poate fi util și pentru organizarea și sintetizarea informațiilor medicale. De exemplu, dacă ai mai multe analize sau rezultate de teste făcute de-a lungul timpului, AI-ul poate evidenția valorile care ies din parametri, poate observa tendințe sau schimbări între investigații și poate transforma toate aceste informații într-un rezumat clar.
„Încă nu avem analize sau teste obiective care să ne ajute în procesul diagnostic, tot ce avem sunt observația clinică și ceea ce ne relatează pacientul sau cei apropiați pacientului. Uneori, este dificil chiar și pentru un psihiatru cu experiență de stabilit un diagnostic precis, cu atât mai mult pentru un chatbot”. — Denis Pavăl, medic psihiatru
În plus, te poate ajuta la pregătirea pentru consultații și poate sugera întrebări pe care să le pui medicului sau să sublinieze anumite informații dintr-un rezultat unde ar fi nevoie de mai multe informații de la medic.
AI-ul oferă și avantajul unei disponibilități constante: „Nu e niciodată obosit, nu are o zi proastă, nu e influențat de factori externi”, adaugă medicul radiolog. ChatGPT poate fi un instrument util când vine vorba de informare și orientare în domeniul sănătății: „Mi se pare o idee bună că lumea îl folosește și la fel de bună ideea că este criticat. Trebuie criticat constant, ca să devină mai bun”, spune Andrei Neagu.
Care sunt limitările ChatGPT
Chiar dacă ChatGPT poate fi foarte util pentru interpretarea informațiilor medicale sau pentru identificarea unor tipare, există limite clare când vine vorba de sfaturi pentru sănătate. Studiile arată că AI-ul poate oferi, în anumite contexte, diagnostice și recomandări medicale corecte, însă realitatea arată că eficiența sa depinde foarte mult de felul în care oamenii folosesc aceste instrumente.
Un studiu cu peste 1.200 de participanți a arătat că AI-ul a oferit diagnosticul corect aproape 95% din timp când a funcționat singur, însă acuratețea a scăzut la doar o treime când oamenii au folosit aceleași instrumente pentru a-și ghida propriul raționament. Într-un prim scenariu, AI-ul primea toate informațiile relevante despre un pacient fictiv (vârstă, sex, simptome, stil de viață etc) și, singur, indica atât diagnosticul, cât și recomandarea de acțiune, iar în 95% din cazuri răpsunsurile sale au fost corecte. Într-un al doilea scenariu, participanții primeau aceste informații despre pacientul fictiv și erau lăsați apoi să vorbească cu un AI pentru a ajunge la concluzii privind diagnosticul și măsuri de luat. Aici, doar o treime din răspunsuri au fost corecte.
Cercetătorii au constatat că scăderea performanței nu era din cauza AI-ului, ci a modului în care oamenii interacționează cu acesta: omit informații, interpretează greșit sugestiile sau nu le integrează corect în decizie. De exemplu, un pacient cu dureri de cap puternice și rigiditate a gâtului apărute brusc necesită asistență medicală imediată pentru meningită sau hemoragie cerebrală. Unii utilizatori au ajuns la răspunsul corect folosind AI-ul, alții au primit recomandări greșite, precum să ia analgezice și să se culce într-o cameră întunecată, pentru că nu au menționat debutul brusc al simptomelor.
E important de reținut și modul în care AI-ul comunică răspunsurile, indiferent dacă informația e corectă sau nu: cu multă încredere, fluent și convingător, ceea ce poate induce impresia de autoritate. „Spre deosebire de o căutare pe net, care îți oferă o listă de site-uri și link-uri de verificat, chatbot-urile scriu un text fluent. Pare mai credibil, e bine construit și se simte mai real”, explică medicul și profesorul Alan Foster pentru publicația americană Wired.
O altă problemă importantă e legată de protecția datelor personale. Chatbot-urile nu sunt neapărat conforme cu reglementările stricte din domeniul medical și cu siguranță că nu vei beneficia de aceeași confidențialitate ca atunci când mergi la un medic. Informațiile sensibile pe care le oferi despre starea ta de sănătate pot fi stocate sau folosite pentru antrenarea modelelor fără un control clar.
O altă limitare e tendința AI-ului de a valida sau confirma ceea ce crezi sau întrebi, mai degrabă decât să ofere un răspuns critic. „ChatGPT este, într-un fel, un „ecou al minții tale”. Dacă ești anxios și speriat, s-ar putea să îți confirme temerile. Dacă îl întrebi într-un anumit fel, îți va răspunde într-un fel care pare să îți valideze îngrijorarea. De exemplu, dacă îl întrebi „nu e așa că ar trebui să fac un RMN?”, s-ar putea să îți spună „da”. Dar dacă îl întrebi altfel, s-ar putea să primești un răspuns diferit. De asta e nevoie de un medic care să pună întrebările corecte și să judece situația”, explică medicul radiolog Andrei Neagu.
Aceste riscuri sunt cu atât mai mari la persoanele ipohondre (termenul medical este de „tulburare de anxietate pentru boală”).
„În general, descurajăm pacienții cu această tulburare să apeleze la consultații medicale excesive și investigații inutile, odată ce stabilim că nu există un motiv de îngrijorare real”, spune medicul psihiatru Denis Pavăl. „Însă, invariabil, pacienții vizitează și alți medici, din nevoia de a primi reasigurări. Iar cu fiecare nouă vizită, în ipotezele diagnostice se regăsesc și afecțiuni improbabile, dar grave, luate în calcul din nevoia de a nu rata o problemă potențial serioasă”.
În acest proces, AI poate să alimenteze spirala anxioasă, explică Pavăl: dacă-i ceri unui chatbot ipoteze diagnostice, acesta va menționa afecțiuni grave, lucru care va înrăutăți anxietatea, iar pacientul va căuta și mai multe reasigurări, ceea ce va întreține un cerc vicios.
Mai mult, AI-ul nu poate gestiona întotdeauna complexitatea tratamentului sau a managementului bolilor. Alegerea unui tratament eficient nu depinde doar de diagnostic, ci și de factori precum toleranța pacientului, accesul la medicamente, programul zilnic, resursele financiare sau capacitatea de a urma schema prescrisă. Toate astea sunt lucruri pe care le poți, în schimb, discuta cu medicul tău.
Însă poate că cele mai importante limitări ale ChatGPT apar când vine vorba de afecțiunile psihiatrice. Medicul psihiatru Denis Pavăl spune că munca sa înseamnă nuanțe, context, relaționarea cu pacientul, intuiție, aspecte pe care un chatbot nu le poate surprinde. Mai mult, diagnosticul psihiatric în sine nu este ușor de stabilit, explică el: „Încă nu avem analize sau teste obiective care să ne ajute în procesul diagnostic, tot ce avem sunt observația clinică și ceea ce ne relatează pacientul sau cei apropiați pacientului. Uneori, este dificil chiar și pentru un psihiatru cu experiență de stabilit un diagnostic precis, cu atât mai mult pentru un chatbot”.
Acestea fiind spuse, riscul de auto-diagnosticare greșită este unul real, „ceea ce poate crea îngrijorări inutile, auto-tratare greșită, sau întârzierea stabilirii diagnosticului real și inițierea unui tratament adecvat”, explică Denis Pavăl.
Examinarea clinică, relația terapeutică și responsabilitatea reprezintă părți esențiale ale oricărui act medical autentic, pe care un chatbot nu le poate oferi, mai spune psihiatrul. „AI-ul poate informa, dar nu poate lua decizii clinice reale, iar confundarea acestor roluri constituie pericolul major”.
Ilustrație realizată prin intermediul Canva.com.





