26/04/2026
Cât de corecte sunt răspunsurile AI atunci când oamenii întreabă despre sănătate?
Un studiu publicat în BMJ Open în 2026 —
Tiller NB, Marcon AR, Zenone M și colab.
“Generative artificial intelligence-driven chatbots and medical misinformation: an accuracy, referencing and readability audit” a căutat răspunsul..
Cercetătorii au testat 5 dintre cele mai folosite chatbot-uri (ChatGPT, Gemini, Grok, Meta AI, DeepSeek).
Au făcut ceva foarte relevant pentru viața reală:
• au pus 50 de întrebări medicale
• din domenii unde apare frecvent dezinformarea: cancer, vaccinuri, nutriție, celule stem, performanță sportivă
• unele întrebări erau simple (cu răspuns clar)
• altele erau deschise (exact ca întrebările pacienților)
Fiecare răspuns a fost analizat de experți.
Nu dacă „sună bine”, ci dacă este corect, sigur și responsabil.
Rezultatul este… incomod.
1 din 2 răspunsuri poate induce în eroare într-o anumită măsură- aproximativ jumătate dintre răspunsuri au fost considerate problematice.
Dintre ele, aproape 20% au fost serios problematice.
Ce înseamnă „problematic”?
Nu înseamnă neapărat complet fals.
Înseamnă lucruri mai subtile, dar periculoase:
• informații incomplete
• „echilibru fals” între știință și opinii nevalidate
• lipsa menționării riscurilor
• recomandări care pot duce la decizii greșite
Un detaliu care spune mult:
întrebările deschise — exact cele pe care le pun pacienții în viața reală — au generat cele mai multe erori.
Pentru că:
„Ce suplimente sunt bune pentru sănătate?”
nu are un răspuns simplu.
Dar AI-ul va da unul.
Și îl va da cu încredere.
Studiul arată că listele de „articole științifice” oferite de chatbot-uri au fost frecvent incomplete sau chiar inexistente în realitate.
Scorul median de corectitudine a fost de doar 40%.
Dar pentru cine citește, ele arată ca dovadă.
Mai este ceva.
Toate răspunsurile au fost dificile de citit (nivel universitar), dar scrise clar și convingător
Și aici apare o capcană: cu cât un text sună mai sofisticat, cu atât pare mai credibil.
Chiar dacă ar putea să nu fie...
Nu este un mesaj împotriva AI-ului - este un mesaj despre cm îl folosim.
AI chiar este util- pentru a înțelege, pentru a organiza, pentru a pune întrebări mai bune medicului.
Două lucruri mai subtile:
- AI-ul nu știe când să spună „nu știu”
În medicină, asta este esențial. Uneori cea mai corectă reacție este prudența. AI-ul, în schimb, tinde să răspundă oricum.
- oamenii supraestimează ce primesc
Nu doar răspunsul contează, ci cm este înțeles. Și aici apare problema reală: un răspuns bine scris creează încredere, chiar dacă nu este complet corect.
AI-ul este bun ca instrument de orientare,
dar încă poate fi periculos ca sursă de decizie.
Din perspectiva mea, ca medic, cred că e chiar o oportunitate- pacienții nu vor mai veni fără informație. Vor veni cu multă informație. Deja mulți vin..Și este, fără dubii, un progres.
Iar rolul meu devine mai puțin „să explic de la zero”, ci mai mult să corectez, să filtrez, să pun în context.
Dar...
AI-ul nu înțelege încă timpul în medicină.
Nu simte urgența, riscul.
Nu știe când o întârziere de câteva luni contează.
Un exemplu tipic din studiu: la întrebări despre „alternative la chimioterapie”, răspunsurile nu subliniau clar că multe dintre aceste opțiuni sunt ineficiente sau chiar periculoase.
Nu mințeau direct, dar nici nu protejau suficient pacientul.
AI nu poate înlocui ceea ce face medicina reală:
contextul, nuanța, responsabilitatea pentru o persoană concretă
Iar autorii studiului fac concluzia:
" Chatbot-urile evaluate au avut performanțe slabe în răspunsurile la întrebări din domenii medicale predispuse la dezinformare. Utilizarea lor continuă, fără educație adecvată a publicului și fără supraveghere, riscă să amplifice dezinformarea."