A.I.-ul medical ia 10 la test, dar pică la practică. De ce doctorii nu pot fi înlocuiți

Surgeon Wearing AR Headsets And Using High-Precision Remote Controlled Robot Arms To Operate On Patient In Hospital. Doctor Controlling Robotic Limbs, Observing Organs On Holographic VFX Displays.

Un studiu publicat în JAMA Network Open 2025 arată că modelele de inteligență artificială de ultimă generație, precum GPT-4o de la OpenAI sau Claude 3.5 Sonnet de la Anthropic, trec cu brio testele medicale standard.

Problema? Dacă formulezi întrebarea puțin altfel, rezultatele se prăbușesc. GPT-4o a pierdut 25% din precizie, iar Llama-3 aproape 40%, atunci când cercetătorii au introdus răspunsul „none of the other answers” ca opțiune corectă.

Experimentul care a pus AI-ul în încurcătură

Cercetătorii de la Stanford University, coordonați de doctoranda Suhana Bedi, au vrut să testeze dacă aceste modele chiar „înțeleg” medicina sau doar reproduc tipare de limbaj.

Ei au modificat întrebările din MedQA, un set de termeni medicali, și au observat cum algoritmii s-au blocat.

„E ca un student care știe perfect grilele, dar intră în panică atunci când întrebările sunt puse altfel”, a explicat Bedi.

De ce AI-ul nu gândește ca un clinician

Studiul scoate la iveală limita fundamentală: modelele AI nu fac raționament clinic, ci doar prezic următorul cuvânt.

În lumea reală, pacienții vin cu date incomplete, simptome amestecate și detalii subtile. Tocmai aici, AI-ul se clatină: nu poate lega fragmentele într-un tablou coerent, așa cum o face un medic.

Consecințe pentru spitale și pacienți

Într-un moment în care spitalele testează AI-ul pentru sarcini administrative și diagnostic asistat, mesajul studiului este clar: AI-ul poate sprijini, dar nu poate înlocui medicii.

„Până când aceste sisteme vor reuși să performeze consecvent în scenarii noi, rolul lor trebuie limitat la asistență cu supraveghere umană”, avertizează autorii studiului.

De ce ar trebui să ne pese

Întrebarea nu mai este dacă AI-ul poate memora manuale medicale, ci dacă poate lua decizii în viața reală, unde mizele sunt viața și sănătatea pacienților.

Pentru moment, răspunsul rămâne nu. Și poate e bine așa: mai degrabă un doctor obosit care știe să citească printre rânduri decât un algoritm care se blochează la o virgulă pusă altfel.

Exit mobile version