- FDA a lansat Elsa, un AI intern pentru accelerarea aprobării de medicamente, dar intern funcționează adesea eronat
- Angajații raportează hallucinații frecvente, inclusiv studii și citări inventate
- FDA a emis un ghid de utilizare AI bazat pe risc, dar sistemul e criticat pentru lipsa de testare riguroasă
- Experții recomandă adoptarea unei metode hibride: viteză AI + supraveghere umană
- Accelerarea procesului de aprobări riscă să compromită siguranța publică fără măsuri corecte de control și transparență
Când te bazezi pe AI ca să grăbești aprobările pentru medicamente, totul pare futurist, până când începe să „halucineze”. Exact asta se întâmplă acum la Administrația pentru Alimente și Medicamente a SUA (FDA), care a introdus un chatbot AI intern, numit Elsa, pentru a accelera procesul birocratic de avizare a tratamentelor.
Dar entuziasmul s-a transformat rapid în neliniște: potrivit unor angajați, Elsa inventează citări, studii și date care nu există. Aparent, e bună la mimat știință, nu la făcut știință.
Elsa promite viteză, dar livrează… confuzie
Lansată în iunie 2025, Elsa este o inteligență artificială generativă – adică un sistem similar cu ChatGPT. concepută pentru a analiza documentația complexă din dosarele medicale, în teorie reducând săptămâni de muncă umană la câteva minute. FDA a prezentat proiectul ca o revoluție birocratică: rapid, eficient și „informat”.
Însă mai mulți angajați din interior spun că în practică Elsa oferă răspunsuri incomplete, greșite sau, în cazuri mai grave, complet fictive. Uneori „citează” studii științifice care nu au fost publicate nicăieri. Uneori „explică” mecanisme farmacologice care sună logic, dar nu sunt reale. Cu alte cuvinte, Elsa face ce fac toate modelele lingvistice generative: halucinează cu stil.
Ce se întâmplă când AI-ul bate câmpii într-un domeniu unde nu e loc de greșeli?
În medicină, o greșeală nu înseamnă doar un bug. Înseamnă risc clinic real. Dacă un AI influențează deciziile de aprobare pentru un nou tratament oncologic, sau un medicament experimental pentru boli rare, o singură eroare poate avea efecte catastrofale. Iar în cazul Elsei, această problemă nu e ipotetică, e confirmată de surse interne citate de Futurism și Gizmodo.
Deși FDA spune că AI-ul nu ia decizii finale, ci doar „ajută” experții, presiunea de a reduce timpii de aprobare e uriașă. Iar dacă AI-ul pare convingător, dar e greșit, există riscul ca factorul uman să accepte necritic ce „zice robotul”.
FDA scrie regulile jocului în timp ce joacă
În paralel cu lansarea Elsei, FDA a publicat și un ghid provizoriu pentru utilizarea AI în reglementarea medicală, care propune un cadru de evaluare a riscului și „credibilității” modelelor AI. Problema? Ghidul e vag, nu e obligatoriu și vine după ce AI-ul a fost deja implementat.
Criticii, inclusiv cercetători, analiști medicali și chiar unii membri ai Congresului, cer mai mult: teste de stres reale, transparență în datele cu care AI-ul a fost antrenat, audit extern și, mai ales, răspundere clară în caz de eroare.
Viitorul aprobărilor medicale
Majoritatea experților sunt de acord: AI-ul poate accelera birocrația, dar nu poate înlocui judecata umană, mai ales când e vorba de medicamente care ajung la pacienți. Soluția ideală nu este să renunțăm la AI, ci să-l folosim cu cap, ca un asistent, nu ca un decident.