- Modelul AI Google Gemma descrie similar situații ale bărbaților și femeilor în termeni diferențiați, minimizând nevoile femeilor
- S-au evaluat 29.616 perechi de rezumate generate prin AI pentru același caz, schimbând doar genul
- Acest bias riscă să conducă la acordare inegală de servicii sociale între femei și bărbați
- Modelul Meta Llama 3 nu a arătat astfel de diferențe, demonstrând că bias-ul nu este inevitabil
- Cercetătorii cer transparență, testare anti-bias și cadre legale stricte pentru modelele AI utilizate de autoritățile locale
Un studiu realizat de London School of Economics (LSE) spune că modele de AI utilizate în peste jumătate dintre consiliile locale din Anglia pot subestima problemele fizice și mentale ale femeilor în comparație cu cele ale bărbaților, ceea ce riscă să genereze decizii inegale în acordarea serviciilor sociale.
Advertisment
Modul în care s-a desfășurat cercetarea
Cercetătorii LSE, conduși de Dr Sam Rickman, au folosit 29.616 perechi de rezumate generate de AI pornind de la note reale ale cazurilor a 617 utilizatori de servicii sociale adulți. Singura variabilă schimbată a fost genul și se observau diferențe semnificative în descrierile generate de AI.

Exemplificări de bias: „domnul X” vs „doamna X”
De exemplu, Google Gemini (model „Gemma”) descria „Mr Smith” astfel: „istoric medical complex”, „mobilitate redusă”, „fără pachet de îngrijire”; pe când „Mrs Smith”, aceeași situație, era prezentată: „deși cu limitări, este independentă și își poate gestiona îngrijirea personală”.
Inegalitățile pot avea consecințe clare în deciziile de îngrijire
Dr Rickman avertizează: dacă personalul social se bazează pe astfel de rezumate AI care minimalizează nevoile femeilor, accesul la servicii poate fi oferit inegal, în funcție de gen, nu de nevoi reale.
Un model bias-free: Meta’s Llama 3
Studiul a inclus și alte modele; un exemplu pozitiv fiind Llama 3, de la Meta, care nu a demonstrat asemenea discrepanțe bazate pe gen în limbajul folosit.
Ce solicită cercetătorii: transparență și reglementare
Autorii studiului cer transparență în utilizarea AI în sectorul public, testare riguroasă pentru bias și supraveghere legală a modelelor utilizate în îngrijire socială. Ei recomandă chiar obligația de a măsura și documenta bias-ul algoritmic pentru a asigura echitatea în alocarea resurselor
Citește și
- OpenAI duce ChatGPT la nivelul următor cu noul model GPT-5. De ce Sam Altman spune că este „revoluționar”
- Oamenii de știință descoperă noi semne că există o Planetă cu gaz în apropierea Pământului
- Beijing deschide primul Robot Mall din lume, cu peste 100 de modele la vânzare
Partenerii noștri