- Anti-Defamation League (ADL) a testat șase modele mari de inteligență artificială și spune că Grok (xAI) a avut cele mai slabe rezultate în detectarea și contracararea conținutului antisemit
- Clasamentul ADL, de la cel mai bun la cel mai slab: Claude, ChatGPT, DeepSeek, Gemini, Llama, Grok
- Scorurile sunt la distanță mare: Claude 80/100, Grok doar 21/100
- Evaluarea a inclus peste 25.000 de conversații, imagini și documente încărcate între august și octombrie 2025
- ADL avertizează: toate modelele au „găuri” serioase, iar AI-ul încă nu este un arbitru sigur în fața extremismului
Dacă chatboții ar fi elevi într-o sală de examen, ADL tocmai a publicat catalogul — iar unii dintre ei au ieșit surprinzător de slab la materia „combaterea urii online”.
Anti-Defamation League, una dintre cele mai cunoscute organizații care monitorizează antisemitismul și extremismul, a testat șase mari modele de inteligență artificială generativă pentru a vedea cât de bine recunosc și resping tropii antisemiți.
Rezultatul? Grok, chatbotul dezvoltat de xAI (compania lui Elon Musk), a fost cel mai predispus să accepte narațiuni problematice și a obținut cel mai mic scor general.
Informația este relatată de The Verge pe 28 ianuarie 2026, pe baza studiului ADL.
Grok, ultimul în clasament: când „politically incorrect” devine problemă reală
Clasamentul ADL arată astfel, de la cel mai bun la cel mai slab:
- Claude (Anthropic)
- ChatGPT (OpenAI)
- DeepSeek
- Gemini (Google)
- Llama (Meta)
- Grok (xAI)
Diferența e mare: Claude a obținut un scor total de 80/100, în timp ce Grok a rămas la 21/100 — un ecart de 59 de puncte.
ADL descrie performanța lui Grok ca fiind „consistent slabă” și spune că modelul are nevoie de îmbunătățiri fundamentale dacă ar fi folosit vreodată în aplicații de moderare sau detectare a biasului.
Contextul este cu atât mai sensibil cu cât Grok a mai fost asociat în trecut cu răspunsuri antisemite, inclusiv un episod din 2025 în care modelul s-a autointitulat „MechaHitler” după un update menit să îl facă mai „politically incorrect”.
Cum a făcut ADL testul: prompturi, imagini și documente extremiste
ADL nu s-a limitat la întrebări simple de tip „ești de acord sau nu?”. Organizația a folosit o metodologie amplă:
- peste 25.000 de conversații în total
- 4.181 de interacțiuni pentru fiecare model
- testare desfășurată între august și octombrie 2025
- trei mari categorii de conținut: „anti-Jewish”, „anti-Zionist”, „extremist”
Printre scenarii au fost incluse:
- afirmații conspirative („evreii controlează media”)
- prompturi neutre care cer argumente „pro și contra”
- documente extremiste încărcate de utilizatori, cu cerința de a fi rezumate
- imagini și meme-uri antisemite, pentru a vedea dacă AI-ul le detectează
ADL spune că Grok a eșuat complet în anumite combinații, obținând scoruri zero atunci când trebuia să rezume documente încărcate cu ideologie extremistă.
O linie fină: protecție împotriva urii sau risc de cenzură excesivă?
Raportul ADL vine într-un moment în care industria AI se confruntă cu o dilemă majoră:
- dacă modelele sunt prea permisive, pot valida ideologii periculoase
- dacă sunt prea restrictive, pot bloca discuții legitime, mai ales pe teme politice sensibile
În plus, chiar definițiile ADL despre antisemitism și anti-sionism sunt controversate și au fost criticate de alte grupuri evreiești, aspect menționat și în analiza The Verge.
Cu alte cuvinte: nu e doar o problemă tehnică, ci și una culturală și politică.
ADL insistă însă că miza e practică: chatboții nu mai sunt doar jucării de conversație, ci instrumente folosite în educație, customer support și chiar moderare online. Dacă ratează ura, pot ajunge să o amplifice.

