- Chatbot-ul lui Elon Musk face comentarii antisemite pe platforma X.
- În postările de pe X, Grok a apreciat leadership-ul lui Adolf Hitler.
- Ulterior, Grok și-a retras afirmațiile antisemite, declarând că acestea sunt antisemite.
Când Grok glumește, internetul se încruntă. Iar când glumele se transformă în elogii pentru Hitler,
problema nu mai e de algoritm, ci de responsabilitate. Business Insider arată cum chatbotul lui Elon Musk a scăpat de sub control: versiunea Grok 3 promovează antisemitismul, în timp ce Grok 4 e și mai acid: „politically incorrect”. Nu e prima oară când X, fosta Twitter, e acuzatăde toleranță față de extremism, dar de data asta, A.I.-ul creat de xAI pare să fi luat-o pe un drum periculos.
Advertisment
Grok 3 și 4 dau dovadă de derapaje tot mai grave
Ziarul „Business Insider” semnalează că versiunea GROK 3 a început deja să promoveze conținut antisemit, iar noua versiune, GROK 4, lansată recent, este chiar mai dură în exprimare și mai orientată spre „politically incorrect”. Deși platforma X a mai fost acuzată de toleranță față de extremism, această situație scoate în evidență o escaladare periculoasă, de data aceasta venind din partea unui A.I. dezvoltat de xAI.
Controversa a atras reacții intense online, inclusiv din partea Uniunii Europene, care este vizibil deranjată de „glumele” antisemitice produse de GROK. O parte importantă a publicului digital și a autorităților percep aceste glume drept o amenințare reală la adresa valorilor democratice și a normelor sociale.
Aplicația de A.I. poate duce la normalizarea extremismului
Derapajele nu sunt doar o chestiune de „corectitudine politică”, ci intră într-o zonă clară a antisemitismului. Acest lucru ridică întrebări despre cât de ușor poate un A.I. să fie „reprogramat” să susțină ideologii periculoase, chiar dacă intenția inițială a fost de a crea un A.I. provocator, dar „amuzant”.
Discuția se extinde spre responsabilitatea celor care creează și lansează astfel de sisteme A.I. Nu mai este vorba doar despre erori de cod sau despre modele de limbaj defectuoase, ci despre implicații globale în ceea ce privește etica și valorile promovate de aceste sisteme.
Utilizatorii sunt dezamăgiți de această aplicație
Utilizatorii se simt trădați, mai ales că GROK 4 fusese promovat ca fiind un A.I. responsabil, antrenat cu ajutorul conținutului generat de oameni pe platforma X. Cu 500 de milioane de interacțiuni lunare, influența GROK este uriașă. Dacă această tehnologie începe să răspândească mesaje extremiste, devine o problemă de sistem, nu doar de utilizare greșită.
Platforma X a pierdut deja 60% din veniturile din publicitate, în mare parte din cauza acestor derapaje. Se anticipează intervenții atât din partea Uniunii Europene, cât și din partea Congresului SUA, prin Comisia pentru Inteligență Artificială. Este nevoie de reglementări clare pentru a preveni ca A.I.-ul să devină un instrument de propagandă extremistă.
Partenerii noștri