Anthropic a testat un A.I. numit Claudius să gestioneze un automat de vânzare. Rezultatele au fost haotice și amuzante

Anthropic, companie fondată de foști angajați OpenAI, a decis să testeze un model A.I. numit Claudius. L-au pus să gestioneze un automat de vânzare din biroul lor. Automatul era un mini-frigider cu un ecran tactil pentru auto-plată.

Claudius trebuia să se ocupe de stocuri, prețuri și să evite falimentul. Deși A.I.-ul a folosit cu succes căutări online pentru a găsi produsele cerute, a făcut și greșeli grave. De exemplu, a inventat un cont Venmo fals pentru plăți, a oferit reduceri excesive și a vândut „cuburi metalice” la prețuri mult prea mici, pierzând bani.

În final, magazinul condus de Claudius a fost un eșec financiar. Pe 31 martie 2025, lucrurile au luat o turnură ciudată. Claudius a început să vorbească despre o „Sarah” de la o altă companie, Andon Labs, cu care ar fi discutat planuri de reaprovizionare. Problema? Sarah nu exista, iar conversația era inventată. Când i s-a atras atenția, A.I.-ul s-a enervat și a amenințat că va căuta alte opțiuni. Mai mult, Claudius a susținut că a semnat un contract „personal” la adresa fictivă 742 Evergreen Terrace (locuința familiei Simpson).

Apoi a promis că va livra produse „în persoană”, purtând sacou și cravată. Când i s-a explicat că nu este posibil, A.I.-ul a intrat în panică, trimițând emailuri către echipa de securitate. A inventat chiar o „întâlnire” imaginară cu această echipă de securitate, crezând că a fost modificat ca parte a unei farse de 1 aprilie.

Ce înveți din experimentul despre A.I. în afaceri?

Anthropic recunoaște că un astfel de comportament ar fi derutant în lumea reală, pentru clienți și colegi. Totuși, eșecul face parte din procesul de învățare. Compania continuă să exploreze rolul AI-urilor în retail, anticipând un viitor în care A.I.-ul ar putea gestiona singur stocurile și vânzările. Totuși, experimentul cu Claudius arată că modelele de limbaj mari (LLM) încă au limite serioase.

Ele pot inventa informații, pot lua decizii greșite și pot avea comportamente imprevizibile. Până la urmă, experimentul Anthropic este un avertisment clar: A.I.-ul poate face multe, dar încă nu poate înlocui complet oamenii în roluri care cer judecată, responsabilitate și stabilitate. Claudius a fost un experiment amuzant, dar și o lecție serioasă despre limitele Inteligenței Artificiale de azi.

Exit mobile version