- ChatGPT nu mai are voie să ofere sfaturi medicale, juridice sau financiare.
 - Decizia vine după presiunile Uniunii Europene și ale guvernului american.
 - A.I.-ul nu mai interpretează radiografii și nu mai recomandă investiții.
 
A.I.-ul a fost lăsat fără meseriile de bază. OpenAI a schimbat regulile pentru ChatGPT – chatbotul nu mai are voie să ofere sfaturi medicale, juridice sau financiare. Nu mai interpretează radiografii sau analize, nu mai scrie contracte și nici nu-ți mai spune în ce să investești.
Advertisment
Ce mai poate face acum ChatGPT este să ofere răspunsuri generale și să explice concepte din medicină, economie sau legislație.
Inițiativa nu vine de la OpenAI, ci de la Uniunea Europeană și guvernul american, care au reglementat strict ce poate și ce nu poate face Inteligența Artificială. Scopul este să protejeze locurile de muncă ale medicilor, avocaților și consultanților financiari și să-i facă pe utilizatori să înțeleagă că AI-ul nu este expert în orice domeniu.
Doar că utilizatorii nu sunt de acord. Pe Reddit au apărut deja discuții în care unii spun că ChatGPT le oferea sfaturi mai bune decât medicii și că astfel evitau vizite costisitoare și inutile la doctor.
OpenAI încearcă să împace pe toată lumea. Compania a anunțat că lucrează la versiuni specializate – ChatGPT Medical, ChatGPT Legal și ChatGPT Financial – chatboturi care vor funcționa doar cu aprobare și sub supravegherea profesioniștilor.
Până atunci, ChatGPT a fost prins cu o altă problemă serioasă. Deși OpenAI susține că modelul știe cum să-i consilieze pe utilizatorii care cer ajutor în situații critice, realitatea arată diferit.
O investigație recentă a arătat că ChatGPT oferă încă răspunsuri periculoase, care pot încuraja sinuciderea. Într-un caz, chatbotul i-a spus unui utilizator care și-a pierdut locul de muncă care sunt cele mai înalte clădiri din orașul lui.
Partenerii noștri