STUDIU MIT. Inteligența Artificială nu înțelege negația. Unele modele confundă prezența și absența obiectelor în imagini

Inteligența Artificială, aparent, are o nouă problemă. L-a lăsat pe „Nu” din brațe. Roboții „da” știu să spună numai – unde e negație, îi dă cu eroare. Sistemele cu A.I. nu pot să înțeleagă efectiv sensul negativ, arată un studiu MIT. Pentru acestea să spui „un câine” și „niciun câine” este același lucru. Iar implicațiile sunt serioase, în special pentru modelele utilizate în sistemul medical.

Cercetătorii au testat 11 modele care analizează atât limbajul, cât și imagini. Fiecare a primit pe tavă 80 de mii de imagini în pereche – unele conțineau un obiect, celelalte, nu. Imaginile aveau și descrieri precum: imagine cu pisică și imagine fără pisică. Atunci când a venit momentul testului, a fost un fiasco.

Modelele au putut să identifice obiectele din imagini cu o acuratețe de 80%. Însă când era vorba să găsească imaginile care nu conțineau obiecte, acuratețea scădea sub 65%.

Studiul arată că modelele au un bias clar, spun cercetătorii. Pot identifica foarte ușor prezența unui lucru, însă nu pot înțelege absența. Limitare care face platformele A.I. cu risc în medicină. „Este esențial să știm nu doar ce simptome are un pacient, ci și ce nu are” spune Karin Verspoor, expertă în procesarea limbajului natural.

Cercetătorii au încercat să învețe A.I.-ul cum e cu „nu”. Au folosit exemple special create, iar acest lucru a dus la un progres cu 10% în căutarea de imagini și cu 30% la testele de alegere multiplă. Însă nu este decât o ocolire a problemei. „Nu tratează rana profundă” spun realizatorii studiului.

Exit mobile version