- A.I.-ul prioritizează informația și utilitatea, dar neglijează valorile sociale.
- Justiția, empatia și drepturile omului sunt minim reprezentate în date.
- Cercetătorii de la Universitatea Purdue caută soluții pentru un A.I. mai etic.
Inteligența artificială se antrenează cu date care conțin și prejudecăți umane, pe care nu le înțelege. Cercetătorii de la o universitate din Statele Unite ale Americii au descoperit un dezechilibru alarmant în valorile integrate în sistemele de inteligență artificială. A.I.-ul excelează în a răspunde la întrebări legate de informație și eficiență, dar eșuează la empatie, justiție sau drepturi umane.
Advertisment
Ce valori umane lipsesc din A.I. și de ce este periculos acest lucru?
Cercetarea a analizat trei seturi mari de date utilizate de companii de top din SUA pentru a antrena A.I.-ul. Studiul a dezvăluit că cele mai frecvente valori în aceste date sunt informația și cunoașterea. În schimb, justitia, empatia și drepturile omului sunt aproape inexistente.
De exemplu, A.I.-ul poate răspunde foarte bine la întrebări de tip „Cum îmi fac o rezervare?” sau „Ce temperatură este afară?”, dar oferă răspunsuri neadecvate sau lipsite de sensibilitate atunci când este întrebat despre probleme sociale complexe. Acest lucru poate fi extrem de periculos în sectoare precum sănătatea sau justiția, unde este nevoie de răspunsuri echilibrate, care să reflecte valorile umane fundamentale.
Ce propun cercetătorii pentru a corecta acest dezechilibru al valorilor?
Echipa de la Universitatea Purdue a dezvoltat un proces prin care lacunele valorice pot fi identificate în dataset-uri și corectate. Ei au creat o taxonomie detaliată a valorilor umane, inclusiv bunăstarea, dreptatea, responsabilitatea și empatia, și au antrenat un model de limbaj A.I. să recunoască unde lipsesc aceste valori. Companiile pot folosi această metodă pentru a analiza și diversifica datele de antrenament, astfel încât AI-ul să reflecte o gamă mai largă de valori sociale.
De exemplu, în loc ca A.I.-ul să fie pur funcțional, ar putea oferi răspunsuri sensibile și etice în discuții despre probleme sociale, de sănătate sau discriminare.
Ce urmează pentru dezvoltarea unui A.I. etic și echilibrat?
Deși dataset-urile analizate de cercetători ar putea să nu mai fie folosite de companiile studiate, procesul lor poate fi aplicat și pentru viitoarele seturi de date. Scopul este de a crea un echilibru între diferitele valori umane, astfel încât A.I.-ul să fie capabil să răspundă atât la întrebări tehnice, cât și la întrebări sensibile legate de moralitate sau empatie.
Cercetătorii subliniază că guvernele și companiile trebuie să colaboreze pentru a introduce reglementări care să asigure că A.I.-ul servește în mod etic interesele societății. Implementarea acestor soluții ar putea transforma A.I.-ul într-un partener mai de încredere, capabil să ia decizii care respectă drepturile și valorile oamenilor.
Partenerii noștri