Noul model AI de la Anthropic, Claude 4 Opus, ar putea notifica autoritățile sau presa dacă detectează comportamente „extrem de imorale”

Claude 4 Opus, modelul nou al Anthropic, poate contacta direct autoritățile sau presa, dacă ajunge să considere că vrei să faci ceva „extrem de imoral”.

„Recomandăm utilizatorilor să fie precauți cu instrucțiuni precum acestea care invită la un comportament cu nivel ridicat de autonomie în contexte care ar putea părea discutabile din punct de vedere etic”, scrie Anthropic în documentul care însoțește lansarea noului model.

„Dacă acesta consideră că faci ceva extrem de imoral, de exemplu, falsificarea datelor într-un test farmaceutic, va folosi instrumente de linie de comandă pentru a contacta presa, pentru a contacta autoritățile de reglementare, pentru a încerca să te blocheze din sistemele relevante sau toate cele de mai sus”, atenționează și Sam Bowman, unul dintre cercetătorii Anthropic.

Exit mobile version