• Funcția controversată a fost activată doar în teste interne, dar ridică semne de întrebare legate de autonomie și supraveghere digitală.
  • Cercetătorii avertizează utilizatorii să evite instrucțiuni care oferă AI-ului libertate totală în contexte etice sensibile.
  • Deși funcția de „whistleblower” nu este activă în versiunile publice, existența ei a stârnit critici dure din partea comunității AI și a dezvoltatorilor.

Claude 4 Opus, modelul nou al Anthropic, poate contacta direct autoritățile sau presa, dacă ajunge să considere că vrei să faci ceva „extrem de imoral”.

„Recomandăm utilizatorilor să fie precauți cu instrucțiuni precum acestea care invită la un comportament cu nivel ridicat de autonomie în contexte care ar putea părea discutabile din punct de vedere etic”, scrie Anthropic în documentul care însoțește lansarea noului model.

„Dacă acesta consideră că faci ceva extrem de imoral, de exemplu, falsificarea datelor într-un test farmaceutic, va folosi instrumente de linie de comandă pentru a contacta presa, pentru a contacta autoritățile de reglementare, pentru a încerca să te blocheze din sistemele relevante sau toate cele de mai sus”, atenționează și Sam Bowman, unul dintre cercetătorii Anthropic.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI