OpenAI își angajează șeful grijilor. Head of Preparedness, pe fondul temerilor că AI va ușura atacurile cibernetice

Într-o industrie în care titlurile de job au ajuns să sune ca episoade din Black Mirror, OpenAI caută un „Head of Preparedness” — adică persoana care își asumă mandatul de a se uita fix la ce poate merge prost atunci când modelele devin mai puternice. Sam Altman a promovat rolul public, spunând că e „un rol critic” și, deloc surprinzător, „stresant”.

Ce s-a întâmplat? OpenAI a publicat o poziție de conducere în zona de siguranță, legată de „Preparedness”, cu responsabilități care țin de evaluarea capabilităților și riscurilor modelelor avansate și de implementarea măsurilor de reducere a acestora înainte (și după) lansare.

Cine este implicat? OpenAI (prin echipele de Safety/Preparedness), Sam Altman (care a împins public mesajul), iar indirect: ecosistemul de securitate, partenerii comerciali și autoritățile care urmăresc tot mai atent cum arată „siguranța” la un laborator de inteligență artificială.

Pachetul salarial raportat în presă — peste 555.000 de dolari pe an, plus equity — spune, fără subtilități, că jobul nu e doar despre politici frumoase în PDF-uri, ci despre decizii grele, cu impact asupra produselor și reputației companiei.

De ce acum: AI scade pragul pentru phishing, malware și exploatarea vulnerabilităților

În 2025, „abilități” precum scrierea de cod, analizarea de loguri, generarea de texte convingătoare sau sintetizarea rapidă a pașilor de atac nu mai sunt „bonusuri” de productivitate — sunt și multiplicatori de risc.

Aici intră partea care interesează direct zona de securitate cibernetică: modele mai bune pot ajuta la găsirea vulnerabilităților, la automatizarea unor fluxuri de atac și la industrializarea unor tactici precum phishing. De altfel, Altman a vorbit în 2025 despre o posibilă „criză a fraudei” alimentată de AI (în special prin imitare/impersonare), sugerând că societatea și instituțiile nu sunt pregătite pentru viteza cu care cresc capabilitățile.

De ce e important/relevant? Pentru că, dacă AI face atacurile mai ieftine și mai scalabile, apărătorii trebuie să răspundă nu doar cu patch-uri și training, ci și cu reguli de acces, monitorizare și limitări impuse chiar la nivelul modelelor. De aici, logica rolului: nu e suficient să „învățăm utilizatorii să nu dea click”; trebuie să gândim capabilitățile modelului ca pe o infrastructură cu potențial dual — utilă și periculoasă.

Între laborator și lansare: frâne, testare și „circuit breakers”

Cum s-a desfășurat (și ce presupune rolul)? Conform descrierilor publice ale postului și ale cadrului OpenAI, Head of Preparedness ar conduce o echipă mică, cu impact mare, care face trei lucruri esențiale: evaluează capabilități, construiește modele de amenințări (threat models) și coordonează mitigări aplicabile în produs — adică în ChatGPT și în API-uri, nu doar în rapoarte interne.

OpenAI leagă direct această muncă de Preparedness Framework — un set de procese și benchmark-uri pe care compania spune că le actualizează și le publică odată cu lansările de modele „frontier”. Într-o actualizare a cadrului, OpenAI menționează explicit că va continua să publice concluzii de Preparedness pentru lansări precum GPT-4o și alte sisteme de ultimă generație.

Pe românește, jobul ar suna cam așa:

Iar când Altman spune „stresant”, e ușor de intuit de ce: în momentul în care un model nou crește în capabilitate, fiecare decizie de lansare devine un echilibru între viteză, utilitate și riscuri — inclusiv riscuri de malware sau de atacuri automate.

Reglementarea rămâne în aer: cât poate face auto-controlul industriei

Când a avut loc? Știrile despre recrutare și detaliile despre rol au apărut în presa internațională pe 28–29 decembrie 2025.

Unde e nuanța? Mișcarea poate fi citită în două chei, ambele adevărate:

  1. Ca un semnal pozitiv — OpenAI pune resurse serioase în siguranță și încearcă să formalizeze managementul riscurilor.
  2. Ca un semnal de alarmă — dacă ai nevoie de un „șef al pregătirii pentru scenarii catastrofale”, înseamnă că tehnologia a ajuns suficient de puternică încât riscurile nu mai sunt abstracte.

În plus, apare inevitabil dezbaterea despre reglementare AI: cât de mult poate fi lăsat pe seama auto-reglării și cât trebuie standardizat din exterior, prin norme și audit. The Guardian notează că supravegherea formală rămâne limitată, în timp ce companiile încearcă să se „autoghideze” într-un domeniu fără precedent istoric clar.

Concluzia pragmatică: rolul de Head of Preparedness nu este o „soluție” la riscurile AI, dar este un indicator că industria începe să trateze securitatea cibernetică și alte riscuri de frontieră ca pe un „cost inevitabil al progresului”, nu ca pe o notă de subsol. Iar dacă 2023–2024 au fost anii în care AI a devenit mainstream, 2025–2026 par să fie anii în care devine mainstream întrebarea: „Ok, și cine apasă frâna când e nevoie?”

Exit mobile version