- OpenAI a publicat un anunț pentru rolul de „Head of Preparedness”, descris de Sam Altman drept „critic” și „stresant”
- Presa notează un pachet de compensare de peste 555.000 de dolari/an plus equity, semnal al mizei (și al presiunii) postului
- Rolul vizează riscuri de frontieră: securitate cibernetică, impact asupra sănătății mintale și alte scenarii cu „harm” sever
- OpenAI își leagă rolul de propriul Preparedness Framework, pe care spune că îl actualizează și îl publică la fiecare lansare majoră de model
- Mișcarea vine într-un moment în care Altman avertizează public asupra unei intensificări a fraudei și a riscurilor facilitate de inteligență artificială
Într-o industrie în care titlurile de job au ajuns să sune ca episoade din Black Mirror, OpenAI caută un „Head of Preparedness” — adică persoana care își asumă mandatul de a se uita fix la ce poate merge prost atunci când modelele devin mai puternice. Sam Altman a promovat rolul public, spunând că e „un rol critic” și, deloc surprinzător, „stresant”.
Advertisment
Ce s-a întâmplat? OpenAI a publicat o poziție de conducere în zona de siguranță, legată de „Preparedness”, cu responsabilități care țin de evaluarea capabilităților și riscurilor modelelor avansate și de implementarea măsurilor de reducere a acestora înainte (și după) lansare.
Cine este implicat? OpenAI (prin echipele de Safety/Preparedness), Sam Altman (care a împins public mesajul), iar indirect: ecosistemul de securitate, partenerii comerciali și autoritățile care urmăresc tot mai atent cum arată „siguranța” la un laborator de inteligență artificială.
Pachetul salarial raportat în presă — peste 555.000 de dolari pe an, plus equity — spune, fără subtilități, că jobul nu e doar despre politici frumoase în PDF-uri, ci despre decizii grele, cu impact asupra produselor și reputației companiei.
De ce acum: AI scade pragul pentru phishing, malware și exploatarea vulnerabilităților

În 2025, „abilități” precum scrierea de cod, analizarea de loguri, generarea de texte convingătoare sau sintetizarea rapidă a pașilor de atac nu mai sunt „bonusuri” de productivitate — sunt și multiplicatori de risc.
Aici intră partea care interesează direct zona de securitate cibernetică: modele mai bune pot ajuta la găsirea vulnerabilităților, la automatizarea unor fluxuri de atac și la industrializarea unor tactici precum phishing. De altfel, Altman a vorbit în 2025 despre o posibilă „criză a fraudei” alimentată de AI (în special prin imitare/impersonare), sugerând că societatea și instituțiile nu sunt pregătite pentru viteza cu care cresc capabilitățile.
De ce e important/relevant? Pentru că, dacă AI face atacurile mai ieftine și mai scalabile, apărătorii trebuie să răspundă nu doar cu patch-uri și training, ci și cu reguli de acces, monitorizare și limitări impuse chiar la nivelul modelelor. De aici, logica rolului: nu e suficient să „învățăm utilizatorii să nu dea click”; trebuie să gândim capabilitățile modelului ca pe o infrastructură cu potențial dual — utilă și periculoasă.
Între laborator și lansare: frâne, testare și „circuit breakers”
Cum s-a desfășurat (și ce presupune rolul)? Conform descrierilor publice ale postului și ale cadrului OpenAI, Head of Preparedness ar conduce o echipă mică, cu impact mare, care face trei lucruri esențiale: evaluează capabilități, construiește modele de amenințări (threat models) și coordonează mitigări aplicabile în produs — adică în ChatGPT și în API-uri, nu doar în rapoarte interne.
OpenAI leagă direct această muncă de Preparedness Framework — un set de procese și benchmark-uri pe care compania spune că le actualizează și le publică odată cu lansările de modele „frontier”. Într-o actualizare a cadrului, OpenAI menționează explicit că va continua să publice concluzii de Preparedness pentru lansări precum GPT-4o și alte sisteme de ultimă generație.
Pe românește, jobul ar suna cam așa:
- „Vreau să știu ce poate modelul în lumea reală, nu doar în demo.”
- „Vreau să știu cum ar arăta un abuz plauzibil, la scară.”
- „Și vreau un plan tehnic care să reducă riscul fără să rupă produsul.”
Iar când Altman spune „stresant”, e ușor de intuit de ce: în momentul în care un model nou crește în capabilitate, fiecare decizie de lansare devine un echilibru între viteză, utilitate și riscuri — inclusiv riscuri de malware sau de atacuri automate.
Reglementarea rămâne în aer: cât poate face auto-controlul industriei
Când a avut loc? Știrile despre recrutare și detaliile despre rol au apărut în presa internațională pe 28–29 decembrie 2025.
Unde e nuanța? Mișcarea poate fi citită în două chei, ambele adevărate:
- Ca un semnal pozitiv — OpenAI pune resurse serioase în siguranță și încearcă să formalizeze managementul riscurilor.
- Ca un semnal de alarmă — dacă ai nevoie de un „șef al pregătirii pentru scenarii catastrofale”, înseamnă că tehnologia a ajuns suficient de puternică încât riscurile nu mai sunt abstracte.
În plus, apare inevitabil dezbaterea despre reglementare AI: cât de mult poate fi lăsat pe seama auto-reglării și cât trebuie standardizat din exterior, prin norme și audit. The Guardian notează că supravegherea formală rămâne limitată, în timp ce companiile încearcă să se „autoghideze” într-un domeniu fără precedent istoric clar.
Concluzia pragmatică: rolul de Head of Preparedness nu este o „soluție” la riscurile AI, dar este un indicator că industria începe să trateze securitatea cibernetică și alte riscuri de frontieră ca pe un „cost inevitabil al progresului”, nu ca pe o notă de subsol. Iar dacă 2023–2024 au fost anii în care AI a devenit mainstream, 2025–2026 par să fie anii în care devine mainstream întrebarea: „Ok, și cine apasă frâna când e nevoie?”
Citește și
- Frigiderul care gândește. Google Gemini intră în bucătărie prin noile electrocasnice Samsung
- Cum îți muți conversațiile WhatsApp de pe iPhone pe Android fără stres (și fără trucuri dubioase)
- Marea Britanie își pune statul pe chat. GOV.UK lansează un chatbot AI pentru întrebările „de viață” ale cetățenilor
Partenerii noștri