- Un raport MIT Technology Review arată că siguranța psihologică este esențială pentru succesul proiectelor de inteligență artificială
- 83% dintre liderii intervievați spun că aceasta influențează direct sau indirect rezultatele inițiativelor AI
- 22% dintre executivi au evitat să conducă proiecte AI din teama eșecului sau a sancțiunilor interne
- Barierele culturale sunt percepute ca fiind mai problematice decât cele tehnice
- Companiile cu o cultură „safe to fail” mută mai rapid proiectele AI din faza pilot în producție
În timp ce inteligența artificială este promovată în companii ca motor al eficienței și al creșterii, un nou raport publicat de MIT Technology Review Insights arată că succesul acestor inițiative depinde de un factor adesea ignorat: siguranța psihologică. Studiul, realizat în parteneriat cu Infosys Topaz, susține că AI nu eșuează, de cele mai multe ori, din motive tehnice, ci pentru că oamenii se tem să experimenteze și să spună când ceva nu funcționează.
Advertisment
Raportul definește siguranța psihologică drept capacitatea angajaților de a-și exprima ideile, îndoielile sau greșelile fără teama de sancțiuni profesionale. În contextul AI – o tehnologie aflată încă într-o fază de maturizare accelerată – acest tip de mediu devine o condiție de bază, nu un „nice to have”.
Cine sunt liderii și organizațiile aflate în spatele cercetării

Cercetarea este semnată de MIT Technology Review Insights, divizia de analiză a uneia dintre cele mai respectate publicații tehnologice din lume. Datele provin dintr-un sondaj global realizat pe 500 de executivi și lideri seniori, completat de interviuri cu experți în AI, resurse umane și psihologie organizațională. Deși Infosys este partenerul comercial al proiectului, raportul precizează explicit că analiza și concluziile sunt editorial independente.
Această combinație de date cantitative și perspective calitative oferă o imagine rară asupra modului în care deciziile despre AI se iau, de fapt, la nivel de conducere.
Cum frica și ambiguitatea încetinesc adoptarea inteligenței artificiale
Unul dintre cele mai revelatoare rezultate ale raportului este tensiunea dintre discurs și realitate. Deși majoritatea liderilor afirmă că organizațiile lor încurajează experimentarea, 22% recunosc că au evitat să propună sau să conducă inițiative AI de teamă să nu fie considerați responsabili dacă proiectul eșuează.
Alte date conturează aceeași problemă:
- lipsa clarității privind valoarea AI este percepută ca obstacol de 60% dintre respondenți
- 55% indică lipsa de training adecvat
- 40% menționează teama de pierdere a locului de muncă
- 39% vorbesc explicit despre frica de eșec
Aceste bariere „invizibile” au un efect direct asupra rezultatelor. Organizațiile care descurajează implicit riscul rămân blocate în faza de pilot, în timp ce cele care acceptă greșelile controlate reușesc să ducă proiectele AI în producție.
De ce momentul este critic pentru companiile care investesc masiv în AI
Sondajul a fost realizat în vara anului 2025, într-un context în care presiunea pentru rezultate concrete din AI este mai mare ca oricând. Bugetele au fost aprobate, instrumentele sunt disponibile, iar așteptările acționarilor cresc. Cu toate acestea, doar 20% dintre lideri spun că organizația lor are o strategie AI clară și realistă, comunicată constant atât cu beneficiile, cât și cu limitele sale.
Majoritatea companiilor se află într-o zonă gri: promovează intens avantajele AI, dar încă încearcă să gestioneze diferența dintre hype și realitate. În acest context, lipsa unei comunicări coerente amplifică anxietatea angajaților și reduce disponibilitatea lor de a se implica activ.
De ce cultura organizațională a devenit adevăratul diferențiator în era AI
Raportul arată clar că 83% dintre lideri consideră că siguranța psihologică influențează măsurabil succesul inițiativelor AI, fie direct, fie indirect.
Diferența dintre companiile care „au AI” și cele care „folosesc AI” este, în mare măsură, una culturală.
Un exemplu detaliat în studiu este Infosys, unde conducerea încearcă să transforme frica legată de AI într-o motivație pozitivă. Prin crearea de roluri noi, trasee profesionale flexibile și mecanisme de siguranță pentru cei care experimentează, compania încurajează o atitudine de tip „mai bine încerci decât să rămâi pe margine”.
Raportul avertizează însă că mesajele despre „safe to fail” pot deveni pur decorative dacă nu sunt susținute de sisteme reale de evaluare și promovare. Atunci când doar reușitele sunt recompensate, iar eșecurile sunt tolerate doar teoretic, angajații vor evita riscurile – exact comportamentul care sufocă inovația.
Concluzia implicită: în era inteligenței artificiale, avantajul competitiv nu mai vine doar din tehnologie, ci din cât de sigur este pentru oameni să spună adevărul despre ea. Dacă adevărul devine riscant, AI rămâne superficială, indiferent de investiții.
Citește și
- Adobe intră în ChatGPT cu Photoshop și Acrobat. Spune ce vrei, iar uneltele apar singure
- O gaură neagră a „tușit” și a aruncat vânturi ultrarapide, aproape cu viteza luminii
- SUA ar putea cere turiștilor 5 ani de social media pentru intrarea fără viză. Ce se schimbă la ESTA
Partenerii noștri