- Tesla a promovat un șofer cu probleme de vedere care se bazează pe Full Self-Driving
- Sistemul este oficial doar nivel 2, deci necesită atenție constantă din partea șoferului
- Diferența dintre marketing și realitate poate crea o falsă senzație de siguranță
- Autoritățile americane investighează deja milioane de vehicule Tesla
- Experții avertizează că încrederea excesivă în sistem poate duce la accidente
Un videoclip promovat de Tesla North America pe platforma X spune o poveste care, la prima vedere, pare pozitivă: un proprietar de Cybertruck explică faptul că și-a cumpărat mașina pentru că își pierde vederea.
În clip, bărbatul susține că medicul său oftalmolog i-ar fi recomandat sistemul Full Self-Driving (FSD), iar în timpul testului mașina ar fi condus singură timp de aproximativ 90 de minute, fără intervenția lui.
Problema apare în momentul în care acest tip de mesaj este amplificat de un cont oficial Tesla. Pentru public, diferența dintre o experiență personală și o recomandare implicit validată de companie devine greu de distins.
FSD nu este autonomie: ce spune Tesla în propriile documente
Dincolo de percepții, definiția oficială este clară.
Tesla clasifică Full Self-Driving (Supervised) ca sistem de nivel 2 pe scara SAE. Asta înseamnă că mașina poate ajuta la condus, dar nu îl înlocuiește pe șofer.
Mai concret:
- șoferul trebuie să fie atent în permanență,
- mâinile trebuie să fie pregătite să intervină,
- responsabilitatea legală rămâne integral la om.
Tesla precizează explicit că sistemul nu transformă vehiculul într-unul autonom. Cu alte cuvinte, numele „Full Self-Driving” este mai ambițios decât realitatea tehnică actuală.
Când mașina „merge singură”, dar responsabilitatea rămâne la tine
Aici apare zona periculoasă: experiența practică poate părea mult mai avansată decât limitele reale ale sistemului.
FSD poate conduce perioade lungi fără intervenție, ceea ce creează impresia că mașina „se descurcă singură”. Dar în momente critice — un obstacol neașteptat, un pieton, un agent de trafic — sistemul poate cere intervenția umană instant.
Studiile din domeniul autonomiei auto arată că șoferii au nevoie de 5–8 secunde pentru a-și recăpăta complet atenția după ce au lăsat sistemul să conducă. În realitate, multe situații periculoase evoluează în mai puțin timp.
Pentru un șofer cu probleme de vedere, această fereastră de reacție devine și mai problematică.
Anchete, accidente și semnale de alarmă din industrie
Controversa nu apare în vid. Sistemul FSD este deja analizat de autorități.
Administrația Națională pentru Siguranța Traficului pe Autostrăzi din SUA (NHTSA) investighează funcționarea FSD pe aproximativ 3,2 milioane de vehicule — un pas important care poate duce la rechemări în service.
În paralel, sunt analizate zeci de incidente rutiere în care sistemul ar fi fost implicat. Există și procese deschise de utilizatori care susțin că tehnologia a contribuit la accidente.
Aceste investigații ridică o întrebare esențială: cât de sigur este sistemul în condiții reale, nu doar în scenarii ideale?
Marketingul creează percepții, dar legea spune altceva
Cazul evidențiază o tensiune tot mai vizibilă în industria auto: diferența dintre cum este prezentată tehnologia și ce poate face ea, de fapt.
Tesla promovează FSD într-un mod care sugerează autonomie avansată, în timp ce clasificarea legală de nivel 2 păstrează responsabilitatea la șofer. Această combinație poate genera confuzie — și, în unele cazuri, decizii riscante.
Criticii spun că această strategie permite companiei să beneficieze de imaginea unei tehnologii autonome fără a-și asuma pe deplin responsabilitatea asociată.
În final, discuția nu este doar despre Tesla, ci despre maturitatea tehnologiilor autonome în general.
Atunci când realitatea tehnică și percepția publică nu sunt aliniate, riscul nu vine doar din software — ci din modul în care oamenii aleg să aibă încredere în el.

