- Investigații jurnalistice arată că filmările realizate cu ochelarii inteligenți Meta Ray-Ban pot fi analizate de contractori umani
- Unii lucrători spun că au văzut imagini intime sau situații private din viața utilizatorilor
- Materialele sunt folosite pentru antrenarea inteligenței artificiale a companiei
- O parte dintre aceste clipuri ar proveni din Uniunea Europeană, unde legislația GDPR este foarte strictă
- Meta susține că procesarea datelor se face conform termenilor de utilizare acceptați de utilizatori
Gigantul tehnologic Meta se confruntă cu un nou scandal legat de confidențialitatea datelor, după ce jurnaliștii suedezi au dezvăluit modul în care sunt analizate imaginile capturate de ochelarii inteligenți ai companiei.
Advertisment
Potrivit unei investigații publicate de cotidianul Svenska Dagbladet, filmările realizate cu ochelarii smart Meta Ray-Ban pot ajunge la contractori externi care ajută compania să antreneze algoritmi de inteligență artificială.
Jurnaliștii au discutat cu mai mulți lucrători din Kenya, angajați de firme subcontractoare, care spun că sarcina lor este să descrie ce apare în imagini — un proces numit adnotare de date.
În timpul acestei activități, unii dintre ei afirmă că au văzut imagini extrem de personale: oameni dezbrăcați, persoane în baie sau chiar scene intime. În unele cazuri ar fi apărut și informații sensibile, precum carduri bancare sau documente.
Cum ajung filmările utilizatorilor să fie folosite pentru antrenarea AI
Explicația tehnică este relativ simplă: sistemele de inteligență artificială trebuie antrenate cu cantități mari de date.

Atunci când utilizatorii activează funcțiile AI ale ochelarilor — de exemplu când cer dispozitivului să recunoască un obiect sau să descrie ce vede — imaginile pot fi trimise către serverele companiei pentru procesare.
Dacă algoritmii nu pot interpreta corect ceea ce apare în cadru, clipurile pot ajunge la evaluatori umani care:
- descriu obiectele din imagine
- explică ce acțiuni au loc
- ajută AI-ul să învețe să recunoască situații similare în viitor
Este o practică relativ comună în industria inteligenței artificiale, folosită de majoritatea companiilor care dezvoltă modele vizuale sau sisteme de recunoaștere a imaginilor.
Meta afirmă că aceste procese sunt menționate în termenii și condițiile serviciului, pe care utilizatorii trebuie să îi accepte pentru a folosi funcțiile AI ale ochelarilor.
De ce scandalul ridică întrebări serioase despre viața privată

Problema, spun criticii, este că mulți utilizatori nu realizează cât de mult pot fi analizate imaginile capturate de dispozitivele lor.
În plus, unele dintre filmările analizate ar proveni de la utilizatori din Uniunea Europeană, unde legislația GDPR impune reguli stricte privind protecția datelor personale și transferul acestora în afara spațiului comunitar.
Dacă imaginile ajung la subcontractori din alte țări, autoritățile europene ar putea analiza dacă acest proces respectă legislația privind protecția datelor.
Cazul scoate în evidență o problemă tot mai discutată în era dispozitivelor wearable: tehnologia devine suficient de discretă încât poate filma viața de zi cu zi aproape continuu, iar limitele dintre utilitate și invadarea vieții private devin din ce în ce mai greu de trasat.
Citește și
- Un templu budist din Kyoto introduce „Buddharoid”, un robot umanoid cu Inteligență Artificială. Călugărul-robot răspunde la întrebări despre anxietate și sensul vieții
- STUDIU. Modelele A.I. aleg utilizarea armelor nucleare în scenariul unei crize geopolitice. Există riscul ca A.I. să fie implicată direct în decizii nucleare?
- Apple deschide Big Week. iPhone 17e și iPad Air cu M4 — tehnologie nouă fără prețuri de groază
Partenerii noștri