- Apple cere acum acord explicit înainte ca aplicațiile să trimită date personale către servicii de inteligență artificială operate de terți
- Dezvoltatorii sunt obligați să explice clar ce date pleacă, unde pleacă și de ce
- Măsura apare în timp ce Apple se confruntă cu procese privind folosirea unor „shadow libraries” pentru antrenarea propriilor modele AI
- Contextul global pune presiune: Anthropic a plătit deja 1,5 miliarde $ pentru un proces legat de cărți piratate folosite la antrenare
- Noile reguli nu interzic AI în iOS, dar ridică standardul de transparență și limitează accesul „discret” la date
Apple a făcut o schimbare mică în text, dar mare în consecințe: a adăugat explicit sintagma „third-party AI” în App Review Guidelines.
Advertisment
Cu alte cuvinte, dacă o aplicație trimite date către un chatbot, un API de procesare sau un model de inteligență artificială găzduit în altă parte, dezvoltatorul trebuie să spună asta răspicat și să ceară acordul utilizatorului.
Nu în Politica de Confidențialitate, ascunsă la pagina 12, paragraf 3. Direct în aplicație. În față. Cu un buton mare de Accept / Refuz.
E o schimbare care promite să curețe aerul într-o perioadă în care multe aplicații folosesc AI fără să explice clar ce se întâmplă cu datele utilizatorilor.
Ce s-a schimbat, concret – și de ce dezvoltatorii nu pot ignora schimbarea
Noua regulă 5.1.2 (i) pune trei condiții majore pentru orice integrare AI externă:
- Transparență totală: aplicația trebuie să explice ce tip de date pleacă către AI și în ce scop.
- Consimțământ explicit: utilizatorul trebuie să apese pe „Da, sunt de acord”, nu să fie prins într-un flux automat.
- Vizibilitate în interfață: informarea trebuie să fie clară și directă — nu ascunsă în note de subsol.
Pentru aplicații care se bazau pe colectarea constantă de text, imagini sau voice data pentru a îmbunătăți modele externe, noua regulă înseamnă: revizuiri, redesign, poate chiar rethinking strategic.

Cu alte cuvinte, nu se mai poate „cu AI în tăcere”. Cine vrea date, trebuie să le ceară politicos.
De ce contează: Apple își întărește reputația de gardian al vieții private
Apple nu se sfiește să pozeze în eroul confidențialității: spoturi TV, keynote-uri, bannere uriașe cu „What happens on your iPhone, stays on your iPhone”.
Noile reguli duc această poveste în terenul AI. Iar mesajul e clar:
- datele utilizatorilor nu sunt o monedă liberă pentru modele AI terțe;
- consimțământul devine un pas obligatoriu, nu o opțiune;
- Apple vrea să păstreze controlul asupra ecosistemului și să diferențieze Apple Intelligence drept „AI-ul mai sigur”.
Strategic, este și o modalitate de a-și proteja viitoarea Siri — posibil alimentată, cel puțin parțial, de modele Google Gemini — într-o piață care devine din ce în ce mai sensibilă la întrebarea „Cine îți vede datele?”.
Apple, în mijlocul scandalurilor privind „shadow libraries”
În timp ce impune altora reguli stricte, Apple însăși trece printr-un duș rece: mai multe procese o acuză că ar fi folosit cărți piratate, colectate din „shadow libraries”, pentru a antrena propriile modele din Apple Intelligence.
Două exemple recente:
- doi neurocercetători dau în judecată Apple pentru că lucrările lor ar fi fost incluse ilegal în dataseturi de antrenare;
- doi autori susțin că Applebot — robotul de indexare al companiei — ar fi accesat biblioteci piratate pentru a descărca cărți întregi.
Apple neagă acuzațiile, dar contextul e sensibil. Și exact de aceea noile reguli de confidențialitate par nu doar moralizatoare, ci și… preventive. Ca un „uite, noi chiar avem grijă de datele utilizatorilor”, într-un moment în care atenția publică e maximă.
Cazul Anthropic: un precedent scump pentru toată industria AI
Când Anthropic a acceptat să plătească 1,5 miliarde de dolari pentru a închide un proces privind folosirea de cărți piratate la antrenarea modelului Claude, industria AI a tresărit.
Acest caz a confirmat două lucruri importante:
- folosirea dataseturilor ilegale poate ruina financiar un startup, oricât de bine finanțat ar fi;
- judecătorii încep să traseze limite clare între „fair use” și încălcarea grosolană a drepturilor de autor.
Apple nu este implicată în acest caz, dar îl simte în aer — și își ia măsuri. Noile reguli reduc șansa ca date sensibile ale utilizatorilor să „evadeze” către servicii AI obscure care ar putea genera noi scandaluri.
Cine câștigă, cine pierde – și ce se schimbă pentru utilizatori
Pentru dezvoltatori, noile reguli înseamnă muncă în plus. Multă muncă.
Pentru companiile de AI, înseamnă mai puțin acces la date brute.
Dar pentru utilizatori?
Partea bună este că, în sfârșit, ai un cuvânt de spus înainte ca un algoritm din alt colț de internet să îți citească mesajele, notițele sau istoricul de aplicații.
Vor fi mai multe ferestre pop-up de consimțământ?
Da.
Vor deveni unele funcții AI opționale?
Probabil.
Dar măcar știm ce se întâmplă. Iar în 2025, asta e deja un lux.
O „interdicție pentru AI” sau doar Apple în rol de portarul strict?
Departe de a bloca AI în iOS, Apple face ceva mai subtil — și mai inteligent strategic:
- nu interzice inteligența artificială,
- ci pune un gard între datele utilizatorilor și modelele AI externe,
- protejând astfel zona în care vrea să strălucească: Apple Intelligence.
E ca și cum ar spune:
„Sigur, puteți folosi AI. Dar nu cu datele utilizatorilor mei. Nu fără permisiunea lor. Și nu fără să-mi respectați regulile.”
Este oare și o mișcare competitivă?
Categoric.
Dar, în același timp, aduce un standard util într-o industrie care, în mod tradițional, își cere scuze pentru colectarea de date… doar când e prinsă.
Citește și
- O nouă analiză ADN dezvăluie „secretul întunecat” al lui Adolf Hitler: Dictatorul ar fi avut un singur testicul și un micropenis. „Dacă-și vedea rezultatele genetice, s-ar fi trimis singur la gazare”, spune geneticianul principal al studiului
- Ei de ce pot şi noi nu? Polonia lansează un program de 1,1 miliarde de dolari pentru a finanţa industria locală de tehnologie. O mare parte din bani vor veni de la banca de stat BGK
- Telefoane care se repară singure: ecrane cu polimeri regenerativi, tehnologii self-healing și materiale cu memorie schimbă complet smartphone-ul din 2025
Partenerii noștri