Google își „împarte creierul” AI în două cipuri și provoacă direct dominația Nvidia

Google schimbă regulile jocului în inteligență artificială, nu printr-un nou model spectaculos, ci prin ceva mai puțin vizibil, dar esențial: cipurile care fac AI-ul să funcționeze.

De ce Google nu mai vrea „un cip pentru toate” în inteligența artificială

După ani în care aceleași cipuri TPU (Tensor Processing Unit) se ocupau și de antrenarea modelelor, și de rularea lor, Google face un pas înapoi pentru a merge mai departe: separă complet cele două procese.

Pe scurt:

Decizia vine dintr-o realitate nouă: apariția „agenților AI” — aplicații autonome care trebuie să răspundă instant și să ruleze la scară masivă. Potrivit lui Amin Vahdat, vicepreședinte Google pentru AI și infrastructură, această specializare permite optimizarea fiecărei etape în parte.

Tradus mai simplu: în loc de un „all-in-one” bun la toate, Google construiește două instrumente extrem de bune la câte un singur lucru.

Cum atacă Google dominația Nvidia fără să renunțe la colaborare

Mutarea nu este doar tehnică, ci și strategică. Nvidia domină piața globală de cipuri pentru inteligență artificială, iar majoritatea companiilor — inclusiv Google — depind de hardware-ul său.

Dar dependența costă.

Prin dezvoltarea propriilor cipuri, Google încearcă să:

În același timp, nu rupe relația cu Nvidia. Google rămâne client, dar devine și competitor — o poziție din ce în ce mai comună în industria tech.

Amazon și Microsoft fac același lucru, dezvoltând propriile cipuri (Inferentia, Trainium, respectiv procesoare AI interne), în timp ce Nvidia continuă să inoveze agresiv, inclusiv prin integrarea tehnologiilor achiziționate de la startup-uri precum Groq.

Ce aduc nou TPUs de generația a opta în performanță și arhitectură

Noile cipuri TPU vin cu îmbunătățiri concrete, nu doar promisiuni:

Această memorie rapidă este esențială pentru ceea ce Google țintește: rularea simultană a milioane de agenți AI, fără întârzieri vizibile.

Sundar Pichai, CEO Alphabet, a explicat că arhitectura este gândită pentru „throughput masiv și latență scăzută” — adică mai multe operațiuni, mai rapid, la costuri mai mici.

Cum se transformă industria într-o cursă pentru controlul infrastructurii AI

Anunțul Google confirmă o schimbare profundă: competiția în inteligență artificială nu mai este doar despre software, ci despre cine controlează „motoarele” din spate.

Marile companii joacă pe toate fronturile:

Potrivit analiștilor DA Davidson (2025), divizia de cipuri și AI a Google ar putea ajunge la o valoare de aproximativ 900 de miliarde de dolari — un indiciu clar al mizelor.

Adopția este deja reală:

În final, bătălia nu mai este doar despre cine creează cel mai inteligent model AI, ci despre cine deține infrastructura care îl face posibil. Iar prin această mișcare, Google transmite clar că nu vrea să fie doar un jucător — ci unul dintre cei care stabilesc regulile.

Exit mobile version