Microsoft prezintă NVIDIA Killer-ul - Maia 200: noul cip AI care promite costuri mai mici, eficiență AI crescută

664 ori
<b>Microsoft prezintă NVIDIA Killer-ul - Maia 200: noul cip AI care promite costuri mai mici, eficiență AI crescută</b>Microsoft a anunțat oficial Maia 200, un nou accelerator AI dezvoltat intern, construit pe tehnologia de 3 nm de la TSMC. Este optimizat pentru sarcini de inferență, adică pentru etapa în care un model deja antrenat, cum e GPT-5.2

Microsoft a anunțat oficial Maia 200, un nou accelerator AI dezvoltat intern, construit pe tehnologia de 3 nm de la TSMC. Este optimizat pentru sarcini de inferență, adică pentru etapa în care un model deja antrenat, cum e GPT-5.2, generează răspunsuri pe baza cererilor utilizatorilor. Scopul e clar: reducerea costurilor operaționale, într-un moment în care AI-ul devine din ce în ce mai scump de rulat.

Maia 200 are 216 GB de memorie HBM3e și performanță ridicată pe formatele FP4 și FP8. Pentru cei nefamiliarizați, FP4 și FP8 înseamnă calcule cu precizie redusă (4 sau 8 biți), suficiente pentru inferență, dar care permit procesarea unui volum mai mare de date, mai rapid și cu un consum mai mic de energie. Microsoft susține că Maia 200 oferă cu 30% mai multă eficiență per dolar față de generația anterioară și e superior competiției directe: de trei ori mai performant pe FP4 decât Trainium 3 de la Amazon și mai bun pe FP8 decât TPU-urile Gen 7 de la Google.

Un avantaj important al cipului e eficiența energetică. Maia 200 are un TDP de 750W, față de 1400W cât consumă Nvidia Blackwell B300. Diferența e mare, mai ales în contextul actual, unde se discută tot mai des despre impactul energetic al centrelor de date. Microsoft lasă de înțeles că în scenarii reale cipul ar putea funcționa și sub acest consum maxim, așa cum a făcut și precedentul Maia 100.

Arhitectura internă a fost și ea regândită serios, astfel că Maia 200 include 272 MB de SRAM împărțită în două niveluri – CSRAM și TSRAM – pentru o gestionare mai eficientă a traficului de date între memoria internă și chipleturile HBM. În termeni practici, asta se traduce printr-un flux de lucru mai stabil și costuri reduse în inferență, adică exact partea cea mai scumpă din operarea unui AI la scară mare.

Maia 200 este deja în funcțiune în centrul de date Azure US Central, urmând să fie implementat și în US West 3 (Phoenix) și alte regiuni. Microsoft îl integrează în mai multe produse proprii, dar și în modelele dezvoltate de OpenAI, care rulează masiv pe infrastructura Azure. Este o mutare strategică, mai ales în contextul în care OpenAI ar putea înregistra pierderi de până la 14 miliarde de dolari în acest an, din cauza costurilor mari de operare.

Acest site folosește cookies. Prin navigarea pe acest site, vă exprimați acordul asupra folosirii cookie-urilor. Citește mai mult×