MWC 2026: Gigabyte îți arată cum răcești CORECT sistemele și serverele AI pe veritabile supercomputere business

962 ori14-03-2026
MWC 2026: Gigabyte îți arată cum răcești CORECT sistemele și serverele AI pe veritabile supercomputere business

La standul GIGABYTE de la MWC 2026, compania a venit cu ideea ca operatorii telecom să poată oferi centre de procesare AI. Demonstrațiile din Barcelona au pus accent pe infrastructură completă – de la supercomputere cu GPU-uri de ultimă generație până la sisteme compacte pentru dezvoltare locală – toate gândite pentru a transforma cantitatea uriașă de date din rețelele telecom în servicii bazate pe inteligență artificială.

Conceptul central prezentat de GIGABYTE este cel de „AI Factory”, o infrastructură IT capabilă să transforme datele brute generate de rețele în instrumente AI utile pentru operatori. Practic, sistemele pot analiza traficul, comportamentul utilizatorilor sau performanța rețelei pentru a optimiza automat serviciile, a reduce costurile operaționale și chiar a genera noi surse de venit prin servicii AI oferite altor companii.

Supercomputerele AI pentru rețelele viitorului

În centrul demonstrațiilor s-a aflat platforma GB300 NVL72, un rack de calcul răcit cu lichid care adună într-un singur sistem 72 de GPU-uri NVIDIA Blackwell Ultra și 36 de procesoare NVIDIA Grace pe arhitectură Arm. Sistemul este gândit pentru antrenarea și rularea unor modele AI cu miliarde de parametri și folosește interconectare ultra rapidă prin InfiniBand Quantum-X800 sau Spectrum-X Ethernet, alături de interfețe ConnectX-8 SuperNIC.

Tot pentru infrastructuri de tip AI datacenter, GIGABYTE a expus mai multe servere bazate pe acceleratoare de top din industrie. Printre ele s-a aflat G894-SD3-AAX7, construit pe platforma NVIDIA HGX B300, un modul cu opt GPU-uri și memorie HBM3E de peste 2 TB, proiectat pentru sarcini precum modele agentice, reasoning sau generare video în timp real.

Un alt sistem prezentat este XN24-VC0-LA61, un server 2U cu răcire lichidă completă care folosește platforma NVIDIA GB200 NVL4, combinând patru GPU-uri Blackwell cu două procesoare Grace conectate prin NVLink-C2C. GIGABYTE a insistat pe eficiența energetică și stabilitatea termică, aspecte critice pentru centrele de date telecom.

În paralel, compania a arătat și o variantă bazată pe ecosistemul AMD. G893-ZX1-AAX4 folosește două procesoare AMD EPYC seria 9005/9004 și opt acceleratoare AMD Instinct MI355X, proiectate pentru inferență rapidă și antrenarea modelelor AI masive, dar și pentru sarcini HPC precum simulări științifice sau procesare de date la scară mare.

Digital twins și simularea rețelelor telecom

Un alt punct interesant din stand a fost ideea de digital twin pentru rețele telecom. Aceste simulări în timp real permit operatorilor să testeze distribuția traficului, să prevadă defecțiuni sau să optimizeze infrastructura înainte de implementarea în lumea reală.

Pentru astfel de scenarii, GIGABYTE a recomandat sistemul XL44-SX2-AAS1, construit pe arhitectura NVIDIA MGX și echipat cu opt GPU-uri RTX PRO 6000 Blackwell Server Edition. Sistemul include și o placă de rețea BlueField-3 DPU și conectivitate de până la 800 Gb/s, fiind gândit pentru sarcini permanente de analiză și simulare.

„Neocloud” și servere blade pentru servicii AI

Pe măsură ce operatorii telecom încep să ofere servicii cloud bazate pe GPU, GIGABYTE propune și o nouă generație de servere blade. Modelul B683-Z80-LAS1 este un sistem de tip 6U cu 10 noduri, fiecare dotat cu procesoare AMD EPYC și conectivitate de mare viteză. Răcirea directă cu lichid elimină peste 90% din căldura generată, ceea ce reduce consumul energetic și permite densitate mare de calcul.

Aceste sisteme sunt gândite pentru hosting AI, HPC sau pentru servicii GPU-as-a-Service, un model tot mai popular în rândul companiilor care nu vor să își construiască propriile infrastructuri de calcul.

Supercomputere AI chiar pe birou

Pe lângă infrastructura de datacenter, GIGABYTE a adus și soluții pentru dezvoltatori sau echipe de cercetare care vor să ruleze AI local. Stațiile de lucru prezentate pot integra GPU-uri multiple și sisteme de răcire lichidă pentru sarcini intense de training sau inferență.

Un exemplu este W775-V10-L01, bazat pe NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, capabil să ruleze modele AI mari direct pe workstation. Pentru dezvoltatori independenți sau proiecte edge AI, compania a prezentat și AI TOP ATOM, un mini-sistem construit pe superchipul NVIDIA GB10, capabil să livreze până la 1 petaFLOP de performanță AI într-un format extrem de compact.

Descoperă mai mult

Știri și subiecte apropiate, afișate direct și ușor de parcurs.

Acest site folosește cookies. Prin navigarea pe acest site, vă exprimați acordul asupra folosirii cookie-urilor. Citește mai mult×