Az NVIDIA Rubin platform és a DGX SuperPOD új AI korszakot nyit
Az NVIDIA ismét nagyot lépett előre az AI számítástechnika területén: a legújabb Rubin platform és a hozzá kapcsolódó DGX SuperPOD rendszerek bemutatásával a vállalat egy új dimenziót nyit a mesterséges intelligencia alkalmazások számára. A Las Vegas-i CES kiállításon debütált Rubin platform hat különböző chippel dolgozik együtt, amelyek együttesen egy hihetetlen teljesítményű szuperszámítógépet alkotnak. Ezek a fejlesztések nemcsak a tanítást, hanem az AI-modell inferenciáját is radikálisan gyorsítják és költséghatékonyabbá teszik, így új szintre emelik a mesterséges intelligencia ipari alkalmazását.
Az új Rubin platform technológiai áttörései
A Rubin platform legfontosabb újdonságai között szerepel a hatodik generációs NVLink, amely akár 3,6 TB/s adatátviteli sebességet biztosít egyetlen GPU számára, illetve összesen 260 TB/s-t a rack szintű Vera Rubin NVL72 rendszeren. Ez lehetővé teszi a komplex, kevert szakértői (Mixture-of-Experts, MoE) modellek és a hosszú kontextusú feladatok hatékony kezelését. Az NVIDIA Vera CPU 88 egyedi Olympus maggal és teljes Armv9.2 kompatibilitással büszkélkedhet, miközben villámgyors NVLink-C2C kapcsolatot kínál a CPU-k és GPU-k között.
A Rubin GPU 50 petaflop számítási kapacitással rendelkezik az NVFP4 formátumban, és a harmadik generációs Transformer Engine gyorsított tömörítéssel segíti az AI inferenciát. Nem utolsó sorban, a platform elsőként kínál rack-méretű NVIDIA Confidential Computing megoldást, amely a teljes rendszerben megőrzi az adatok biztonságát, a CPU-tól a GPU-n át az NVLinkig.
DGX SuperPOD: a Rubin-alapú rendszerek mintarendszere
A Rubin platformra épülő DGX SuperPOD rendszerek két fő konfigurációban érkeznek: a Vera Rubin NVL72 és a Rubin NVL8 rendszerek formájában. A DGX Vera Rubin NVL72 például 14 ilyen egységet fog össze, 1008 Rubin GPU-val, melyek összesen 50,4 exaflop teljesítményt nyújtanak. A rack teljes memóriakapacitása több mint 1 petabájt, a hatalmas NVLink sávszélesség pedig megszünteti a modellparticionálás szükségességét, így a teljes rack egyetlen, koherens AI motorként működik.
Ezzel szemben a DGX Rubin NVL8 rendszerek folyadékhűtéses kivitelben, x86 CPU-kat használva kínálnak hatékony belépőt a Rubin korszakba, különösen a fejlesztéstől a bevezetésig terjedő AI projektek számára. Ezek az egységek nyolc Rubin GPU-val és hatodik generációs NVLinkkel 5,5-szer nagyobb NVFP4 teljesítményt biztosítanak a korábbi Blackwell rendszerekhez képest.
Forradalmi hálózati megoldások az AI gyárakban
Az új Rubin platform a hálózati infrastruktúrát is újradefiniálja, hogy megfeleljen a mesterséges intelligencia igényeinek. Az NVIDIA Spectrum-6 Ethernet switch, a Quantum-X800 InfiniBand, a BlueField-4 DPU és a ConnectX-9 SuperNIC együttese olyan skálázható, megbízható és nagy teljesítményű hálózatot alkot, amely képes kezelni a világ legnagyobb AI terheléseit is.
A Quantum-X800 InfiniBand kivételesen alacsony késleltetést és magas teljesítményt kínál dedikált AI klaszterek számára, míg a Spectrum-X Ethernet platform az „east-west” adatforgalom optimalizált kezelésével hoz nagyfokú skálázhatóságot és megbízhatóságot.
Az AI infrastruktúra automatizálása és menedzsmentje
Az NVIDIA szoftverei, köztük a Mission Control, szintén kulcsfontosságú elemei az új rendszernek. Ez a megoldás segíti a vállalatokat az AI infrastruktúra automatizált működtetésében és felügyeletében, így a fejlesztőcsapatok több időt fordíthatnak az innovációra és az üzleti eredmények elérésére.
Az NVIDIA DGX SuperPOD és Rubin platform együttese tehát nemcsak egy új hardvergenerációt jelöl, hanem egy komplex, teljes rendszermegoldást kínál, amely a mesterséges intelligencia következő ipari forradalmának alapját képezi. Részletesebb információk és technikai mélységek megismeréséhez érdemes megtekinteni az NVIDIA Rubin platform bemutatóját, ahol a legfrissebb fejlesztések minden aspektusa feltárul.