Supermicro popularni 8U i 4U univerzalni GPU poslužitelji koji sadrže četverosmjerne i osmosmjerne NVIDIA HGX H100 GPU-ove sada su spremni za nove NVIDIA H200 GPU-ove za obuku čak i većih jezičnih modela (LLM) u još kraćem vremenu. Svaki NVIDIA H200 GPU sadrži 141 GB memorije uz propusnost od 4,8 TB/s.
Novi inovativni Supermicro tekućinom hlađeni 4U poslužitelj s NVIDIA HGX 8-GPU-ovima udvostručuje gustoću obrade podataka po racku i do 80kW po ormaru, smanjujući TCO.
Najkompaktniji GPU poslužitelj visokih performansi u industriji omogućuje operaterima podatkovnih centara da smanje ukupnu potrošnju i troškove dok istovremeno nudi kapacitet obuke AI najvišeg učinka dostupan u jednom racku.
Uz nove GPU sustave najveće gustoće, mogu je smanjiti svoj TCO korištenjem najsuvremenijih rješenja za hlađenje tekućinom.
Supermicro proširuje svoj doseg AI s nadolazećom podrškom za novi NVIDIA HGX H200 izgrađen s H200 Tensor Core GPU-om. Supermicro vodeće AI platforme u industriji, uključujući 8U i 4U univerzalne GPU sustave, spremne su za HGX H200 8-GPU, 4-GPU i s gotovo 2x većim kapacitetom i 1,4x većom propusnošću HBM3e memorije u usporedbi s NVIDIA H100 Tensor Core GPU. Uz to, najširi portfelj Supermicro NVIDIA MGXTM sustava podržava nadolazeći NVIDIA Grace Hopper Superchip s HBM3e memorijom. Skalabilnošću i pouzdanošću, Supermicroova AI rješenja za rack scale ubrzavaju izvedbu računalno intenzivne generativne AI, obuke za veliki jezični model (LLM) i HPC aplikacija dok zadovoljavaju rastuće zahtjeve rastućih veličina modela.
Novi NVIDIA GPU-ovi omogućuju ubrzanje današnjih i budućih velikih jezičnih modela (LLM-ova) sa stotinama milijardi parametara kako bi se uklopili u kompaktnije i učinkovitije klastere za treniranje Generative AI-a s manje vremena, a također omogućuju višestrukim modelima da stvarno stanu u jedan sustav u realnom vremenu LLM zaključivanje za posluživanje Generative AI za milijune korisnika.
Supermicro i NVIDIA najbrže omogućuju korisnicima da postanu produktivniji.