Komponenter

Inne i Tsubame - Nvidia GPU Supercomputer

A Simulation of Global Atmosphere Model NICAM on Tsubame 2.5 using OpenACC; H Yashiro

A Simulation of Global Atmosphere Model NICAM on Tsubame 2.5 using OpenACC; H Yashiro
Anonim

Når du går inn i datarommet i andre etasje i Tokyo Institute of Technologys databygging, blir du ikke umiddelbart rammet av størrelsen på Japans nest raskeste supercomputer. Du kan ikke se Tsubame-datamaskinen for industrielle klimaanlegg som står på vei, men det er i seg selv å fortelle. Med mer enn 30.000 prosesskjerner summende bort, bruker maskinen en megawatt strøm og må holdes kult.

Tsubame ble rangert som 29. raskeste supercomputer i verden i den siste Topp 500-rangeringen med en hastighet på 77,48T Flops flytende punktoperasjoner per sekund) på bransjestandard Linpack-benchmark.

Mens posisjonen er relativt god, er det ikke det som gjør det så spesielt. Den interessante tingen om Tsubame er at den ikke stole på den ubehandlede prosessorkraften til CPUer (sentrale prosesseringsenheter) alene for å få sitt arbeid gjort. Tsubame inneholder hundrevis av grafikkprosessorer av samme type som brukes i forbruker-PCer, og arbeider sammen med CPUer i et blandet miljø som noen sier, er en modell for fremtidige superdatamaskiner som serverer disipliner som materialkjemi.

[Videre lesing: Best NAS-bokser for media streaming og backup]

Grafikkprosessorer (GPUer) er veldig gode til raskt å utføre samme beregning på store mengder data, slik at de kan gjøre kort arbeid med noen problemer på områder som molekylærdynamikk, fysikk simuleringer og bildebehandling.

"Jeg tenker i de aller fleste interessante problemer i fremtiden, de problemene som påvirker menneskeheten der effekten kommer fra naturen … krever evnen til å manipulere og beregne på et veldig stort datasett, sier Jen-Hsun Huang, administrerende direktør av Nvidia, som snakket på universitetet denne uken. Tsubame bruker 680 av Nvidias Tesla grafikkort.

Hvor mye av en forskjell gjør GPUene? Takayuki Aoki, professor i materialkjemi ved universitetet, sa at simuleringer som pleide å ta tre måneder nå tar 10 timer på Tsubame.

Tsubame selv - når du beveger deg forbi klimaanlegget - er delt på flere rom i to gulv av bygningen og består i stor grad av rackmonterte Sun x4600-systemer. Det er 655 av disse i alt, som hver har 16 AMD Opteron CPU-kjerner inne i det, og Clearspeed CSX600-akseleratorplater.

Grafikkchipsene finnes i 170 Nvidia Tesla S1070-rackmonterte enheter som er spaltet inn mellom Solsystemer. Hver av 1U Nvidia-systemene har fire GPUer inne, som hver har 240 behandlingskerner for totalt 960 kjerner per system.

Tesla-systemene ble lagt til Tsubame i løpet av omtrent en uke mens datamaskinen var i drift.

"Folk trodde vi var gale," sa Satoshi Matsuoka, direktør for Global Scientific Information and Computing Center ved universitetet. "Dette er en superbatteri på 1 milliard dollar, som bruker en megawatt makt, men vi viste det teknisk at det var mulig."

Resultatet er hva universitetspersonell kaller versjon 1.2 av Tsubams supercomputer.

Jeg tror vi burde ha oppnådd 85 [T Flops], men vi løp ut av tiden, så det var 77 [T Flops], "sa Matsuoka av benchmarks som ble utført på systemet. På 85T Flops ville det ha steget noen steder i Top 500 og blitt rangert raskest i Japan.

Det er alltid neste gang: En ny Topp 500-listen går ut i juni 2009, og Tokyo Institute of Technology ser også ut

"Dette er ikke slutten på Tsubame, det er bare begynnelsen på GPU-akselerasjonen som blir vanlig," sa Matsuoka. "Vi tror at i verden vil det bli superdatamaskiner som registrerer flere petaflopper i årene som kommer, og vi vil gjerne følge med."

Tsubame 2.0, som han kaller den neste oppgraderingen, burde være her de neste to årene og vil skryte av en vedvarende ytelse av minst en petaflop (en petaflop er 1000 teraflops), sa han. Den grunnleggende utformingen for maskinen er fremdeles ikke ferdig, men den vil fortsette den heterogene databasen til å blande CPUer og GPUer, sa han.