Car-tech

Neste opp: exascale-datamaskiner, forventes å komme fram til 2020

Exascale computing’s impacts on understanding the human brain

Exascale computing’s impacts on understanding the human brain

Innholdsfortegnelse:

Anonim

Hvis økningen i supercomputerhastigheten fortsetter i sitt nåværende tempo, vil vi se den første exascale-maskinen innen 2020, anslått vedlikeholderne av Top500-kompilering av verdens raskeste systemer.

Systemarkitekter av slike store datamaskiner vil imidlertid møte en rekke kritiske problemer, som en keeper av listen advarer om.

"Utfordringene vil være vesentlige for å levere maskinen," sa Jack Dongarra, et universitet i Tennessee, Knoxville, forsker som er en av hovedrollene bak Top500. Dongarra snakket på SC2012-konferansen, som holdes i denne uken i Salt Lake City, under en presentasjon om den siste utgaven av listen, utgitt i forrige uke.

Vi har fortsatt en måte å gå før exascale ytelse er mulig. En exascale-maskin ville være i stand til en kvintillion FLOPS (flytende punktoperasjoner per sekund), eller 10 til 18. FLOPS. Selv dagens raskeste superdatorer tilbyr mindre enn 20 prosent av evnen til en exascale-maskin.

Top500

Nye høyder

I den nyeste utgaven av Top500-listen over superdatamaskiner, utgitt mandag, den raskeste datamaskinen på listen var Oak Ridge National Laboratory Titan-systemet, en maskin som kunne utføre 17,59 petaflops. En petaflop er en quadrillion flytende punktberegning per sekund, eller 10 til 15. FLOPS.

Men hver nye Top500-listen som er samlet to ganger i året, viser hvor raskt hastighetene til superdatamaskiner vokser. Dommer fra listen, synes superdatamaskiner å få ti ganger i kraft hvert tiende år. I 1996 dukket opp den første teraflop-datamaskinen på Top500, og i 2008 dukket den første petaflop-datamaskinen opp på listen. Ekstrapolerer fra denne utviklingsgraden, estimerer Dongarra at eksascale-databehandling skal ankomme rundt 2020.

Samfunnet med høy ytelse (HPC) har tatt på seg exascale-databehandling som en viktig milepæl. Intel har skapt en rekke massive multicore-prosessorer, kalt Phi, som selskapet håper kunne tjene som grunnlag for exascale-datamaskiner som kunne løpe innen 2018. I sin tale skisserte Dongarra egenskapene til en exascale-maskin. En slik maskin vil trolig ha et sted mellom 100.000 og 1.000.000 noder og vil kunne utføre opp til en milliard tråder til enhver tid. Individuell knuteprestasjon bør være mellom 1,5 og 15 teraflops, og sammenkoblinger må ha gjennomstrømninger på 200 til 400 gigabyte per sekund.

Supercomputer beslutningstakere må konstruere sine maskiner slik at deres kostnads- og strømforbruk ikke øker lineært sammen med ytelse, slik at de ikke vokser for dyrt for å kjøpe og kjøre, sa Dongarra. En exascale-maskin skal koste rundt 200 millioner dollar, og bruker bare 20 megawatt, eller ca 50 gigaflops per watt.

Dongarra forventer at halvparten av kostnadene ved å bygge en slik datamaskin ville bli øremerket for å kjøpe minne for systemet. Dommer fra kjørekartene til minnesprodusenter, estimerte Dongarra at $ 100 millioner ville kjøpe mellom 32 petabytes til 64 petabyte minne frem til 2020.

Top500

Programvareutfordring

I tillegg til utfordringer i maskinvare, må designere av exascale superdatamaskiner griper også med programvareproblemer. Et problem vil bli synkronisering, sa Dongarra. Dagens maskiner overfører oppgaver mellom mange forskjellige noder, selv om denne tilnærmingen må strømlinjeformes etter hvert som antall noder øker.

"I dag er modellen vår for parallellbehandling en gaffel / delt modell, men du kan ikke gjøre det ved [eksascale] nivået av en parallellitet. Vi må endre modellen. Vi må være synkrone, sier Dongarra. På samme måter må algoritmer utvikles som reduserer mengden av overordnet kommunikasjon mellom noder.

Andre faktorer må også vurderes. Programvaren må leveres med innebygde rutiner for optimalisering. "Vi kan ikke stole på brukerens innstilling av de riktige knappene og rattene for å få programvaren til å løpe hvor som helst i nærheten av topp ytelse," sa Dongarra. Feil motstandskraft vil være en annen viktig funksjon, som vil reproducere resultatene, eller garantere at en kompleks beregning vil gi nøyaktig samme svar når det kjøres mer enn en gang.

Reproducerbarhet kan virke som en åpenbar egenskap for en datamaskin. Men faktisk kan det være en utfordring for store beregninger på multinode-superdatamaskiner.

"Fra standpunktet til numeriske metoder er det vanskelig å garantere bitvis reproduserbarhet," sa Dongarra. "Det primære problemet er å gjøre en reduksjon - en oppsummering av tall parallelt. Hvis jeg ikke kan garantere rekkefølgen der disse tallene kommer sammen, har jeg forskjellige avrundingsfeil. Den lille forskjellen kan forstørres på en måte som kan føre til at svarene divergerer katastrofalt, sier han.

"Vi må komme opp med et scenario der vi kan garantere rekkefølgen der disse operasjonene er gjort, slik at vi kan garantere at vi har de samme resultatene, "Sa Dongarra.

Joab Jackson dekker virksomhetsprogramvare og generell teknologi som bryter nyheter for

IDG News Service. Følg Joab på Twitter på @Joab_Jackson. Joabs e-postadresse er [email protected]