Exascale computing’s impacts on understanding the human brain
Innholdsfortegnelse:
- Nye høyder
- I tillegg til utfordringer i maskinvare, må designere av exascale superdatamaskiner griper også med programvareproblemer. Et problem vil bli synkronisering, sa Dongarra. Dagens maskiner overfører oppgaver mellom mange forskjellige noder, selv om denne tilnærmingen må strømlinjeformes etter hvert som antall noder øker.
Hvis økningen i supercomputerhastigheten fortsetter i sitt nåværende tempo, vil vi se den første exascale-maskinen innen 2020, anslått vedlikeholderne av Top500-kompilering av verdens raskeste systemer.
Systemarkitekter av slike store datamaskiner vil imidlertid møte en rekke kritiske problemer, som en keeper av listen advarer om.
"Utfordringene vil være vesentlige for å levere maskinen," sa Jack Dongarra, et universitet i Tennessee, Knoxville, forsker som er en av hovedrollene bak Top500. Dongarra snakket på SC2012-konferansen, som holdes i denne uken i Salt Lake City, under en presentasjon om den siste utgaven av listen, utgitt i forrige uke.
Vi har fortsatt en måte å gå før exascale ytelse er mulig. En exascale-maskin ville være i stand til en kvintillion FLOPS (flytende punktoperasjoner per sekund), eller 10 til 18. FLOPS. Selv dagens raskeste superdatorer tilbyr mindre enn 20 prosent av evnen til en exascale-maskin.
Top500Nye høyder
I den nyeste utgaven av Top500-listen over superdatamaskiner, utgitt mandag, den raskeste datamaskinen på listen var Oak Ridge National Laboratory Titan-systemet, en maskin som kunne utføre 17,59 petaflops. En petaflop er en quadrillion flytende punktberegning per sekund, eller 10 til 15. FLOPS.
Men hver nye Top500-listen som er samlet to ganger i året, viser hvor raskt hastighetene til superdatamaskiner vokser. Dommer fra listen, synes superdatamaskiner å få ti ganger i kraft hvert tiende år. I 1996 dukket opp den første teraflop-datamaskinen på Top500, og i 2008 dukket den første petaflop-datamaskinen opp på listen. Ekstrapolerer fra denne utviklingsgraden, estimerer Dongarra at eksascale-databehandling skal ankomme rundt 2020.
Samfunnet med høy ytelse (HPC) har tatt på seg exascale-databehandling som en viktig milepæl. Intel har skapt en rekke massive multicore-prosessorer, kalt Phi, som selskapet håper kunne tjene som grunnlag for exascale-datamaskiner som kunne løpe innen 2018. I sin tale skisserte Dongarra egenskapene til en exascale-maskin. En slik maskin vil trolig ha et sted mellom 100.000 og 1.000.000 noder og vil kunne utføre opp til en milliard tråder til enhver tid. Individuell knuteprestasjon bør være mellom 1,5 og 15 teraflops, og sammenkoblinger må ha gjennomstrømninger på 200 til 400 gigabyte per sekund.
Supercomputer beslutningstakere må konstruere sine maskiner slik at deres kostnads- og strømforbruk ikke øker lineært sammen med ytelse, slik at de ikke vokser for dyrt for å kjøpe og kjøre, sa Dongarra. En exascale-maskin skal koste rundt 200 millioner dollar, og bruker bare 20 megawatt, eller ca 50 gigaflops per watt.
Dongarra forventer at halvparten av kostnadene ved å bygge en slik datamaskin ville bli øremerket for å kjøpe minne for systemet. Dommer fra kjørekartene til minnesprodusenter, estimerte Dongarra at $ 100 millioner ville kjøpe mellom 32 petabytes til 64 petabyte minne frem til 2020.
Top500
ProgramvareutfordringI tillegg til utfordringer i maskinvare, må designere av exascale superdatamaskiner griper også med programvareproblemer. Et problem vil bli synkronisering, sa Dongarra. Dagens maskiner overfører oppgaver mellom mange forskjellige noder, selv om denne tilnærmingen må strømlinjeformes etter hvert som antall noder øker.
"I dag er modellen vår for parallellbehandling en gaffel / delt modell, men du kan ikke gjøre det ved [eksascale] nivået av en parallellitet. Vi må endre modellen. Vi må være synkrone, sier Dongarra. På samme måter må algoritmer utvikles som reduserer mengden av overordnet kommunikasjon mellom noder.
Andre faktorer må også vurderes. Programvaren må leveres med innebygde rutiner for optimalisering. "Vi kan ikke stole på brukerens innstilling av de riktige knappene og rattene for å få programvaren til å løpe hvor som helst i nærheten av topp ytelse," sa Dongarra. Feil motstandskraft vil være en annen viktig funksjon, som vil reproducere resultatene, eller garantere at en kompleks beregning vil gi nøyaktig samme svar når det kjøres mer enn en gang.
Reproducerbarhet kan virke som en åpenbar egenskap for en datamaskin. Men faktisk kan det være en utfordring for store beregninger på multinode-superdatamaskiner.
"Fra standpunktet til numeriske metoder er det vanskelig å garantere bitvis reproduserbarhet," sa Dongarra. "Det primære problemet er å gjøre en reduksjon - en oppsummering av tall parallelt. Hvis jeg ikke kan garantere rekkefølgen der disse tallene kommer sammen, har jeg forskjellige avrundingsfeil. Den lille forskjellen kan forstørres på en måte som kan føre til at svarene divergerer katastrofalt, sier han.
"Vi må komme opp med et scenario der vi kan garantere rekkefølgen der disse operasjonene er gjort, slik at vi kan garantere at vi har de samme resultatene, "Sa Dongarra.
Joab Jackson dekker virksomhetsprogramvare og generell teknologi som bryter nyheter for
IDG News Service. Følg Joab på Twitter på @Joab_Jackson. Joabs e-postadresse er [email protected]
Microsofts neste generasjons søkemotor Kumo forventes neste uke
Publikum kan få sitt første glimt på Microsofts kommende søkemotor, kalt Kumo, neste uke.
Ville det ikke vært fint hvis bilen din kunne betjene seg selv? Det er riktig å tenke på å kjøre opp til et hotell eller en restaurant, komme ut av bilen, og trykke på en knapp. Din bil ville rulle opp sine vinduer og kjøre av for å finne en tilgjengelig parkeringsplass og parkere seg selv. Da, da du trengte bilen igjen, kunne du bare trykke på en annen knapp, og det ville forlate parkeringsplassen og kjøre til hvor du er.
Bilprodusenter jobber allerede på denne typen mindre intensiv automatisert kjøring. Audi's proof-of-concept-bil er ikke helt Googles selvdrevne kjøretøy. Det er ingen LIDAR-laser på taket, og det kan ikke kjøre hundretusenvis av miles uten menneskelig interaksjon (ennå). Men denne bilen kan kjøre seg inn i en parkeringsplass, parkere seg selv og kjøre seg tilbake for å møte deg med pressen på en smarttelefonknapp.
Research in Motion (RIM) og Saudi-Arabia har kommet fram til en foreløpig avtale som innebærer at selskapet skal sette opp serveren der og gi regjeringen tilgang til dataene, ifølge mediarapporter på lørdag fra Saudi-Arabia. En avtale fra RIM med Saudi-Arabia kan sette presedens for lignende avtaler med andre land, inkludert India, Libanon, De forente arabiske emirater (UAE) og Indonesia, som krever at RIM finner servere i deres land, og gir tilgang til data til sine sikkerhetsstyrker, sa analyt
Saudi Arabias telekomregulator, Kommunikasjons- og informasjonsstyringskommisjonen (CITC) og lokale telefontoperatører har inngått en foreløpig avtale med RIM om håndtering av BlackBerry-data Det vil innebære å sette opp en server i landet, rapporterte The Wall Street Journal, og citerte en person kjent med samtalene.