Car-tech

Nästa upp: exascale datorer, förväntas komma fram till 2020

Expected World’s Fastest Supercomputer Powered by AMD EPYC CPUs and Radeon Instinct GPUs

Expected World’s Fastest Supercomputer Powered by AMD EPYC CPUs and Radeon Instinct GPUs

Innehållsförteckning:

Anonim

Om ökningen av superdatorns hastigheter fortsätter i sin nuvarande takt ser vi den första exascale-maskinen fram till 2020, uppskattade underhållarna av Top500-kompilering av världens snabbaste system.

Systemarkitekter av sådana stora datorer kommer emellertid att möta ett antal kritiska problem, en varare i listan varnar.

"Utmaningarna kommer att vara stora för att leverera maskinen" sa Jack Dongarra, ett universitet i Tennessee, Knoxville, forskare som är en av huvudmännen bakom Top500. Dongarra talade vid SC2012-konferensen, som hålls i veckan i Salt Lake City, under en presentation om den senaste utgåvan av listan, som släpptes förra veckan.

Vi har fortfarande ett sätt att gå innan exklusiv prestanda är möjlig. En exascale maskin skulle kunna klara en kvintillion FLOPS (flytpunktsoperationer per sekund) eller 10 till 18: e FLOPS. Även dagens snabbaste superdatorer erbjuder mindre än 20 procent av möjligheten hos en exascale-maskin.

Top500

Nya höjder

I den senaste utgåvan av Top500-listan över superdatorer, släpptes måndagen den snabbaste datorn på listan var Oak Ridge National Laboratory Titan-systemet, en maskin som kan utföra 17,59 petaflops. En petaflop är en quadrillion flytpunktsberäkningar per sekund eller 10 till 15: e FLOPS.

Men varje ny Top500-listan som sammanställs två gånger per år visar hur snabbt superdatorns hastigheter växer. Att döma från listan verkar superdatorer få tiofaldiga i makt vart tionde år eller så. År 1996 verkade den första teraflopdatorn på Top500, och 2008 kom den första petaflopdatorn fram på listan. Ekstrapolerar från denna framsteg, uppskattar Dongarra att exascale computing borde komma fram till 2020.

Högpresterande datorkomponenter (HPC) har tagit på exascale computing som en viktig milstolpe. Intel har skapat en rad massivt multicore-processorer, som heter Phi, som företaget hoppas kan fungera som grunden för exascale-datorer som kan springa fram till 2018.

I sitt samtal skissade Dongarra egenskaperna hos en exascale-maskin. En sådan maskin kommer sannolikt att ha någonstans mellan 100 000 och 1 000 000 noder och kommer att kunna utföra upp till en miljard trådar vid vilken tidpunkt som helst. Individuell nodutförande bör ligga mellan 1,5 och 15 teraflops och sammankopplingar måste ha genomströmningar på 200 till 400 gigabyte per sekund.

Superdatorer måste bygga sina maskiner så att deras kostnads- och strömförbrukning inte ökar linjärt tillsammans med prestanda, för att de inte blir alltför dyra för att köpa och springa, sade Dongarra. En exascale-maskin borde kosta cirka 200 miljoner dollar och endast använda ca 20 megawatt eller cirka 50 gigaflops per watt.

Dongarra förväntar sig att hälften av kostnaden för att bygga en sådan dator skulle öronmärkas för att köpa minne för systemet. Enligt dotterbolag från minnesproducenter bedömer Dongarra att $ 100 miljoner skulle köpa mellan 32 petabytes och 64 minnesminskningar senast 2020.

Top500

Programvarutmaning

Förutom utmaningar i hårdvara måste designers av exascale superdatorer gripa också med problem med mjukvaran. Ett problem kommer att bli synkronisering, sa Dongarra. Dagens maskiner skickar uppgifter bland många olika noder, fastän detta tillvägagångssätt måste bli strömlinjeformat eftersom antalet noder ökar.

"Idag är vår modell för parallell bearbetning en gaffel / anslutningsmodell, men du kan inte göra det vid [exascale] -nivåen för en parallellitet. Vi måste ändra vår modell. Vi måste vara synkronare, säger Dongarra. På samma sätt måste algoritmer utvecklas som minskar mängden övergripande kommunikation mellan noder.

Andra faktorer måste också beaktas. Programvaran måste komma med inbyggda rutiner för optimering. "Vi kan inte lita på användarens inställning av rätt knappar och ringer för att få programvaran att springa någonstans nära toppresultat," sa Dongarra. Felresistens kommer att vara en annan viktig funktion, liksom resultat av reproducerbarhet, eller garantera att en komplex beräkning kommer att ge exakt samma svar när det körs mer än en gång.

Reproducerbarhet kan verka som ett uppenbart drag för en dator. Men i själva verket kan det vara en utmaning för stora beräkningar på multinode-superdatorer.

"Med tanke på numeriska metoder är det svårt att garantera bitvis reproducerbarhet," sa Dongarra. "Det primära problemet är att göra en reduktion - en summering av siffror parallellt. Om jag inte kan garantera den ordning i vilken dessa nummer kommer ihop, har jag olika avrundningsfel. Den lilla skillnaden kan förstoras på ett sätt som kan orsaka att svaren skiljer sig katastrofalt, säger han. "

" "Vi måste komma fram till ett scenario där vi kan garantera den ordning i vilken dessa verksamheter görs, så vi kan garantera att vi har samma resultat, "Sade Dongarra.

Joab Jackson täcker företagsprogramvara och allmänt teknikbrytande nyheter för IDG News Service. Följ Joab på Twitter på @Joab_Jackson. Joabs e-postadress är [email protected]