Obama lover, at USA vil bygge 'Exascale' supercomputere inden for 10 år

(NASA Goddard Space Flight Centre/Flickr)

Det Hvide Hus har annonceret etableringen af ​​sin National Strategic Computing Initiative (NSCI) i denne uge, som er designet til at holde USA på forkant med højtydende databehandling langt ind i de kommende årtier. Nøglen til at følge med vil være udviklingen af ​​gigantiske exascale supercomputere, som den amerikanske regering siger, at den vil bygge inden for de næste 10 år for at udføre utrolig hurtige og komplekse operationer.

Udmeldingen kommer, mens videnskabsmænd og teknologer kæmper med spørgsmålet omteknologiske flaskehalseefterhånden som kravene til beregningsforskning i det 21. århundrede dramatisk eskalerer i kompleksitet. Dette problem er særligt forværretnår man arbejder med big data- såsom lagring og behandling af de enorme mængder genomisk information, der er involveret i gensekventering - hvilket kræver ekstremt hurtige computere med ekstremt rummelige databanker.

Så hvad er en exascale computer? Tja, supercomputere måles i forhold til, hvor hurtige de er – specifikt i forhold til, hvor mange operationer de kan, kan udføre hvert sekund. Disse operationer er kendt som floating-point operations per second (alias 'flops'). Den slags computere, den amerikanske regering har til hensigt at bygge, vil være i stand til at udføre en exaflop i sekundet (1 milliard milliard eller 1018operationer pr. sekund). Til sammenligning er de fleste computere i verden i dag målt i gigaflops (109operationer pr. sekund).



Men det handler ikke kun om hastighed. Som konkluderet af Præsidentens Råd for videnskab og teknologi , betyder big data-alderen højtydende databehandling 'skal nu antage en bredere betydning, der ikke kun omfatter flops, men også evnen til for eksempel effektivt at manipulere enorme og hurtigt stigende mængder af både numeriske og ikke-numeriske data'. Hvad dette betyder er, at exascale supercomputere ikke kun skal være ekstremt hurtige, de skal også være i stand til at administrere og analysere massive datasæt op til en exabyte i størrelse (1018bytes).

Fordelene ved sådan en fantastisk supercomputerkraft (hvis det er et ord) vil kunne mærkes på alle mulige områder. Det Hvide Hus lister nogle få eksempler, herunder nye måder at modellere turbulens og dynamiske flyveforhold på i luftfartssimuleringer, bedre måder at beregne sundheds- og genomdata på og smartere undervisningsmetoder kunstig intelligens systemer, hvordan man lærer via adgang til en større database med eksempler, som man kan trække på.

Hvis Googles DeepDream er, hvad nutidens computere er i stand til at finde på, kan vi ikke vente med at se, hvad morgendagens exascale supercomputere vil finde på.

Populære Kategorier: Ukategoriseret , Plads , Miljø , Sundhed , Forklarer , Fysik , Samfund , Mennesker , Tech , Mening ,

Om Os

Offentliggørelse Af Uafhængige, Beviste Fakta Om Rapporter Om Sundhed, Rum, Natur, Teknologi Og Miljøet.