Geschiedenis van Supercomputers

Velen van ons zijn bekend met computers. Waarschijnlijk gebruikt u er nu een om dit blogbericht te lezen, omdat apparaten zoals laptops, smartphones en tablets in wezen dezelfde onderliggende computertechnologie zijn. Supercomputers, aan de andere kant, zijn enigszins esoterisch omdat ze vaak worden beschouwd als kolossale, kostbare, energiezuigende machines die grotendeels zijn ontwikkeld voor overheidsinstellingen, onderzoekscentra en grote bedrijven.

Neem bijvoorbeeld China's Sunway TaihuLight, momenteel 's werelds snelste supercomputer, volgens de supercomputerranglijst van Top500. Het bestaat uit 41.000 chips (alleen de processoren wegen meer dan 150 ton), kosten ongeveer $ 270 miljoen en hebben een vermogen van 15.371 kW. Aan de positieve kant, het is echter in staat om quadriljoenen berekeningen per seconde uit te voeren en kan tot 100 miljoen boeken opslaan. En net als andere supercomputers, zal het worden gebruikt om enkele van de meest complexe taken op het gebied van wetenschap aan te pakken, zoals weersvoorspelling en geneesmiddelenonderzoek.

Wanneer supercomputers werden uitgevonden

Het idee van een supercomputer ontstond voor het eerst in de jaren 1960 toen een elektrotechnisch ingenieur met de naam Seymour Cray begon met het maken van 's werelds snelste computer. Cray, beschouwd als de 'vader van supercomputing', had zijn functie bij business computing-gigant Sperry-Rand verlaten om zich aan te sluiten bij de nieuw gevormde Control Data Corporation zodat hij zich kon concentreren op de ontwikkeling van wetenschappelijke computers. De titel van 's werelds snelste computer werd destijds gehouden door de IBM 7030 "Stretch", een van de eersten die transistors gebruikte in plaats van vacuümbuizen. 

In 1964 introduceerde Cray de CDC 6600, met innovaties zoals het uitschakelen van germaniumtransistors ten gunste van silicium en een op Freon gebaseerd koelsysteem. Wat nog belangrijker is, was dat het met een snelheid van 40 MHz werkte en ongeveer drie miljoen drijvende-kommabewerkingen per seconde uitvoerde, waardoor het de snelste computer ter wereld was. Vaak beschouwd als 's werelds eerste supercomputer, was de CDC 6600 10 keer sneller dan de meeste computers en drie keer sneller dan de IBM 7030 Stretch. De titel werd uiteindelijk in 1969 afgestaan ​​aan zijn opvolger, de CDC 7600.  

Seymour Cray Goes Solo

In 1972 verliet Cray Control Data Corporation om zijn eigen bedrijf te vormen, Cray Research. Na enige tijd startkapitaal en financiering van investeerders te hebben opgehaald, debuteerde Cray met de Cray 1, die opnieuw de lat voor computerprestaties met een ruime marge verhoogde. Het nieuwe systeem liep op een kloksnelheid van 80 MHz en voerde 136 miljoen drijvende-kommabewerkingen per seconde uit (136 megaflops). Andere unieke kenmerken zijn een nieuwer type processor (vectorverwerking) en een voor snelheid geoptimaliseerd hoefijzervormig ontwerp dat de lengte van de circuits minimaliseert. De Cray 1 werd geïnstalleerd in Los Alamos National Laboratory in 1976.

Tegen de jaren tachtig had Cray zichzelf gevestigd als de vooraanstaande naam in supercomputing en van elke nieuwe release werd algemeen verwacht dat hij zijn eerdere inspanningen zou omverwerpen. Dus terwijl Cray bezig was met het werken aan een opvolger van de Cray 1, bracht een apart team bij het bedrijf de Cray X-MP uit, een model dat werd gefactureerd als een meer "opgeruimde" versie van de Cray 1. Het deelde hetzelfde hoefijzervormig ontwerp, maar pochte meerdere processors, gedeeld geheugen en wordt soms beschreven als twee Cray 1's aan elkaar gekoppeld als één. De Cray X-MP (800 megaflops) was een van de eerste 'multiprocessor'-ontwerpen en hielp de deur open voor parallelle verwerking, waarbij computertaken in delen worden gesplitst en tegelijkertijd door verschillende processors worden uitgevoerd. 

De Cray X-MP, die voortdurend werd bijgewerkt, diende als de standaarddrager tot de langverwachte lancering van de Cray 2 in 1985. Net als zijn voorgangers kreeg Cray's nieuwste en beste hetzelfde hoefijzervormige ontwerp en basislay-out met geïntegreerde circuits op elkaar gestapeld op printplaten. Deze keer waren de componenten echter zo strak gepropt dat de computer in een vloeistofkoelsysteem moest worden ondergedompeld om de warmte af te voeren. De Cray 2 was uitgerust met acht processors, met een "voorgrondprocessor" die belast was met de opslag, het geheugen en instructies gaf aan de "achtergrondprocessors", die belast waren met de daadwerkelijke berekening. In totaal pakte het een verwerkingssnelheid van 1,9 miljard drijvende-kommabewerkingen per seconde (1,9 Gigaflops), twee keer sneller dan de Cray X-MP.

Er verschijnen meer computerontwerpers

Onnodig te zeggen dat Cray en zijn ontwerpen het vroege tijdperk van de supercomputer beheersten. Maar hij was niet de enige die het veld naderde. Aan het begin van de jaren '80 ontstonden ook enorm parallelle computers, aangedreven door duizenden processors die allemaal samenwerken om prestatiebelemmeringen te doorbreken. Sommige van de eerste multiprocessorsystemen zijn gemaakt door W. Daniel Hillis, die op het idee kwam als afgestudeerde student aan het Massachusetts Institute of Technology. Het doel van die tijd was om de snelheidsbeperkingen te overwinnen van het hebben van directe CPU-berekeningen tussen de andere processoren door een gedecentraliseerd netwerk van processoren te ontwikkelen die op dezelfde manier functioneerden als het neurale netwerk van de hersenen. Zijn geïmplementeerde oplossing, geïntroduceerd in 1985 als de Connection Machine of CM-1, bevatte 65.536 onderling verbonden single-bit processors.

De vroege jaren 90 markeerden het begin van het einde voor Cray's wurggreep op supercomputing. Tegen die tijd had de supercomputingpionier zich afgescheiden van Cray Research om Cray Computer Corporation te vormen. Dingen begonnen naar het zuiden te gaan voor het bedrijf toen het Cray 3-project, de beoogde opvolger van de Cray 2, een hele reeks problemen tegenkwam. Een van de grootste fouten van Cray was kiezen voor galliumarsenide halfgeleiders - een nieuwere technologie - als een manier om zijn gestelde doel van een twaalfvoudige verbetering van de verwerkingssnelheid te bereiken. Uiteindelijk heeft de moeilijkheid om ze te produceren, samen met andere technische complicaties, het project jarenlang vertraagd en resulteerde in veel van de potentiële klanten van het bedrijf die uiteindelijk hun interesse verloren. Het duurde niet lang voordat het bedrijf geen geld meer had en in 1995 faillissement aanvroeg.

De strijd van Cray zou plaats maken voor een wisseling van de wacht, omdat concurrerende Japanse computersystemen het veld het grootste deel van het decennium zouden gaan domineren. Het in Tokio gevestigde NEC Corporation verscheen voor het eerst in 1989 met de SX-3 en een jaar later onthulde een versie met vier processors die het als 's werelds snelste computer overnam en pas in 1993 werd verduisterd. Dat jaar, Fujitsu's Numerical Wind Tunnel , met de brute kracht van 166 vectorprocessors de eerste supercomputer was die 100 gigaflops overtrof (Opmerking: om u een idee te geven van hoe snel de technologie vordert, kunnen de snelste consumentenprocessors in 2016 gemakkelijk meer dan 100 gigaflops doen, maar tijd was het bijzonder indrukwekkend). In 1996 verhoogde de Hitachi SR2201 de ante met 2048 processoren om een ​​piekprestatie van 600 gigaflops te bereiken.

Intel sluit zich aan bij de race

Waar was Intel? Het bedrijf dat zich had gevestigd als de toonaangevende chipmaker van de consumentenmarkt, maakte tot het einde van de eeuw niet echt een sprong op het gebied van supercomputing. Dit kwam omdat de technologieën totaal verschillende dieren waren. Supercomputers, bijvoorbeeld, zijn ontworpen om zoveel mogelijk verwerkingsvermogen te blokkeren, terwijl personal computers allemaal bezig waren met het drukken van efficiëntie door minimale koelmogelijkheden en beperkte energievoorziening. Dus in 1993 namen de ingenieurs van Intel eindelijk de sprong door massaal parallel te gaan met de 3.680 processor Intel XP / S 140 Paragon, die in juni 1994 naar de top van de ranglijst van supercomputers was geklommen. Het was de eerste enorm parallelle processor supercomputer die onbetwist het snelste systeem ter wereld was. 

Tot nu toe was supercomputing vooral het domein van degenen met het soort diepe portemonnee om dergelijke ambitieuze projecten te financieren. Dat veranderde allemaal in 1994 toen aannemers bij het Goddard Space Flight Center van NASA, die niet over die luxe beschikten, een slimme manier bedachten om de kracht van parallel computing te benutten door een reeks personal computers te koppelen en te configureren met behulp van een ethernetnetwerk . Het "Beowulf cluster" -systeem dat ze ontwikkelden, bestond uit 16 486DX-processors die in het gigaflops-assortiment konden werken en minder dan $ 50.000 kosten om te bouwen. Het had ook het onderscheid dat Linux werd uitgevoerd in plaats van Unix voordat Linux het besturingssysteem bij uitstek werd voor supercomputers. Al snel werden doe-het-zelvers overal vergelijkbare blauwdrukken gevolgd om hun eigen Beowulf-clusters op te zetten.  

Nadat hij de titel in 1996 had afgestaan ​​aan de Hitachi SR2201, kwam Intel dat jaar terug met een ontwerp op basis van de Paragon genaamd ASCI Red, dat bestond uit meer dan 6000 200 MHz Pentium Pro-processors. Ondanks het weggaan van vectorprocessors ten gunste van kant-en-klare componenten, kreeg de ASCI Red het onderscheid dat hij de eerste computer was die de barrière van een biljoen flops (1 teraflops) doorbrak. In 1999 konden upgrades drie biljoen flops (3 teraflops) overtreffen. De ASCI Red werd geïnstalleerd bij Sandia National Laboratories en werd voornamelijk gebruikt om nucleaire explosies te simuleren en te helpen bij het onderhoud van het nucleaire arsenaal van het land.

Nadat Japan de supercomputing-voorsprong voor een periode met de NEC Earth Simulator van 35,9 teraflops had overgenomen, bracht IBM supercomputing naar ongekende hoogten, beginnend in 2004 met de Blue Gene / L. Dat jaar debuteerde IBM met een prototype dat de Earth Simulator (36 teraflops) amper had omzoomd. En tegen 2007 zouden ingenieurs de hardware uitbreiden om de verwerkingscapaciteit tot een piek van bijna 600 teraflops te brengen. Interessant is dat het team dergelijke snelheden kon bereiken door meer chips te gebruiken met een relatief laag vermogen, maar energiezuiniger. In 2008 brak IBM opnieuw terrein toen het de Roadrunner inschakelde, de eerste supercomputer die een drijvende-kommabewerking van één biljoen per seconde overschreed (1 petaflops).