Storia dei supercomputer

Molti di noi hanno familiarità con i computer. Probabilmente ne stai usando uno ora per leggere questo post del blog poiché dispositivi come laptop, smartphone e tablet sono essenzialmente la stessa tecnologia informatica sottostante. I supercomputer, d’altra parte, sono in qualche modo esoterici poiché sono spesso considerati macchine enormi, costose e succhiatori di energia sviluppate, in generale, per istituzioni governative, centri di ricerca e grandi aziende.

Prendiamo ad esempio il cinese Sunway TaihuLight, attualmente il supercomputer più veloce del mondo, secondo la classifica dei supercomputer di Top500. È composto da 41,000 chip (i processori da soli pesano oltre 150 tonnellate), costa circa 270 milioni di dollari e ha una potenza nominale di 15,371 kW. Tra i lati positivi, tuttavia, è in grado di eseguire quadrilioni di calcoli al secondo e può memorizzare fino a 100 milioni di libri. E come altri supercomputer, verrà utilizzato per affrontare alcuni dei compiti più complessi nei campi della scienza come le previsioni meteorologiche e la ricerca sui farmaci.

Quando furono inventati i supercomputer

L’idea di un supercomputer è nata negli anni ‘1960, quando un ingegnere elettrico di nome Seymour Cray, ha intrapreso la creazione del computer più veloce del mondo. Cray, considerato il “padre del supercalcolo”, aveva lasciato il suo posto al gigante dell’informatica aziendale Sperry-Rand per entrare a far parte della neonata Control Data Corporation in modo da potersi concentrare sullo sviluppo di computer scientifici. Il titolo di computer più veloce del mondo era detenuto all’epoca dall’IBM 7030 “Stretch”, uno dei primi a utilizzare i transistor al posto delle valvole a vuoto. 

Nel 1964, Cray introdusse il CDC 6600, che presentava innovazioni come la disattivazione dei transistor al germanio a favore del silicio e un sistema di raffreddamento basato sul freon. Ancora più importante, ha funzionato a una velocità di 40 MHz, eseguendo circa tre milioni di operazioni in virgola mobile al secondo, il che lo ha reso il computer più veloce al mondo. Spesso considerato il primo supercomputer al mondo, il CDC 6600 era 10 volte più veloce della maggior parte dei computer e tre volte più veloce dell’IBM 7030 Stretch. Il titolo fu infine ceduto nel 1969 al suo successore il CDC 7600.  

Seymour Cray va da solo

Nel 1972, Cray lasciò Control Data Corporation per fondare la sua società, Cray Research. Dopo un po ‘di tempo nella raccolta di capitali di avviamento e finanziamenti da parte degli investitori, Cray ha debuttato Cray 1, che ha nuovamente alzato l’asticella delle prestazioni del computer con un ampio margine. Il nuovo sistema funzionava a una velocità di clock di 80 MHz ed eseguiva 136 milioni di operazioni in virgola mobile al secondo (136 megaflop). Altre caratteristiche uniche includono un nuovo tipo di processore (elaborazione vettoriale) e un design a forma di ferro di cavallo ottimizzato per la velocità che ha ridotto al minimo la lunghezza dei circuiti. Il Cray 1 è stato installato al Los Alamos National Laboratory nel 1976.

Negli anni ‘1980 Cray si era affermato come il nome preminente nel supercalcolo e ci si aspettava che qualsiasi nuova versione avrebbe rovesciato i suoi sforzi precedenti. Quindi, mentre Cray era impegnato a lavorare su un successore del Cray 1, un team separato dell’azienda ha pubblicato il Cray X-MP, un modello che è stato pubblicizzato come una versione più “pulita” del Cray 1. Ha condiviso lo stesso Design a forma di ferro di cavallo, ma vantava più processori, memoria condivisa ed è talvolta descritto come due Cray 1 collegati insieme come uno. Il Cray X-MP (800 megaflops) è stato uno dei primi progetti “multiprocessore” e ha contribuito ad aprire la porta all’elaborazione parallela, in cui le attività di elaborazione vengono suddivise in parti ed eseguite simultaneamente da processori diversi. 

Il Cray X-MP, che è stato continuamente aggiornato, è servito da portabandiera fino al tanto atteso lancio del Cray 2 nel 1985. Come i suoi predecessori, l’ultimo e il più grande di Cray ha assunto lo stesso design a ferro di cavallo e layout di base con integrato circuiti impilati insieme su schede logiche. Questa volta, tuttavia, i componenti erano stipati così strettamente che il computer doveva essere immerso in un sistema di raffreddamento a liquido per dissipare il calore. Il Cray 2 era dotato di otto processori, con un “processore in primo piano” incaricato di gestire l’archiviazione, la memoria e di dare istruzioni ai “processori in background”, che erano incaricati dell’effettivo calcolo. Complessivamente, ha una velocità di elaborazione di 1.9 miliardi di operazioni in virgola mobile al secondo (1.9 Gigaflops), due volte più veloce del Cray X-MP.

Emergono più progettisti di computer

Inutile dire che Cray ei suoi progetti hanno governato la prima era del supercomputer. Ma non era l’unico ad avanzare in campo. I primi anni ’80 videro anche l’emergere di computer massicciamente paralleli, alimentati da migliaia di processori che lavoravano tutti in tandem per abbattere le barriere delle prestazioni. Alcuni dei primi sistemi multiprocessore sono stati creati da W. Daniel Hillis, che ha avuto l’idea come studente laureato presso il Massachusetts Institute of Technology. L’obiettivo all’epoca era quello di superare i limiti di velocità di avere una CPU calcoli diretti tra gli altri processori sviluppando una rete decentralizzata di processori che funzionassero in modo simile alla rete neurale del cervello. La sua soluzione implementata, introdotta nel 1985 come Connection Machine o CM-1, prevedeva 65,536 processori single-bit interconnessi.

I primi anni ’90 hanno segnato l’inizio della fine della stretta mortale di Cray sul supercalcolo. A quel punto, il pioniere del supercalcolo si era separato dalla Cray Research per formare la Cray Computer Corporation. Le cose iniziarono ad andare male per l’azienda quando il progetto Cray 3, il successore previsto di Cray 2, incontrò tutta una serie di problemi. Uno dei principali errori di Cray è stato optare per semiconduttori all’arseniuro di gallio – una tecnologia più recente – come un modo per raggiungere l’obiettivo dichiarato di un miglioramento di dodici volte nella velocità di elaborazione. Alla fine, la difficoltà nel produrli, insieme ad altre complicazioni tecniche, ha finito per ritardare il progetto per anni e ha portato molti dei potenziali clienti dell’azienda alla fine a perdere interesse. In poco tempo, la società rimase senza soldi e dichiarò fallimento nel 1995.

Le lotte di Cray avrebbero lasciato il posto a un cambio di guardia poiché i sistemi informatici giapponesi concorrenti avrebbero dominato il campo per gran parte del decennio. NEC Corporation, con sede a Tokyo, è entrata per la prima volta sulla scena nel 1989 con l’SX-3 e un anno dopo ha presentato una versione a quattro processori che è diventata il computer più veloce del mondo, per poi essere eclissata nel 1993. Quell’anno, il tunnel del vento numerico di Fujitsu , con la forza bruta di 166 processori vettoriali è diventato il primo supercomputer a superare i 100 gigaflop (Nota a margine: per darti un’idea della rapidità con cui la tecnologia avanza, i processori consumer più veloci nel 2016 possono facilmente superare i 100 gigaflop, ma al tempo, è stato particolarmente impressionante). Nel 1996, l’Hitachi SR2201 ha alzato la posta con 2048 processori per raggiungere una prestazione massima di 600 gigaflop.

Intel si unisce alla corsa

Dov’era Intel? L’azienda che si era affermata come il principale produttore di chip del mercato consumer non ha davvero fatto colpo nel regno del supercalcolo fino alla fine del secolo. Questo perché le tecnologie erano animali complessivamente molto diversi. I supercomputer, ad esempio, sono stati progettati per assorbire quanta più potenza di elaborazione possibile, mentre i personal computer miravano a spremere l’efficienza dalle capacità di raffreddamento minime e dalla fornitura di energia limitata. Così, nel 1993, gli ingegneri Intel fecero finalmente il grande passo adottando l’approccio audace di andare in maniera massiccia parallela al processore Intel XP / S 3,680 Paragon da 140, che nel giugno del 1994 era salito in cima alla classifica dei supercomputer. È stato il primo supercomputer con processore in parallelo ad essere indiscutibilmente il sistema più veloce al mondo. 

Fino a questo punto, il supercalcolo è stato principalmente il dominio di coloro che hanno il tipo di tasche profonde per finanziare progetti così ambiziosi. Tutto è cambiato nel 1994 quando gli appaltatori del Goddard Space Flight Center della NASA, che non avevano quel tipo di lusso, hanno escogitato un modo intelligente per sfruttare la potenza del calcolo parallelo collegando e configurando una serie di personal computer utilizzando una rete ethernet . Il sistema “Beowulf cluster” che hanno sviluppato era composto da 16 processori 486DX, in grado di funzionare nella gamma dei gigaflop e costava meno di $ 50,000 per la costruzione. Aveva anche la particolarità di eseguire Linux piuttosto che Unix prima che Linux diventasse il sistema operativo preferito dai supercomputer. Ben presto, i fai-da-te di tutto il mondo hanno seguito progetti simili per creare i propri cluster Beowulf.  

Dopo aver ceduto il titolo nel 1996 all’Hitachi SR2201, Intel tornò quell’anno con un design basato sul Paragon chiamato ASCI Red, che comprendeva oltre 6,000 processori Pentium Pro da 200 MHz. Nonostante l’allontanamento dai processori vettoriali a favore di componenti standard, l’ASCI Red ha ottenuto la distinzione di essere il primo computer a rompere la barriera di un trilione di flop (1 teraflop). Nel 1999, gli aggiornamenti gli hanno permesso di superare i tre trilioni di flop (3 teraflop). L’ASCI Red è stato installato presso i Sandia National Laboratories ed è stato utilizzato principalmente per simulare esplosioni nucleari e assistere nella manutenzione dell’arsenale nucleare del paese.

Dopo che il Giappone ha ripreso il comando del supercalcolo per un periodo con il NEC Earth Simulator da 35.9 teraflops, IBM ha portato il supercalcolo a livelli senza precedenti a partire dal 2004 con Blue Gene / L. Quell’anno, IBM ha presentato un prototipo che ha appena sfiorato l’Earth Simulator (36 teraflop). E entro il 2007, gli ingegneri avrebbero potenziato l’hardware per spingere la sua capacità di elaborazione a un picco di quasi 600 teraflop. È interessante notare che il team è stato in grado di raggiungere tali velocità adottando l’approccio di utilizzare più chip di potenza relativamente bassa, ma più efficienti dal punto di vista energetico. Nel 2008, IBM ha aperto di nuovo la strada quando ha acceso il Roadrunner, il primo supercomputer a superare un quadrilione di operazioni in virgola mobile al secondo (1 petaflop).