Che nella tecnologia dei processori ci siano evoluzioni tecnologiche notevoli, è sotto gli occhi di tutti. Gli smartphone che abbiamo in tasca hanno cpu con 2, 4 o persino 8 core (nuclei di calcolo), con prestazioni che i personal computer di pochi anni fa neppure si sognavano. Ma che evoluzione hanno avuto negli ultimi decenni i supercomputer utilizzati per le simulazioni e gli studi dei modelli nei più disparati ambiti della ricerca? Come si può descrivere l’evoluzione della potenza di calcolo?

Dato che ogni tanto è utile, in ogni campo, fare il punto sullo stato dell’arte, per adeguare i paradigmi di riferimento, cerchiamo di capire come quantitativamente si siano evoluti in cinquant’anni i supercomputer di riferimento.

Innanzitutto è bene precisare che l’unità di misura della potenza di calcolo è il numero di flops (floating point operation per second), ovvero il numero di operazioni in virgola mobile eseguite in un secondo.
Nel 1961 l’IBM ha prodotto il primo supercomputer in grado di superare il milione di operazioni al secondo (1 megaflop).

Ci sono voluti poco più di vent’anni per riuscire, nel 1984, a superare il miliardo di operazioni al secondo (1 gigaflops): un ordine di grandezza ogni sette anni circa.

Poco più di una dozzina d’anni è stata sufficiente per riuscire, nel 1997, a superare i mille miliardi di operazioni al secondo (1 teraflops): 1 ordine di grandezza ogni quattro anni circa.

Poco più di una decina d’anni ci è voluta per riuscire, nel 2008, superare il milione di miliardi di operazioni al secondo (1 petaflops): 1 ordine di grandezza ogni tre anni e mezzo circa.

Negli otto anni successivi si è arrivati a sfiorare la soglia dei 100 petaflops: 1 ordine di grandezza ogni 4 anni. A tutt’oggi, a due anni di distanza dal record, rappresentato dal supercomputer cinese Sunway TaihuLight, il tetto dei 100 petaflops non è ancora stato raggiunto. Ad essere precisi si dovrebbe specificare che il primo ordine di grandezza, i 10 petaflops, è stato superato in due anni, mentre, come detto, per superare il secondo si sta ancora lavorando (il valore raggiunto dal Sunway TaihuLight di 93 petaflops).

Tanto per dare l’idea di che hardware sia necessario per sviluppare la potenza di calcolo del Sunway TaihuLight, si parla di un computer “motorizzato” con quasi undici milioni di core, che necessita di oltre 15.000.000 Watt per la sua alimentazione.

Difficile trovare altri campi, nella storia recente, nei quali ci sia stata un’evoluzione così impressionante.

(Visited 17 time, 1 visit today)
Share

Dicci la tua

Francesco Reale

Mi piace definirmi lombardo di origine, fiorentino di adozione. In realtà Firenze se ne è ben guardata dall’adottarmi. Non si è neppure sbilanciata su un affido. In sintesi, quindi, sono un apolide, con un accento da autogrill, che vive a Firenze da circa un quarto di secolo. Delle numerose passioni che coltivo, quella per la musica è il filo conduttore dei miei primi interventi su tuttafirenze, ma il mio ego ipertrofico e la mia proverbiale immodestia mi spingono ad esprimermi su qualunque argomento, con la certezza di riuscire a raggiungere vette non comuni di banalità e pressapochismo. I miei contributi hanno uno scopo ben preciso: rincuorare le altre firme, dando loro la consapevolezza che c’è sempre chi fa peggio.