Cu cât este 1 petaflops în gigaocteți? Un supercomputer petaflops este chiar după colț. Motive pentru utilizarea pe scară largă

Flops este o unitate care reprezintă performanța unui supercomputer. Un petaflops (1 Pflops) înseamnă că mașina poate efectua 1 cvadrilion (1 mie de trilioane) operațiuni pe secundă. În prezent, doar două utilaje au o capacitate de peste 1 Pflops - Jaguar, asamblat de Cray, și Roadrunner, fabricat de IBM. Ambele supercomputere sunt situate în SUA. În general, din primele zece, doar două supercomputere sunt situate în afara Statelor Unite: în Germania și China.

04.08.2009 12:20

Astăzi, industria calculatoarelor este cea mai avansată știință și tehnologie. Pentru a rezolva probleme complexe din domeniile fizicii, astronomiei, biologiei și medicinei, este necesară o putere mare de calcul. Supercomputerele pot ajuta în acest sens, pentru că pentru asta sunt create.

Recent, destul de des apar informații că un alt supercomputer a fost creat undeva. Dar ce este acest miracol al tehnologiei? În sensul modern, un supercomputer este o mașină de calcul electronică puternică, cu o performanță de peste un trilion de operațiuni în virgulă mobilă pe secundă sau teraflopi. Flops (din limba engleză Floating point Operations Per Second) este o valoare pentru măsurarea performanței computerului, care arată câte operații în virgulă mobilă pe secundă efectuează un anumit sistem de calcul. De regulă, un supercomputer modern este un complex multiprocesor sau multi-mașină (și în unele cazuri o versiune combinată), care lucrează pe memorie partajată și un domeniu comun de dispozitive externe.

În mod tradițional, principalul domeniu de aplicare al supercalculatoarelor este cercetarea științifică. Fizica plasmei și mecanica statistică, fizica materiei condensate, fizica moleculară și atomică, teoria particulelor elementare, dinamica gazelor și teoria turbulenței, astrofizica sunt doar câteva dintre domeniile în care este implicată o putere enormă a computerului.

Astăzi, sistemele informatice ultra-puternice sunt, de asemenea, folosite pentru a rezolva probleme tehnice. Acestea sunt, în primul rând, sarcinile industriilor aerospațiale și auto, energia nucleară, predicția și dezvoltarea zăcămintelor minerale, industriile de petrol și gaze, precum și proiectarea supercalculatoarelor în sine.

Supercalculatoarele au fost folosite în mod tradițional și în scopuri militare. Pe lângă dezvoltarea unei varietăți de arme, ele simulează utilizarea acestora. De exemplu, în Statele Unite, va fi necesară puterea de calcul a supercomputerelor Departamentului de Energie pentru a simula utilizarea armelor nucleare, ceea ce va face posibilă abandonarea completă a testelor nucleare reale în viitor.

În prezent, majoritatea supercalculatoarelor din clasamentul TOP-500 sunt implicate în dezvoltarea științifică. 72 de mașini puternice de informare și de calcul sunt implicate în acest domeniu. Industria financiară este deservită de 46 de supercalculatoare, 43 de mașini lucrează în beneficiul geofizicii, 33 lucrează în domeniul serviciilor informaționale, 31 gestionează logistica, 29 sunt angajate în dezvoltarea de semiconductori, 20 produc software, 18 sunt utilizate în procesarea informațiilor. servicii, iar 12 sisteme gestionează Internetul.

Lucrul cu matrice uriașă de calcule distinge supercalculatoarele de servere și mainframe - sisteme informatice cu performanțe generale ridicate, concepute pentru a rezolva probleme tipice, de exemplu, menținerea bazelor de date mari sau lucrul simultan cu mulți utilizatori.

Creșterea productivității sisteme de calcul apare, în primul rând, datorită creșterii vitezei bazei fizice și tehnologice ( componente electronice, dispozitive de memorie, comunicații, intrare-ieșire și afișare a informațiilor) și dezvoltarea paralelismului în procesul de prelucrare a informațiilor la toate nivelurile structurale ale sistemului, care este asociat cu o creștere a numărului de componente implicate (elemente de procesare, capacitatea de memorie, dispozitive externe).

Cea mai populară arhitectură de supercomputer (72% în lista TOP-500) astăzi sunt așa-numitele clustere. Pentru a construi o arhitectură de cluster de supercomputere, sunt folosite noduri de calcul, care sunt uneori cele mai obișnuite computere. Un astfel de nod are de obicei mai multe procesoare - de la 2 la 8. Pentru aceasta se folosesc componente destul de obișnuite, disponibile pe scară largă pe piață - plăci de bază (SMP-multiprocessor), procesoare Intel, AMD sau IBM, precum și module obișnuite memorie cu acces aleatorși hard disk-uri.
De-a lungul istoriei lor relativ scurte, supercalculatoarele au evoluat de la sisteme de putere redusă conform standardelor moderne la mașini cu performanțe fantastice.

Prima mențiune despre un supercomputer datează de la sfârșitul anilor 20 ai secolului trecut, când acest termen a apărut pe paginile ziarului New York World sub forma expresiei „super computing” (tradusă din engleză ca supercomputing). Acest concept se referea la tabulatoare – calculatoare electromecanice fabricate de IBM la comandă și pentru nevoile Universității Columbia și care efectuează cele mai complexe calcule pentru acea perioadă. Desigur, la acea vreme pur și simplu nu existau supercalculatoare în sensul modern, acest strămoș îndepărtat al computerelor moderne era mai degrabă un fel de calculator.

Utilizarea termenului „supercomputer” în relație cu un sistem de calcul electronic puternic este atribuită lui George A. Michael și Sidney Fernbach, angajați ai Laboratorului Național Livermore (SUA, California) și Control Data Corporation. La sfârșitul anilor 60, aceștia s-au angajat în crearea de computere puternice pentru nevoile Departamentului de Apărare al SUA și a industriei energetice. La Laboratorul Livermore au fost dezvoltate majoritatea supercalculatoarelor, inclusiv cel mai rapid supercomputer din lume din 2004 până în 2008, Blue Gene/L.

Cu toate acestea, termenul „supercomputer” a intrat în uz pe scară largă datorită dezvoltatorului american de tehnologie informatică Seymour Cray, care în 1957 a creat compania Control Data Corporation, care a început să proiecteze și să construiască sisteme electronice de calcul care au devenit fondatorii supercalculatoarelor moderne. În 1958, sub conducerea sa, a fost dezvoltat primul computer puternic din lume bazat pe tranzistori CDC 1604. Merită remarcat faptul că compania lui Seymour Cray a devenit prima care a produs în masă supercalculatoare - în 1965, mașina CDC-6600 cu o performanță de 3. milioane de operațiuni pe secundă au intrat pe piață. Acest computer a devenit baza unei întregi direcții, pe care Cray a fondat-o în 1972 și a numit-o Cray Research. Această companie a fost angajată exclusiv în dezvoltarea și producția de supercomputere. În 1976, Cray Research a lansat sistemul de calcul CRAY-1 cu o viteză de aproximativ 100 de megaflops. Și nouă ani mai târziu, în 1985, supercomputerul CRAY-2 depășește viteza de calcul de 2 gigaflopi.

În 1989, Seymour Cray a deschis Cray Computer Corporation, cu un accent clar pe perspectivele de piață ale supercalculatoarelor. Aici creează supercomputerul CRAY-3, a cărui viteză a atins deja cinci gigaflopi. Asociat cu acest computer fapt interesant. Cert este că, după apariția lui CRAY-3 în Limba engleză A fost inclusă expresia „Cray time”, ceea ce însemna costul unei ore de funcționare a unui supercomputer (la acea vreme era de 1 mie de dolari pe oră). Există o altă expresie care a circulat în cercurile specialiștilor în calculatoare - „Un supercomputer este orice computer creat de Seymour Cray”.

Este de remarcat faptul că în anii 80 ai secolului XX au apărut multe companii mici concurente care au creat computere de înaltă performanță. Dar pe la mijlocul anilor '90, neputând rezista concurenței cu marile corporații, majoritatea firmelor mici și mijlocii au părăsit acest domeniu de activitate.

Astăzi, supercalculatoarele sunt sisteme unice create de jucători „tradiționali” de pe piața calculatoarelor, cum ar fi IBM, Hewlett-Packard, Intel, NEC și alții. Acești giganți ai computerelor sunt cei care dictează acum regulile jocului în domeniul sistemelor electronice de calcul de înaltă performanță.

În 1997, compania americană Intel și-a lansat supercomputerul ASCI Red, care a devenit primul sistem din lume cu o viteză de peste un trilion de operațiuni pe secundă - 1.334 teraflopi. Supercomputerele Intel au deținut conducerea încă doi ani, dar în 2000, primul a fost computerul IBM ASCI White, instalat la Laboratorul Național Lawrence Livermore, care a produs 4 trilioane. 938 miliarde calcule (4.938 teraflopi). Acest supercomputer a ocupat o poziție de lider pentru încă un an, primind o viteză de 7.226 teraflopi după upgrade. Dar deja în aprilie 2002, compania japoneză NEC a anunțat lansarea supercomputerului Earth Simulator, care a fost capabil să atingă o viteză maximă de 35,86 teraflopi.

Lumea supercomputerelor a cunoscut o altă schimbare a liderilor în toamna anului 2004 - pe 29 septembrie, supercomputerul IBM Blue Gene/L a ocupat primul loc în lume. Acest puternic sistem de calcul a atins o viteză de 36,01 teraflopi. Cu toate acestea, acest record nu a durat mult - deja pe 26 octombrie, Administrația Națională pentru Aeronautică și Spațiu (NASA) a SUA a anunțat că noul său supercomputer Columbia, construit de Silicon Graphics și numit după naveta care a murit în februarie 2003, a efectuat o serie de calcule la o viteză de 42,7 teraflopi. Câteva zile mai târziu, același computer a reușit să-și mărească viteza la 51,87 teraflopi.
La începutul lunii noiembrie 2004, titlul de deținător absolut al recordului a fost câștigat din nou de Blue Gene/L, un alt eșantion al căruia IBM l-a lansat pentru Departamentul de Apărare al SUA. În prezent, viteza maximă de operare depășește 70,72 teraflopi. Acest computer a fost lider până în iunie 2008, când IBM a construit următoarea sa capodopera de supercomputer pentru laboratorul nuclear din Los Alamos (SUA, New Mexico) - cel mai puternic sistem de calcul electronic creat vreodată, Roadrunner.

Proiectul TOP-500 a fost înființat special pentru a lua în considerare supercalculatoarele, a căror sarcină principală este de a compila o evaluare și descrieri ale celor mai puternice computere din lume. Acest proiect a fost deschis în 1993 și publică o listă actualizată de supercalculatoare de două ori pe an (în iunie și noiembrie).

Deci, așa cum am menționat deja, cel mai puternic supercomputer de astăzi, conform celei mai recente ediții a ratingului TOP-500, este sistemul de calcul IBM Roadrunner. Acest computer este construit folosind un design hibrid de 6.500 de procesoare AMD Opteron dual-core și aproape 13.000 de procesoare IBM Cell 8i găzduite în rack-uri speciale TriBlades conectate folosind Infiniband, o magistrală serială comutată de mare viteză. Performanța sa de vârf este de 1.105 petaflopi.

Roadrunner aleargă sub control Linux. Supercomputerul IBM ocupă aproximativ 1.100 de metri pătrați de spațiu și cântărește 226 de tone, iar consumul său de energie este de 3,9 Megawați. Costul IBM Roadrunner a fost de 133 de milioane de dolari.

Departamentul de Energie al SUA va folosi RoadRunner pentru a calcula îmbătrânirea materialelor nucleare și pentru a analiza siguranța și fiabilitatea arsenalului nuclear. În plus, acest supercomputer va fi folosit pentru calcul științific, financiar, de transport și aerospațial.
Locul doi în clasament este ocupat de supercomputerul Cray XT5 Jaguar, care este instalat la laboratorul Departamentului de Energie al SUA din Oak Ridge, Tennessee. Performanța sa este de 1.059 petaflops.

Jaguar a reușit să stabilească un nou record de performanță după ce a adăugat două sute de unități Cray XT5 la cele 84 de unități Cray XT4. Acestea din urmă se bazează pe procesoare quad-core AMD Opteron. Fiecare unitate Cray XT5 conține până la 192 de procesoare. Numărul total de procesoare Jaguar este de 45 de mii.

De la altii caracteristici tehnice a unui supercomputer, cantitatea RAM și capacitatea acestuia sunt cunoscute unități de disc, acestea sunt egale cu 362 terabytes, respectiv 10 petabytes.

Spre deosebire de IBM Roadrunner, supercomputerul Jaguar va trebui să rezolve probleme pașnice. De exemplu, va fi folosit pentru a modela schimbările climatice și în domenii precum energia regenerabilă și știința materialelor. În plus, Departamentul de Energie al SUA spune că Jaguar ne va permite să studiem procese care nu se mai auzeau până acum. Ce fel de procese sunt acestea, din păcate, nu este raportat.

Al treilea cel mai puternic supercomputer din lume, precum și cel mai rapid din Europa, este modelul de linie de supercomputer IBM Blue Gene/P, care este instalat la centrul de cercetare Jülich din Germania. Complexul de calcul JUGENE, care a fost lansat în această vară, are 72 de rack-uri, care adăpostesc 294.912 procesoare PowerPC 450 core 850 MHz, iar puterea sa este de 825,5 teraflopi. Capacitatea de memorie a supercomputerului german este de 144 TB. În plus, acest supercomputer este unul dintre cele mai economice dispozitive dintre soluțiile similare - consumul său de energie este de aproximativ 2,2 MW.

Resursele de calcul ale acestui supercomputer sunt folosite, printre altele, în calculul proiectelor legate de cercetarea termonucleară, dezvoltarea de noi materiale și căutarea de medicamente generația următoare, precum și la modelarea schimbărilor climatice, a comportamentului particulelor elementare, a reacțiilor chimice complexe etc. Un grup de experți independenți este implicat în distribuția puterii de calcul între proiecte.

Apropo, conform datelor din noiembrie 2008, Rusia ocupă locul 11-14 în ceea ce privește numărul de sisteme instalateîmpreună cu Austria, Noua Zeelandă și Spania. Statele Unite sunt lider în acest indicator, cu aproximativ 300 de supercomputere din rating. Cu toate acestea, în ceea ce privește puterea, cel mai productiv supercomputer rus MVS-100K, care îndeplinește sarcini la Centrul Interdepartamental de Supercomputer al Academiei Ruse de Științe, se află doar pe locul 54. În ciuda acestui fapt, MVS-100K cu o performanță de vârf de 95,04 teraflopi pe în prezent este cel mai puternic supercomputer instalat în țările CSI. Este format din 990 de module de calcul, fiecare dintre ele echipat cu două procesoare Intel Xeon quad-core care funcționează la 3 GHz. În viitorul apropiat, este planificată creșterea productivității MVS-100K la 150 TFlops. Acest supercomputer este conceput pentru a rezolva o gamă largă de probleme științifice și tehnice complexe.

Care sunt perspectivele de viitor pentru supercalculatură? Potrivit experților, cel mai roz. Dar este deja clar că performanța lor va crește destul de repede datorită creșterii numărului de nuclee de procesor și a frecvenței medii a procesorului. În plus, pentru a rezolva probleme aplicate, supercalculatoarele vor folosi nu numai procesoare universale, ci și cele specializate (de exemplu, procesoare grafice dezvoltate de Nvidia și ATI) concepute pentru sarcini specifice. De asemenea, producătorii de supercalculatoare vor căuta noi soluții arhitecturale unice care nu numai că ar spori puterea computerului, dar ar oferi și avantaje în concurență pe piața comercială. În plus, în viitor, supercalculatoarele vor avea o creștere vizibilă a eficienței datorită dezvoltării software. Vor crește și abilitățile intelectuale ale supercalculatoarelor, iar odată cu aceasta, vor crește și calitățile profesionale ale programatorilor și ale altor specialiști IT.

De asemenea, este de remarcat faptul că, în viitor, sistemele de calcul de înaltă performanță își vor crește treptat prezența pe piața globală de calculatoare. Potrivit IDC, piața globală de supercomputere crește cu 9,2% anual. Veniturile de la producătorii de supercalculatoare în al doilea trimestru al anului 2008 s-au ridicat la 2,5 miliarde de dolari, ceea ce este cu 4% mai mult decât în ​​aceeași perioadă a anului trecut și cu 10% mai mult decât în ​​primul trimestru din 2008.

După cum notează analiștii IDC, HP a ocupat primul loc în ceea ce privește veniturile, cu o cotă de piață de 37%, urmată de IBM (27%) și Dell (16%) completând primele trei. Potrivit analiștilor IDC, piața de supercomputere va ajunge la 15,6 miliarde de dolari până în 2012.

Dintre sistemele prezentate în TOP-500, 209 (41,8%) au fost fabricate de specialiștii HP. IBM este pe locul doi cu 186 de calculatoare, iar Cray este pe locul trei cu 22 de supercomputere.

În ceea ce privește Rusia, aici, potrivit directorului comercial al companiei T-Platforms, Mikhail Kozhevnikov, creșterea anuală pe piața de supercomputere este de aproximativ 40%. Astfel, conform T-Platforms, volumul pieței de supercomputere din Rusia în 2007 a fost de aproximativ 60 de milioane de dolari, iar în 2008 piața a crescut la aproximativ 80 de milioane de dolari. Potrivit lui Mihail Kozhevnikov, chiar și într-o criză, piața este de așteptat să crească cu aproximativ 60% în 2009, iar în condiții favorabile, până la 100%.

După cum puteți vedea, supercalculatoarele câștigă doar avânt „comercial”. Este greu de imaginat, dar, într-adevăr, computerele voluminoase se vând ca „prăjituri calde” pe piața computerelor. Merită să așteptați o versiune mai mică a unui supercomputer cu același performanta ridicata pe care sistemele de calcul mari le au acum? La această întrebare dificilă poate răspunde probabil doar supercalculatoarele înșiși, deoarece aceasta este treaba lor.

Sfârșitul lucrării -

Acest subiect aparține secțiunii:

O nouă listă a celor mai puternice supercomputere a fost denumită

Crearea computerelor super-puternice a fost numită una dintre prioritățile tehnologice.

Dacă aveți nevoie de material suplimentar pe această temă, sau nu ați găsit ceea ce căutați, vă recomandăm să utilizați căutarea în baza noastră de date de lucrări:

Ce vom face cu materialul primit:

Dacă acest material ți-a fost util, îl poți salva pe pagina ta de pe rețelele sociale:

− 10 21 yottaflops − 10 24 xeraflops − 10 27

FLOPS(sau flops sau flop/s)(acronim pentru engleză. Fl punct de oating O perations P er S al doilea , pronunțat ca flops) este o cantitate utilizată pentru a măsura performanța computerului, arătând câte operații în virgulă mobilă pe secundă efectuează un anumit sistem de calcul.

Din moment ce computerele moderne au nivel inalt performanță, valorile derivate din FLOPS sunt mai frecvente, formate prin utilizarea prefixelor SI standard.

Flops ca măsură de performanță

La fel ca majoritatea celorlalți indicatori de performanță, această valoare este determinată prin rularea unui program de testare pe computerul testat, care rezolvă o problemă cu un număr cunoscut de operații și calculează timpul în care a fost rezolvată. Cel mai popular test de performanță astăzi este programul LINPACK, care este folosit, printre altele, la compilarea evaluării supercomputerului TOP500.

Unul dintre cele mai importante avantaje ale indicatorului de flop este că, într-o oarecare măsură, poate fi interpretat ca o valoare absolută și calculată teoretic, în timp ce majoritatea celorlalte măsuri populare sunt relative și permit evaluarea sistemului testat doar în comparație cu un număr de altele. Această caracteristică face posibilă utilizarea rezultatelor diverșilor algoritmi pentru evaluare, precum și evaluarea performanței sistemelor de calcul care încă nu există sau sunt în curs de dezvoltare.

Limite de aplicabilitate

În ciuda aparentei lipsuri de ambiguitate, în realitate flop-urile este o măsură destul de slabă a performanței, deoarece însăși definiția sa este ambiguă. O „operație în virgulă mobilă” poate ascunde o mulțime de concepte diferite, ca să nu mai vorbim de faptul că adâncimea de biți a operanzilor joacă un rol semnificativ în aceste calcule, care, de asemenea, nu este specificat nicăieri. În plus, valoarea flop-urilor este influențată de mulți factori care nu sunt direct legați de performanța modulului de calcul, cum ar fi: lățimea de bandă a canalelor de comunicație cu mediul procesorului, performanța memoriei principale și sincronizarea memoriei cache la diferite niveluri.

Toate acestea conduc în cele din urmă la faptul că rezultatele obținute pe același computer folosind diferite programe, pot diferi semnificativ în plus, cu fiecare test nou, pot fi obținute rezultate diferite folosind același algoritm. Această problemă este parțial rezolvată printr-un acord de utilizare a programelor de testare uniforme (același LINPACK) cu rezultate medii, dar în timp, capacitățile computerelor „depășesc” domeniul de aplicare al testului acceptat și începe să dea rezultate artificial scăzute, deoarece nu foloseste ultimele caracteristici dispozitive de calcul. Și pentru unele sisteme, testele general acceptate nu pot fi aplicate deloc, lăsând deschisă problema performanței lor.

Motive pentru utilizarea pe scară largă

În ciuda unui număr mare de deficiențe semnificative, indicatorul de flops continuă să fie utilizat cu succes pentru a evalua performanța, pe baza rezultatelor testului LINPACK. Motivele acestei popularități se datorează, în primul rând, faptului că flop-urile, așa cum am menționat mai sus, este o valoare absolută. Și, în al doilea rând, multe probleme din inginerie și practica științifică se reduc în cele din urmă la rezolvarea sistemelor de ecuații algebrice liniare, iar testul LINPACK se bazează tocmai pe măsurarea vitezei de rezolvare a unor astfel de sisteme. În plus, marea majoritate a calculatoarelor (inclusiv supercomputere) sunt construite folosind arhitectura clasica folosind procesoare standard, ceea ce permite utilizarea de teste general acceptate cu mare fiabilitate. Așa cum se arată pe procesoare Intel core 2 Quad Q9450 2.66GHz @3.5GHz și Intel Core 2 Duo E8400 3000 MHz (2008), programul LINPACK nu folosește soluții pentru expresii algebrice, deoarece orice operație nu poate merge mai repede de 1 ciclu de procesor. Prin urmare procesoare Intel Core 2 Quad necesită unul sau doi hertzi pe ciclu de ceas. Întrucât sarcinile în virgulă mobilă: împărțirea/înmulțirea, adăugarea/scăderea necesită mult mai mult decât un ciclu de ceas, este clar că aceste procesoare nu ar putea produce 48 de gigaflopi și, respectiv, 18,5 gigaflopi. Adesea, în loc de operația de divizare în virgulă mobilă, datele sunt încărcate în modul DMA din RAM pe stiva procesorului. Așa funcționează programul LINPACK în unele teste, dar, strict vorbind, rezultatul nu este o valoare de flop.

Notă: observația despre imposibilitatea de a efectua mai mult de o operație pe ciclu de ceas este absolut incorectă, deoarece toate procesoare moderne fiecare nucleu conține mai multe unități de execuție de fiecare tip (inclusiv cele pentru operațiuni în virgulă mobilă) care funcționează în paralel și poate executa mai mult de o instrucțiune pe ciclu de ceas. Această caracteristică arhitectura se numește superscalar și a apărut pentru prima dată în primul procesor

Revizuirea performanței reale a sistemului

Datorită dispersării mari a rezultatelor testului LINPACK, sunt date valori aproximative, obținute prin mediarea indicatorilor pe baza informațiilor din diferite surse. Performanța consolelor de jocuri și a sistemelor distribuite (cele care au o specializare îngustă și nu acceptă testul LINPACK) sunt date cu titlu de referință în conformitate cu numerele declarate de dezvoltatorii acestora. Rezultate mai precise care indică parametrii sistemelor specifice pot fi obținute, de exemplu, pe site-ul web.

Supercalculatoare

Calculatoare personale

Procesoare

  • Intel Core 2 Duo E8400 3.0GHz () - 18.6 Gflops Când utilizați versiunea standard a LINPACK 10
  • Intel Core 2 Duo E8400 3.0GHz @4.0GHz () - 25 Gflops (LINPACK Benchmark 10.0 64-bit) în Windows Vista x64 Ultimate SP1
  • Intel Core 2 Quad Q9450 2.66GHz @3.5GHz - 48 GFlops (LINPACK Benchmark 10.0 64-bit) pe Windows 2003sp2 x64

Calculatoare de buzunar

Sisteme distribuite

Console de jocuri

Omul și calculatorul

Note

Vezi si

Legături

  • TOP500 Evaluare supercomputer TOP500 (engleză)
  • Serverul bazei de date de performanță Baza de date mare de performanță a computerelor
  • Colecția de benchmark pentru PC de la Roy Longbottom O selecție de programe de referință pentru PC (inclusiv LINPACK) și rezultate ale testelor (engleză)
  • Linpack CPU Benchmark pentru Pocket PC versiunea LINPACK pentru PDA-uri (engleză)

Fundația Wikimedia. 2010.

Vedeți ce este „Petaflops” în alte dicționare:

    Captură de ecran a clientului Folding@home pentru PlayStation 3, care arată un model 3D al proteinei care este simulată Tipul de calcul distribuit... Wikipedia

Sony Computer Entertainment Inc. a fost mândru să anunțe că participarea sistemului de divertisment PLAYSTATION 3 a permis proiectului Folding@home al Universității Stanford să atingă o capacitate cumulată de peste 1 petaflop.

Un petaflop este capacitatea unui computer sau a unei rețele de a efectua 1 cvadrilion (unul urmat de 24 de zerouri) calcule în virgulă mobilă pe secundă (FLOPS). Cu alte cuvinte, dacă fiecare persoană de pe Pământ ar efectua un calcul matematic simplu (de exemplu, calculând procentul unei anumite sume), atunci fiecare pământean ar trebui să facă 75.000 de simple. calcule matematice pe secundă pentru ca puterea totală de calcul a umanității să atingă petaflopi.

Această creștere a puterii de calcul pentru proiectul Folding@home va accelera semnificativ cercetarea care a durat anterior decenii. Și toate acestea sunt posibile de Cell Broadband Engine (Cell/B.E.) utilizat în PLAYSTATION 3, care are o putere de procesare de peste 180 GFLOPS (miliarde de operațiuni în virgulă mobilă pe secundă). Celula/B.E. de aproximativ 10 ori mai rapid decât un procesor de PC convențional, astfel încât PLAYSTATION 3 poate fi numit, fără exagerare, un supercomputer de acasă. Participarea PLAYSTATION 3 la proiect îi ajută pe oamenii de știință să identifice cauzele bolilor precum boala Parkinson, boala Alzheimer și cancerul.

Potrivit lui Vijay Pande, profesor asociat de chimie la Universitatea Stanford și lider de proiect Folding@home, includerea PLAYSTATION 3 în proiectul Folding@home a oferit oamenilor de știință mai multă putere decât și-ar fi putut imagina vreodată.

La rândul său, președintele și CEO-ul diviziei americane a SCEI, Jack Tretton, a spus că chiar și în stadiul de dezvoltare, inginerii companiei știau că puterea PLAYSTATION 3 va fi folosită nu numai pentru divertisment, ci și în beneficiul tuturor. umanitatea. Pentru întreaga echipă SCEI, folosirea creației ei în proiecte precum Folding@home este o sursă de mândrie.

Cercetarea proteinelor este un proces extrem de complex. U computer obișnuit rezolvarea celei mai simple probleme poate dura până la 30 de ani. Folding@home distribuie calcularea pe mii de computere conectate o singură rețea. Până de curând, Folding@home a folosit doar calculatoare personale. La proiect au participat aproximativ 200 de mii de computere, a căror putere totală a fost de aproximativ un sfert de petaflop. Datorită unei actualizări interne de software din 15 martie 2007, PLAYSTATION 3 a „învățat” să lucreze cu proiectul. De atunci, peste 600.000 de utilizatori PLAYSTATION 3 s-au înregistrat la Folding@home, depășind marca de putere 1 petaflop.

Pentru a participa la Folding@home, tot ce trebuie să faceți este să vă conectați PLAYSTATION 3 la Internet, să descărcați versiune noua intern software Software de sistem și faceți clic pe pictograma Folding@home din secțiunea „Rețea” din meniul principal XMB (XrossMediaBar). În setări, puteți seta opțiunea de a lansa automat aplicația Folding@home în timp ce PLAYSTATION 3 este în modul de așteptare. Pentru a lansa automat aplicația, PLAYSTATION 3 trebuie să fie pornit și conectat la Internet.

Este de remarcat faptul că Folding@home este doar începutul. SCEI intenționează să adauge suport pentru PLAYSTATION 3 pentru multe alte proiecte de calcul distribuite în domenii științifice, de la medicină la cercetare socială și de mediu. În același timp, proprietarii PLAYSTATION 3 vor putea determina singuri spre ce scopuri să direcționeze puterea sistemului lor de divertisment.

Tehnologia calculatoarelor se dezvoltă vertiginos. Prin urmare, este probabil ca în momentul publicării acestui articol, lumea să fi văzut un nou „monstru de calcul”. Am dori să vă prezentăm primii zece lideri pentru noiembrie 2012.

1. Titan (SUA) - 17,59 petaflopi

Primul loc a fost ocupat de supercomputerul american Titan, creat cu participarea Cray și Nvidia. Este situat la Laboratorul Național Oak Ridge din Tennessee, care este deținut de Departamentul de Energie al SUA. Titan poate efectua 17,59 cvadrilioane operațiuni în virgulă mobilă pe secundă, echivalentul a 17,59 petaflopi de performanță.

Titan este format din 18688 de noduri. Este creat pe o arhitectură de tip hibrid: fiecare nod de supercomputer include un 16-core procesor AMD Acceleratorul grafic Opteron și Nvidia Tesla K20X. Utilizare GPU-uri vă permite să reduceți consumul de energie al sistemului.

Titan este folosit pentru a proiecta motoare eficiente energetic pt Vehicul, modelarea efectelor schimbărilor climatice și pentru studierea biocombustibililor. Oak Ridge închiriază supercalculatorul altor organizații de cercetare.

2. Sequoia (SUA) - 16,32 petaflopi

Supercomputerul Sequoia, deținut și de Departamentul de Energie al SUA, rulează pe 1.572.864 de nuclee. Sequoia este dezvoltat de IBM pentru National Nuclear Security Administration, ca parte a programului său Advanced Computing and Simulation.

Sequoia va fi folosit în primul rând pentru a simula exploziile nucleare, înlocuind supercalculatoarele ASC Purple și Blue Gene/L care operează la Laboratorul Național Livermore. Sequoia va putea, de asemenea, să rezolve probleme pentru nevoile de astronomie, energie, studiul genomului uman și schimbările climatice.

Sequoia este construit pe arhitectura Blue Gene/Q, care este cea mai recentă generație din linia de arhitecturi de supercomputing Blue Gene. Supercomputerul este format din 98.304 de noduri de calcul și are 1,6 PB de memorie în 96 de rafturi situate pe o suprafață de 300 de metri pătrați. Se folosesc procesoare centrale Power Architecture cu 16 sau 8 nuclee fabricate folosind tehnologia de proces de 45 nm.

IBM a creat un computer care poate rezolva 20 de cvadrilioane diferite operații matematice într-o secundă. Asta înseamnă că dacă 7 miliarde de oameni ar lua calculatoare și ar începe să facă calcule matematice simultan fără pauze, toate 24 de ore pe zi, toate cele 365 de zile, atunci aceste operațiuni ar dura până la 320 de ani, nu mai puțin. Dar acum nu trebuie să faci asta, pentru că a apărut Sequoia. Computerul va efectua astfel de calcule în doar o oră.

3. Computer K (Japonia) - 10,51 petaflops

K computer este un supercomputer japonez produs de Fujitsu, lansat în 2011 la Institutul de Cercetări Fizice și Chimice RIKEN din Kobe. Numele provine de la prefixul japonez „kei”, adică 10 cvadrilioane și în același timp desemnând capitala, adică o aluzie la „calculatorul principal”

În iunie 2011, sistemul avea 68.544 de procesoare SPARC64 VIIIfx cu 8 nuclee găzduite în 672 de rafturi de calcul, reprezentând 548.352 de nuclee de calcul fabricate de Fujitsu pe procesul de 45 nm. Supercomputerul folosește răcirea cu apă, ceea ce reduce consumul de energie și crește densitatea ambalajului.

4. Mira (SUA) - 8,16 petaflopi

Folosind supercomputerul IBM Blue Gene/Q (Mira), oamenii de știință americani vor încerca să simuleze Universul. Oamenii de știință speră să obțină răspunsuri la cele mai interesante întrebări despre originea Universului. Se plănuiește utilizarea unui computer pentru a simula și calcula în mod constant cele 12 miliarde de ani care au trecut de la Big Bang.

Supercomputerul este format din 50 de mii de noduri de calcul, fiecare conținând 16 nuclee. Computerul folosește o capacitate uriașă de stocare de 70 de petaocteți și un sistem de răcire cu lichid. Mira este capabilă să efectueze 8 cvadrilioane operații pe secundă.

5. JuQueen (Germania) - 5,9 petaflopi

Cel mai puternic supercomputer din Europa, JuQueen, a fost lansat oficial în orașul german Jülich (Renania de Nord-Westfalia). Performanța sa este de 5,9 petaflopi sau 5,9 mii de trilioane de operațiuni pe secundă.

Procesoarele JuQueen au un total de aproape 459 de mii de nuclee. Mai mult, au fost dezvoltate folosind tehnologii de economisire a energiei. Sistemul va fi racit folosind fluxuri de apa circulante la o temperatura de 18 grade. Experții indică faptul că această mașină este de aproximativ 100 de mii de ori mai puternică decât cel mai modern computer personal.

Computerul a fost dezvoltat de IBM Corporation. Proiectul a fost finanțat din fondurile celei mai mari organizații științifice din Germania - Centrul Helmholtz, bugetul federal, precum și din trezoreria Renania de Nord-Westfalia. Suma exactă nu a fost dezvăluită.

6. SuperMUC (Germania) - 2,9 petaflopi

SuperMUC, al doilea cel mai puternic supercomputer din Europa, a fost lansat la sfârșitul lunii iunie 2012. Supercomputerul a fost creat pentru a rezolva probleme științifice complexe din domeniul fizicii și dinamicii fluidelor. Aparatul rulează pe platforma SUSE Linux Enterprise Server. SuperMUC de pe platforma IBM System X iDataPlex dispune de peste 155.000 de nuclee de procesor care oferă împreună performanțe de vârf de aproximativ 3 petaflopi.

O caracteristică specială a SuperMUC este tehnologia inovatoare de răcire a sistemului cu apă caldă, dezvoltată de IBM, care se bazează pe sistemul de circulație a sângelui în corpul uman. Drept urmare, SuperMUC cheltuiește cu 40% mai puțină energie pe sistemele de răcire decât centrele de calcul „clasice” și, de asemenea, permite ca energia economisită să fie acumulată și utilizată pentru încălzirea clădirilor Centrului de calculatoare Leibniz.

7. Stampede (SUA) - 2,7 petaflopi

Texas Advanced Computing Center (TACC) de la Universitatea din Texas a creat un supercomputer capabil să efectueze 2,7 cvadrilioane operații în virgulă mobilă pe secundă. TACC face parte din proiectul XSEDE (Environment for Advanced Science and Engineering Discovery), care își propune să ofere cercetătorilor acces la resurse de supercalculatură.

Stampede se bazează pe arhitectura hiperscalară a Dell, alimentată de procesoare Intel Xeon E5-2680 cu 8 nuclee. Procesoarele Xeon oferă mai mult de 2 petaflopi de performanță. Proiectul este o lucrare în desfășurare, iar în 2013 Stampede va folosi și noi coprocesoare Intel Xeon Phi concepute pentru calcul paralel, care vor fi responsabile pentru mai mult de 7 petaflopi de performanță a sistemului. Acest lucru va crește performanța totală a sistemului la 10 petaflopi.

Pe lângă Xeon Phi, supercomputerul va folosi 128 de acceleratoare grafice de ultimă generație de la NVIDIA pentru a oferi virtualizare la distanță. Performanța sistemului poate crește la 15 petaflops pe măsură ce sunt instalate procesoare Intel nou generatii. Un alt furnizor de componente pentru Stampede este Mellanox, care furnizează echipamente de rețea Infiniband debitului 56 Gbps.

Sistemul de răcire al supercomputerului este construit pe principiul izolării zonelor fierbinți și presupune utilizarea modulelor de răcire încorporate, ceea ce permite amplasarea echipamentelor cu o densitate mare de până la 40 kW per rack. Sistemul de distribuție a energiei furnizează 415V la rafturi și 240V la servere. Cerințele de energie electrică ale sistemelor Stampede și Ranger sunt asigurate de o substație electrică de 10 MW.

8. Tianhe-1A (China) - 2,57 petaflopi

Tianhe-1A este un supercomputer proiectat de universitate Națională tehnologii de apărare ale Republicii Populare Chineze. Viteza calculelor efectuate de supercomputer este de 2,57 petaflopi.

Tianhe-1A folosește 7.168 de GPU-uri Nvidia Tesla M2050 și 14.336 de procesoare pentru server Intel Xeon. Potrivit Nvidia, supercomputerul folosește energia electrică de trei ori mai eficient decât alte computere electronice din clasa sa. Un supercomputer construit exclusiv pe unități centrale de procesare (CPU) ar consuma mai mult de 12 MW de energie electrică la viteze de calcul comparabile. Puterea electrică consumată de Tianhe-1A este de 4,04 MW. Fără utilizarea procesoarelor grafice, un supercomputer cu performanțe comparabile ar necesita instalarea a peste 50 de mii de procesoare.

Construcția supercalculatorului a costat 88 de milioane de dolari, iar cheltuielile anuale de operare sunt de aproximativ 20 de milioane de dolari. Aproximativ 200 de specialiști sunt angajați în întreținere. Domeniul principal de lucru este cercetarea producției de petrol și aerodinamică. Declarat " acces deschis„la un supercomputer, care teoretic permite utilizarea lui de către alte țări.

9. Fermi (Italia) - 1,7 petaflopi

Pe locul nouă se află Fermi. Sistempostatpe serverele consorțiului non-profit Cineca, care include 54 de universități și organizații de cercetare italiene.Fermi este format din 10.240 de procesoare PowerA2 tactate la 1,6 GHz, cu 16 nuclee fiecare. În total, computerul are 163.840 de nuclee de procesare.Fiecare procesor vine cu 16 GB de RAM (1 GB per nucleu).Fermi este folosit de echipele de cercetare italiene și europene pentru a efectua calculele necesare în proiecte de cercetare la scară largă care vizează rezolvarea problemelor fundamentale din știință și tehnologie.Sistemul poartă numele lui Enrico Fermi, un fizician nuclear italian.

10. Subset de probă DARPA (SUA) - 1,5 petaflopi

Acest sistem este un server IBM Power 775 cu 63.360 de nuclee, care atinge performanțe de 1,5 petaflops. Alte informatii la acest moment Nu.

În concluzie…

Dezvoltare rusă - supercomputerul Lomonosov, deținut de Universitatea de Stat din Moscova, numit după M.V. Lomonosov, în această listă (la sfârșitul anului 2012) ocupă locul douăzeci și doi. Performanța sa a fost de 0,9 petaflopi. Principalul motiv pentru care mașinile autohtone nu ocupă poziții de frunte în clasamentele internaționale este Producătorii ruși invocă în unanimitate lipsa unei finanțări adecvate.

Principalul tip de noduri care asigură peste 90% din performanța supercomputerului este T-Blade2. Această platformă de supercomputer a fost creată de inginerii T-Platform de la zero - toate plăcile și componentele sale mecanice sunt propriile dezvoltări brevetate ale companiei. În ceea ce privește densitatea de calcul pe metru pătrat de suprafață, T-Blade2 nu are analogi în lume. Deci, în ciuda tuturor, producătorii ruși pot fi mândri că au creat cel mai „compact” supercomputer din lume!

Studiile arată că, în medie, puterea de calcul a PC-urilor desktop rămâne cu 13 ani în urma performanței supercomputerelor. Cu alte cuvinte, din punct de vedere al performanței, PC-urile profesionale de astăzi sunt aproape identice cu supercomputerele de acum 13 ani. Acesta este motivul pentru cercetarea de piață HPC - mod bun să evalueze direcția de dezvoltare a computerelor de masă a viitorului. Nu cu mult timp în urmă, supercalculatoarele au depășit nivelul de performanță de un teraflops (un trilion de operațiuni în virgulă mobilă pe secundă) și nu sunt departe de a obține performanțe la nivel de petaflops (un cvadrilion de flops, sau 1015 operațiuni în virgulă mobilă pe secundă). în timp ce tera computing va rămâne cu utilizatorul mediu de PC...

Profesorul și scriitorul american Steve Chen a încercat să-și imagineze ce nivel de productivitate ar fi suficient pentru a rezolva diverse probleme în viitor. În opinia sa, pentru problemele de aerodinamică va fi suficientă o performanță de mai mulți petaflopi, pentru problemele de dinamică moleculară vor fi necesari 20 de petaflopi, pentru cosmologie computațională - o performanță fantastică de 10 exaflopi (un exaflop este egal cu un quintilion, sau 1018). flops), iar pentru probleme de chimie computațională, vor fi necesare mai multe procesoare mai puternice. Calculatoarele cu performanțe de sextilioane, sau 1.021 de operațiuni în virgulă mobilă pe secundă, vor fi disponibile până în 2029, potrivit Steve Pawlowski, inginer de cercetare senior distins la Intel, director de tehnologie și director general de arhitectură și planificare pentru Digital Enterprise Group al Intel.

Steve Pawlowski crede că provocările și progresele supercomputerelor de astăzi vor fi provocările și progresele computerelor desktop de mâine. Piața de calcul de înaltă performanță este în creștere - volumul acesteia a ajuns deja la 10 miliarde de dolari, iar în unele sectoare creșterea anuală a vânzărilor depășește 30%; Crește și numărul de computere profesionale de înaltă performanță bazate pe procesoare Intel vândute în întreaga lume.

Cu doar 60 de ani în urmă, computerul cu tub ENIAC, considerat vârful tehnologic al calculului de înaltă performanță, avea doar 20 de celule RAM. La mijlocul anilor '60 a apărut supercomputerul CDC 6600, a cărui performanță a ajuns la 9 megaflopi. Abia în 1997 supercomputerul ASCII Red, care conținea 9298 de procesoare Intel Pentium Pro, a atins un nivel de performanță egal cu teraflopi. Astăzi, un sistem alimentat de 464 de procesoare quad-core Intel Xeon seria 5300 oferă performanțe de șase ori mai mari într-o amprentă mult mai mică.

Când vor fi atinși petaflopi (adică mii de teraflopi) de performanță sau, așa cum spune Steve Pawlowski la figurat, va fi ruptă „bariera sunetului” a performanței peta? Și când va deveni peta computing baza pentru sistemele informatice obișnuite?

Se estimează că primele supercomputere peta vor apărea încă din 2008-2009 - pentru a determina acest interval de timp, trebuie doar să luați parametrii de performanță ai celor mai rapide computere din lume, publicate pe site-ul www.top500.org, și să-i extrapolați în conformitate cu tendințele de creștere observate. Cu toate acestea, pentru a crea computere pentru animale de companie pentru piața de masă, multe probleme serioase trebuie rezolvate. În acest scop, Intel Corporation, împreună cu parteneri, efectuează cercetări în următoarele domenii:

  • performanţă;
  • lățimea de bandă a memoriei;
  • interconexiuni;
  • gestionare a energiei;
  • fiabilitate.

Potrivit lui Steve Pawlowski, pentru a ajunge la nivelul de calcul peta folosind tehnologii moderne creșterea performanței cipurilor semiconductoare va necesita crearea unui procesor cu 100 de mii de nuclee de calcul. Pentru implementarea practică a unor astfel de sisteme, densitatea nucleelor ​​de pe un cip va trebui să crească semnificativ. Astăzi, există dezbateri aprinse despre arhitectura viitoarelor computere - care este mai bine: multe nuclee mici optimizate pentru a accelera calculul paralel sau câteva nuclee mai mari concepute pentru a accelera calculul secvenţial? Înclinând spre prima cale de dezvoltare, cercetătorii înțeleg că își stabilesc sarcina intensivă de muncă de a transfera industria software la programarea paralelă...

Un alt domeniu al cercetării Intel este organizarea conexiunilor între nucleele de calcul. Conexiunile de autobuz partajate ocupă mai puțin spațiu, au un randament mare și se scalează bine, dar sunt ineficiente din punct de vedere energetic. A doua opțiune este o conexiune în inel a nucleelor ​​pentru transmiterea semnalului, al cărei dezavantaj este nivelul scăzut de scalabilitate pe măsură ce numărul de nuclee crește. A treia opțiune este o arhitectură matriceală, când fiecare nucleu comunică cu fiecare printr-un lanț de nuclee învecinate.

Merită să ne amintim că la Intel Developer Forum (IDF) din toamnă din San Francisco, a fost prezentat un prototip de procesor cu 80 de nuclee, care ar putea oferi performanțe la nivel de teraflops pentru computere desktop. Potrivit directorului de tehnologie al Intel, Justin Rattner, data estimată a lansării pe piață a unui astfel de procesor este 2010 sau chiar mai devreme. Prototipul de procesor se bazează pe arhitectura x86 și pe astfel de dezvoltări Intel precum un sistem de calcul de înaltă performanță pe un cip (HPC-on-chip), o nouă structură pentru conectarea elementelor de memorie, noi tehnologii de economisire a energiei etc.

În 2006, Intel a anunțat un program global de cercetare numit Tera-Scale Computing, care reunește peste 80 de proiecte de cercetare diferite din întreaga lume, distribuite în trei domenii principale: îmbunătățirea tehnologiilor de proiectare și fabricare a siliciului, optimizarea platformei și noi abordări ale programării. În discursul său la IDF, Justin Rattner a menționat că pașii necesari către era tera vor fi făcuți în următorul deceniu. De exemplu, cercetările moderne vizează optimizarea funcționării memoriei cache, făcând-o configurabilă în funcție de sarcinile rezolvate și dezvoltarea paralelismului pentru accesul mai multor nuclee la memoria partajată. Intel intenționează, de asemenea, să integreze în cipurile sale un transceiver digital plug-and-play fără fir cu gamă largă, cu aplicații bazate pe principiile fotonicei integrate pe siliciu la orizont.

„Ratele mari de transfer de date între nucleele de procesare și memorie reprezintă o problemă importantă”, subliniază Pawlowski. - Memoria trebuie să aibă o lățime de bandă extrem de mare. Mai mult, dacă creșteți frecvența ceasului canal de memorie, atunci destul de curând ne vom confrunta cu limitările fizice impuse de conductorii de cupru.” Unul dintre moduri posibile A depăși aceste limitări înseamnă a crește numărul de canale de memorie, dar acest lucru crește dimensiunea procesorului și costul acestuia. „Va trebui să căutăm tehnologii de transmisie a datelor mai exotice”, spune Pawlowski. „Conform calculelor noastre, procesoarele peta vor necesita memorie cu o lățime de bandă de aproximativ 500 GB/s.”

Următorul aspect cel mai important al computerelor pentru animale de companie este viteza sistemului de intrare/ieșire. Oamenii de știință Intel lucrează acum pentru a atinge rate de transfer de date de până la sute de gigaocteți pe secundă (GB/s).

Cu toate acestea, cele mai mari provocări în crearea dispozitivelor peta sunt alimentarea cu energie și fiabilitatea. Consumul de energie al unui centru mare de procesare a datelor (DPC) modern este în medie de 9-10 MW. Puterea consumată de un computer cu 100 de mii de nuclee poate fi de aproximativ 20 MW. La aceasta trebuie adăugată puterea necesară răcirii peta-calculatoarelor. La costurile curente ale energiei electrice, costurile cu energie electrică numai pentru un sistem peta ar depăși 14,6 milioane USD pe an. De aceea întrebarea utilizare eficientă electricitatea este extrem de importantă, ceea ce dictează utilizarea tehnologiilor de economisire a energiei la toate nivelurile - de la tranzistori la centre de date:

  • la nivel de tranzistor - tehnologii de siliciu tensionat, tehnologii de reducere a curenților de scurgere etc.;
  • la nivel de procesor - distribuția sarcinii bazată pe multithreading;
  • la nivel de sistem - management energetic de înaltă precizie în funcție de sarcina sistemului;
  • la nivelul centrului de date - utilizarea sistemelor avansate de răcire cu lichid și aer, precum și integrarea verticală a soluțiilor de disipare a căldurii.

Mai mult, cercetătorii prevăd apariția unor probleme complet neașteptate asociate cu... razele cosmice. La urma urmei, procesoarele peta cu elemente de calcul foarte integrate vor folosi tranzistori atât de mici încât vor fi susceptibili la influența particulelor energetice care alcătuiesc razele cosmice și pot cauza erori aleatorii ale datelor dacă lovesc tranzistorul. Pe măsură ce densitatea tranzistorilor de pe un cip crește, numărul de astfel de defecțiuni aleatoare va crește rapid. „Dacă numărul de nuclee de pe un cip ajunge la 100 de mii, astfel de defecțiuni vor deveni incontrolabile”, spune Pawlowski. „Vor avea un impact din ce în ce mai mare asupra funcționării sistemului și vor trebui să fie tratate.” Am început deja cercetări în această direcție.” Tehnologii promițătoare Asigurarea fiabilității include utilizarea codurilor de paritate și de corectare a erorilor, precum și utilizarea nucleelor ​​redundante pentru a verifica rezultatele calculelor nucleelor ​​principale ale sistemului.