Kostenlose technische Bibliothek TECHNOLOGIEGESCHICHTE, TECHNOLOGIE, OBJEKTE UM UNS
Supercomputer. Geschichte der Erfindung und Produktion Verzeichnis / Die Geschichte der Technik, Technik, Objekte um uns herum Ein Supercomputer ist eine Rechenmaschine, die in ihren technischen Parametern die meisten existierenden Computer deutlich übertrifft. Bei modernen Supercomputern handelt es sich in der Regel um eine große Anzahl von Hochleistungs-Serverrechnern, die über einen lokalen Hochgeschwindigkeits-Backbone miteinander verbunden sind, um im Rahmen eines parallelen Rechenansatzes maximale Leistung zu erzielen. 1996 schrieb der Kurator des Museum of Computing im Vereinigten Königreich, Doron Swade, einen Artikel mit einem sensationellen Titel: „Die russische BESM-Serie von Supercomputern, die vor mehr als 40 Jahren entwickelt wurde, kann die Lügen der Vereinigten Staaten bezeugen, die in den Jahren des Kalten Krieges ihre technologische Überlegenheit erklärten." Tatsächlich war die Mitte der 1960er Jahre ein Höhepunkt in der Geschichte der sowjetischen Computertechnologie. Zu dieser Zeit arbeiteten viele Kreativteams in der UdSSR - die Institute von S.A. Lebedeva, I.S. Bruk, V.M. Glushkov usw. Gleichzeitig wurden viele verschiedene Maschinentypen für die unterschiedlichsten Zwecke hergestellt, die meistens nicht miteinander kompatibel waren. Der BESM-1965 wurde 1967 entwickelt und 6 zum ersten Mal auf den Markt gebracht. Er war der ursprüngliche russische Computer, dessen Design seinem westlichen Gegenstück ebenbürtig war. Dann gab es den berühmten "Elbrus", es gab die Entwicklung von BESM (Elbrus-B). V.M. Glushkov hat eine wunderbare technische Rechenmaschine geschaffen - "Mir-2" (ein Prototyp eines Personal Computers), die noch keine westlichen Analoga hat. Es war das Elbrus-Team, das als erstes die superskalare Architektur entwickelte, nachdem es viele Jahre früher als der Westen die darauf basierende Elbrus-1-Maschine gebaut hatte. In diesem Team wurden einige Jahre früher als in der Firma "Cray" - einem anerkannten Marktführer in der Herstellung von Supercomputern - die Ideen eines Multiprozessorcomputers umgesetzt.
Boris Artashesovich Babayan, wissenschaftlicher Leiter der Elbrus-Gruppe, Professor, korrespondierendes Mitglied der Russischen Akademie der Wissenschaften, glaubt, dass die bedeutendste Errungenschaft der Gruppe die Architektur der Elbrus-3-Supermaschine ist. „Die logische Geschwindigkeit dieser Maschine ist viel höher als die aller vorhandenen, das heißt, auf derselben Hardware ermöglicht uns diese Architektur, die Aufgabe um ein Vielfaches zu beschleunigen. Wir haben zum ersten Mal Hardwareunterstützung für sichere Programmierung implementiert , wir haben es im Westen noch nicht einmal ausprobiert. "Elbrus-3 "wurde 1991 gebaut. Es war an unserem Institut bereits fertig, wir haben mit der Fehlersuche begonnen. Westliche Firmen sprachen so viel über die Möglichkeit, eine solche Architektur zu schaffen ... Die Technologie war ekelhaft, aber die Architektur war so perfekt, dass diese Maschine doppelt so schnell war wie der schnellste amerikanische Supersportwagen der damaligen Zeit, der Cray Y-MP. Die Prinzipien der sicheren Programmierung werden derzeit in das Konzept der Java-Sprache implementiert, und ähnliche Ideen wie bei Elbrus bilden nun die Grundlage für die neue Prozessorgeneration Merced, die von Intel zusammen mit HP entwickelt wurde. "Wenn Sie sich Merced ansehen, ist es praktisch die gleiche Architektur wie in Elbrus-3. Vielleicht sind einige Details von Merced anders, und nicht zum Besseren." So war es trotz der allgemeinen Stagnation noch möglich, Computer und Supercomputer zu bauen. Leider ist unseren Computern dasselbe passiert wie der russischen Industrie im Allgemeinen. Aber heute strebt ein neuer, auf den ersten Blick exotischer Parameter beharrlich danach, in die Zahl der traditionellen makroökonomischen Indikatoren (wie BIP und Gold- und Devisenreserven) einzudringen - die Gesamtkapazität der Computer, über die das Land verfügt. Den größten Anteil an diesem Indikator werden Supercomputer haben. Vor fünfzehn Jahren waren diese Maschinen einzigartige Monster, aber jetzt wurde ihre Produktion in Betrieb genommen. „Anfangs wurde der Computer für komplexe Berechnungen im Zusammenhang mit der Atom- und Raketenforschung geschaffen“, schreibt Arkady Volovik in der Zeitschrift Kompaniya, „wenige wissen, dass Supercomputer dazu beigetragen haben, das ökologische Gleichgewicht auf dem Planeten aufrechtzuerhalten: Während des Kalten Krieges simulierten Computer Veränderungen in Atomwaffen, und diese Experimente ermöglichten es den Supermächten schließlich, auf die eigentlichen Tests von Atomwaffen zu verzichten. So wird der leistungsstarke Multiprozessorcomputer Blue Pacific von IBM genau zur Simulation von Atomwaffentests eingesetzt. Tatsächlich haben Informatiker nicht zum Erfolg beigetragen Verhandlungen zum Stopp von Atomtests Compaq Computer Corp. baut Europas größten Supercomputer auf Basis von 2500 Alpha-Prozessoren Die französische Nuklearenergiekommission wird den Supercomputer einsetzen, um die Sicherheit der französischen Arsenale ohne weitere Atomtests zu verbessern. Bei der Konstruktion von Luftfahrtgeräten sind nicht weniger umfangreiche Berechnungen erforderlich. Die Modellierung der Parameter eines Flugzeugs erfordert enorme Leistung – um beispielsweise die Oberfläche eines Flugzeugs zu berechnen, müssen die Parameter der Luftströmung an jedem Punkt der Tragfläche und des Rumpfs pro Quadratzentimeter berechnet werden. Mit anderen Worten, es ist erforderlich, die Gleichung für jeden Quadratzentimeter zu lösen, und die Oberfläche des Flugzeugs beträgt mehrere zehn Quadratmeter. Bei Änderung der Flächengeometrie muss alles neu berechnet werden. Darüber hinaus müssen diese Berechnungen schnell durchgeführt werden, da sich sonst der Entwurfsprozess verzögert. Die Raumfahrt begann nicht mit Flügen, sondern mit Berechnungen. Supercomputer haben hier ein riesiges Anwendungsfeld." Die Boeing Corporation setzte einen von Linux NetworX entwickelten Supercluster ein, mit dem das Verhalten von Treibstoff in der Delta-IV-Rakete simuliert wurde, die für den Start von Satelliten für verschiedene Zwecke ausgelegt ist. Von den vier betrachteten Cluster-Architekturen hat sich Boeing für den Linux-Cluster NetworX entschieden, weil er akzeptable Betriebskosten bietet und die Anforderungen des Delta-IV-Projekts in Bezug auf die Rechenleistung sogar übertrifft. Der Cluster besteht aus 96 Servern auf Basis von AMD Athlon 850 MHz Prozessoren, die über Hochgeschwindigkeits-Ethernet-Verbindungen miteinander verbunden sind. Im Jahr 2001 installierte IBM für das US-Verteidigungsministerium im Supercomputing Center auf Hawaii einen Linux-Cluster mit 512 Prozessoren und einer Verarbeitungskapazität von 478 Milliarden Operationen pro Sekunde. Neben dem Pentagon soll der Cluster auch von anderen Bundesressorts und wissenschaftlichen Einrichtungen genutzt werden: insbesondere ein Cluster zur Vorhersage der Geschwindigkeit und Richtung der Ausbreitung von Waldbränden. Das System besteht aus 256 IBM eServerx330 Thin Servern mit jeweils zwei Pentium-III-Prozessoren. Die Server werden über einen von Myricom entwickelten Clustering-Mechanismus verbunden. Der Anwendungsbereich von Supercomputern ist jedoch nicht auf den militärisch-industriellen Komplex beschränkt. Heute sind Biotech-Unternehmen große Kunden von Supercomputern.
"Als Teil des Human Genome Programms erhielt IBM", schreibt Volovik, "den Auftrag, einen Computer mit mehreren zehntausend Prozessoren zu bauen. Die Entschlüsselung des menschlichen Genoms ist jedoch nicht das einzige Beispiel für den Einsatz von Computern Biologie: Die Entwicklung neuer Medikamente ist heute nur mit leistungsstarken Computern möglich Daher sind Pharmariesen gezwungen, stark in Computertechnologie zu investieren, was einen Markt für Hewlett-Packard, Sun, Compaq bildet ein neues Medikament dauerte 5-7 Jahre und erforderte erhebliche finanzielle Kosten. Heute werden Medikamente jedoch leistungsstarken Computern nachempfunden, die nicht nur Medikamente „bauen", sondern auch ihre Wirkung auf den Menschen bewerten. Amerikanische Immunologen haben ein Medikament entwickelt, das 160 bekämpfen kann Viren. Dieses Medikament wurde sechs Monate lang auf einem Computer modelliert. Eine andere Art, es herzustellen, würde mehrere Jahre Arbeit erfordern". Und im Los Alamos National Laboratory wurde die weltweite AIDS-Epidemie bis zu ihrem Ursprung „zurückgerollt“. Daten über Kopien des AIDS-Virus wurden in einen Supercomputer eingegeben, wodurch es möglich wurde, den Zeitpunkt des Auftretens des allerersten Virus - 1930 - zu bestimmen. Mitte der 1990er Jahre entstand ein weiterer großer Markt für Supercomputer. Dieser Markt steht in direktem Zusammenhang mit der Entwicklung des Internets. Die Menge an Informationen im Web hat beispiellose Ausmaße erreicht und wächst weiter. Darüber hinaus wachsen die Informationen im Internet nicht linear. Mit der Zunahme der Datenmenge verändert sich auch die Form ihrer Präsentation – Text und Zeichnungen wurden um Musik, Video und Animation ergänzt. Daraus ergaben sich zwei Probleme – wo die immer größer werdenden Datenmengen gespeichert werden sollten und wie die Zeit reduziert werden sollte, die zum Auffinden der richtigen Informationen benötigt wird. Supercomputer kommen auch überall dort zum Einsatz, wo große Datenmengen verarbeitet werden müssen. Zum Beispiel im Bankwesen, in der Logistik, im Tourismus, im Transportwesen. Compaq hat kürzlich einen Supercomputer-Vertrag im Wert von 200 Millionen US-Dollar an das US-Energieministerium vergeben. Hironobu Sakaguchi, Präsident der PC-Spielefirma Square, sagt: „Heute bereiten wir einen Film vor, der auf unseren Spielen basiert. Square „berechnet“ ein Bild aus dem Film in 5 Stunden. Auf GCube dauert dieser Vorgang 1/30 Sekunde ." Damit erreicht der Prozess der Medienproduktion ein neues Level: Die Arbeitszeit am Produkt wird reduziert, die Kosten für einen Film oder ein Spiel deutlich reduziert. Die starke Konkurrenz zwingt die Spieler dazu, die Preise für Supercomputer zu senken. Eine Möglichkeit, den Preis niedrig zu halten, besteht darin, viele Standardprozessoren zu verwenden. Diese Lösung wurde von mehreren "Spielern" des großen Computermarktes gleichzeitig erfunden. Infolgedessen erschienen zur Zufriedenheit der Käufer serielle, relativ kostengünstige Server auf dem Markt. Tatsächlich ist es einfacher, umständliche Berechnungen in kleine Teile zu unterteilen und die Ausführung jedes dieser Teile einem separaten, kostengünstigen, in Massenproduktion hergestellten Prozessor anzuvertrauen. Aus 500 konventionellen Pentium-Prozessoren besteht beispielsweise ASCI Red von „Intel“, das bis vor kurzem die erste Zeile in der TOP9632-Tabelle der schnellsten Computer der Welt belegte. Ein weiterer wichtiger Vorteil dieser Architektur ist ihre Skalierbarkeit: Durch einfaches Erhöhen der Prozessoranzahl lässt sich die Leistung des Systems steigern. Allerdings mit einigen Einschränkungen: Erstens wächst die Leistung mit zunehmender Anzahl einzelner Rechenknoten nicht direkt proportional, sondern etwas langsamer, ein Teil der Zeit wird zwangsläufig dafür aufgewendet, das Zusammenspiel der Prozessoren untereinander zu organisieren, und Zweitens nimmt die Softwarekomplexität erheblich zu. Aber diese Probleme werden erfolgreich gelöst, und die Idee des "Parallel Computing" entwickelt sich seit mehr als einem Jahrzehnt. „Anfang der neunziger Jahre entstand eine neue Idee“, schreibt Yuri Revich in Izvestia, „die als Meta-Computing oder „Distributed Computing“ bezeichnet wurde.“ Bei einer solchen Organisation des Prozesses werden einzelne Rechenknoten nicht mehr strukturell kombiniert zu einem gemeinsamen Körper zusammenzufassen, aber darstellen Ursprünglich sollte es Computer verschiedener Ebenen zu einem einzigen Rechenkomplex kombinieren, zum Beispiel könnte eine vorläufige Datenverarbeitung auf einer Benutzer-Workstation durchgeführt werden, grundlegende Modellierung - auf einem Vektor-Pipeline-Supercomputer, große Lösungen Systeme linearer Gleichungen - auf einem massiv parallelen System und Visualisierung der Ergebnisse - auf einer speziellen Grafikstation. Separate Stationen, die durch Hochgeschwindigkeitskommunikationskanäle verbunden sind, können denselben Rang haben, genau so besteht der ASCI White-Supercomputer von IBM, der jetzt die erste Linie in den TOP500 eingenommen hat, aus 512 separaten RS / 6000-Servern (der Computer, der besiegte Kasparow). Aber die eigentliche Tragweite der Idee der "Verteilung" erlangte mit der Verbreitung des Internets. Obwohl die Kommunikationswege zwischen einzelnen Knoten in einem solchen Netzwerk kaum als High-Speed bezeichnet werden können, lässt sich andererseits die Anzahl der Knoten selbst in eine nahezu unbegrenzte Zahl einwählen: Jeder Computer in jedem Teil der Welt kann daran beteiligt sein Ausführen einer Aufgabe am anderen Ende der Welt. Zum ersten Mal sprach die breite Öffentlichkeit im Zusammenhang mit dem phänomenalen Erfolg der SETI@Home-Suche nach außerirdischen Zivilisationen von „verteiltem Rechnen“. 1,5 Millionen Freiwillige, die nachts ihr Geld für Strom ausgeben für den edlen Zweck, Kontakt zu Außerirdischen zu finden, sorgen für eine Rechenleistung von 8 Tflops, die nur knapp hinter dem Rekordhalter zurückbleibt – der erwähnte ASCI-White-Supercomputer entwickelt eine „Geschwindigkeit“ von 12 Tflops. Laut Projektleiter David Anderson "würde ein einziger Supercomputer mit der gleichen Leistung wie unser Projekt 100 Millionen Dollar kosten, und wir haben ihn fast aus dem Nichts geschaffen." Colin Percival, ein junger Mathematikstudent aus den USA, demonstrierte eindrucksvoll die Möglichkeiten des Distributed Computing. 2,5 Jahre lang stellte er mit Hilfe von 1742 Freiwilligen aus fünfzig Ländern der Welt drei Rekorde gleichzeitig in einem bestimmten Wettbewerb auf, dessen Zweck darin besteht, neue aufeinanderfolgende Ziffern der Zahl "Pi" zu bestimmen. Zuvor konnte er die fünf- und vierzig Billionen Dezimalstellen berechnen, und seit kurzem konnte er bestimmen, welche Zahl an der Billiardenstelle steht. Die Leistung von Supercomputern wird am häufigsten in Gleitkommaoperationen pro Sekunde (FLOPS) gemessen und ausgedrückt. Dies liegt daran, dass numerische Modellierungsaufgaben, für die Supercomputer entwickelt werden, meist Berechnungen mit reellen Zahlen mit einem hohen Maß an Genauigkeit und nicht mit ganzen Zahlen erfordern. Daher ist für Supercomputer das Leistungsmaß herkömmlicher Computersysteme – die Anzahl Millionen Operationen pro Sekunde (MIPS) – nicht anwendbar. Trotz ihrer Mehrdeutigkeit und Näherung ermöglicht die Auswertung in Flops einen einfachen Vergleich von Supercomputersystemen untereinander auf der Grundlage eines objektiven Kriteriums. Die ersten Supercomputer hatten eine Leistung von etwa 1 kflops, also 1000 Gleitkommaoperationen pro Sekunde. Der Computer CDC 6600 mit einer Leistung von 1 Million Flops (1 Mflops) wurde 1964 entwickelt. Die 1 Milliarde Flops (1 Gigaflops)-Grenze wurde 2 vom Supercomputer NEC SX-1983 mit einem Ergebnis von 1.3 Gflops übertroffen. Die Grenze von 1 Billion Flops (1 Teraflops) wurde 1996 vom Supercomputer ASCI Red erreicht. Der Meilenstein von 1 Billiarde Flops (1 Petaflops) wurde 2008 vom Supercomputer IBM Roadrunner erreicht. Derzeit wird daran gearbeitet, bis 2016 Exascale-Computer zu entwickeln, die eine Trillion Gleitkommaoperationen pro Sekunde ausführen können. Autor: Musskiy S.A. Wir empfehlen interessante Artikel Abschnitt Die Geschichte der Technik, Technik, Objekte um uns herum: Siehe andere Artikel Abschnitt Die Geschichte der Technik, Technik, Objekte um uns herum. Lesen und Schreiben nützlich Kommentare zu diesem Artikel. Neueste Nachrichten aus Wissenschaft und Technik, neue Elektronik: Maschine zum Ausdünnen von Blumen im Garten
02.05.2024 Fortschrittliches Infrarot-Mikroskop
02.05.2024 Luftfalle für Insekten
01.05.2024
Weitere interessante Neuigkeiten: ▪ Neurolink - Mini-Gehirnimplantat ▪ Huawei Smart Life Luftreiniger 1Pro ▪ Die orbitale Mondsonde LADEE ist wie geplant abgestürzt ▪ Loadix Autonomer landwirtschaftlicher Lader News-Feed von Wissenschaft und Technologie, neue Elektronik
Interessante Materialien der Freien Technischen Bibliothek: ▪ Abschnitt der Website Anrufe und Audiosimulatoren. Artikelauswahl ▪ Artikel Medizinische Physik. Krippe ▪ Artikel: Aus welchem Holz bestand das Kon-Tiki-Floß? Ausführliche Antwort ▪ Artikel Feederfahrer. Standardanweisung zum Arbeitsschutz
Hinterlasse deinen Kommentar zu diesem Artikel: Alle Sprachen dieser Seite Startseite | Bibliothek | Artikel | Sitemap | Site-Überprüfungen www.diagramm.com.ua |