MENÜ English Ukrainian Russisch Startseite

Kostenlose technische Bibliothek für Bastler und Profis Kostenlose technische Bibliothek


Supercomputer. Geschichte der Erfindung und Produktion

Die Geschichte der Technik, Technik, Objekte um uns herum

Verzeichnis / Die Geschichte der Technik, Technik, Objekte um uns herum

Kommentare zum Artikel Kommentare zum Artikel

Ein Supercomputer ist eine Rechenmaschine, die in ihren technischen Parametern die meisten existierenden Computer deutlich übertrifft. Bei modernen Supercomputern handelt es sich in der Regel um eine große Anzahl von Hochleistungs-Serverrechnern, die über einen lokalen Hochgeschwindigkeits-Backbone miteinander verbunden sind, um im Rahmen eines parallelen Rechenansatzes maximale Leistung zu erzielen.

1996 schrieb der Kurator des Museum of Computing im Vereinigten Königreich, Doron Swade, einen Artikel mit einem sensationellen Titel: „Die russische BESM-Serie von Supercomputern, die vor mehr als 40 Jahren entwickelt wurde, kann die Lügen der Vereinigten Staaten bezeugen, die in den Jahren des Kalten Krieges ihre technologische Überlegenheit erklärten."

Tatsächlich war die Mitte der 1960er Jahre ein Höhepunkt in der Geschichte der sowjetischen Computertechnologie. Zu dieser Zeit arbeiteten viele Kreativteams in der UdSSR - die Institute von S.A. Lebedeva, I.S. Bruk, V.M. Glushkov usw. Gleichzeitig wurden viele verschiedene Maschinentypen für die unterschiedlichsten Zwecke hergestellt, die meistens nicht miteinander kompatibel waren.

Der BESM-1965 wurde 1967 entwickelt und 6 zum ersten Mal auf den Markt gebracht. Er war der ursprüngliche russische Computer, dessen Design seinem westlichen Gegenstück ebenbürtig war. Dann gab es den berühmten "Elbrus", es gab die Entwicklung von BESM (Elbrus-B). V.M. Glushkov hat eine wunderbare technische Rechenmaschine geschaffen - "Mir-2" (ein Prototyp eines Personal Computers), die noch keine westlichen Analoga hat.

Es war das Elbrus-Team, das als erstes die superskalare Architektur entwickelte, nachdem es viele Jahre früher als der Westen die darauf basierende Elbrus-1-Maschine gebaut hatte. In diesem Team wurden einige Jahre früher als in der Firma "Cray" - einem anerkannten Marktführer in der Herstellung von Supercomputern - die Ideen eines Multiprozessorcomputers umgesetzt.

Supercomputer
Supercomputer Cray-2

Boris Artashesovich Babayan, wissenschaftlicher Leiter der Elbrus-Gruppe, Professor, korrespondierendes Mitglied der Russischen Akademie der Wissenschaften, glaubt, dass die bedeutendste Errungenschaft der Gruppe die Architektur der Elbrus-3-Supermaschine ist. „Die logische Geschwindigkeit dieser Maschine ist viel höher als die aller vorhandenen, das heißt, auf derselben Hardware ermöglicht uns diese Architektur, die Aufgabe um ein Vielfaches zu beschleunigen. Wir haben zum ersten Mal Hardwareunterstützung für sichere Programmierung implementiert , wir haben es im Westen noch nicht einmal ausprobiert. "Elbrus-3 "wurde 1991 gebaut. Es war an unserem Institut bereits fertig, wir haben mit der Fehlersuche begonnen. Westliche Firmen sprachen so viel über die Möglichkeit, eine solche Architektur zu schaffen ... Die Technologie war ekelhaft, aber die Architektur war so perfekt, dass diese Maschine doppelt so schnell war wie der schnellste amerikanische Supersportwagen der damaligen Zeit, der Cray Y-MP.

Die Prinzipien der sicheren Programmierung werden derzeit in das Konzept der Java-Sprache implementiert, und ähnliche Ideen wie bei Elbrus bilden nun die Grundlage für die neue Prozessorgeneration Merced, die von Intel zusammen mit HP entwickelt wurde. "Wenn Sie sich Merced ansehen, ist es praktisch die gleiche Architektur wie in Elbrus-3. Vielleicht sind einige Details von Merced anders, und nicht zum Besseren."

So war es trotz der allgemeinen Stagnation noch möglich, Computer und Supercomputer zu bauen. Leider ist unseren Computern dasselbe passiert wie der russischen Industrie im Allgemeinen. Aber heute strebt ein neuer, auf den ersten Blick exotischer Parameter beharrlich danach, in die Zahl der traditionellen makroökonomischen Indikatoren (wie BIP und Gold- und Devisenreserven) einzudringen - die Gesamtkapazität der Computer, über die das Land verfügt. Den größten Anteil an diesem Indikator werden Supercomputer haben. Vor fünfzehn Jahren waren diese Maschinen einzigartige Monster, aber jetzt wurde ihre Produktion in Betrieb genommen.

„Anfangs wurde der Computer für komplexe Berechnungen im Zusammenhang mit der Atom- und Raketenforschung geschaffen“, schreibt Arkady Volovik in der Zeitschrift Kompaniya, „wenige wissen, dass Supercomputer dazu beigetragen haben, das ökologische Gleichgewicht auf dem Planeten aufrechtzuerhalten: Während des Kalten Krieges simulierten Computer Veränderungen in Atomwaffen, und diese Experimente ermöglichten es den Supermächten schließlich, auf die eigentlichen Tests von Atomwaffen zu verzichten. So wird der leistungsstarke Multiprozessorcomputer Blue Pacific von IBM genau zur Simulation von Atomwaffentests eingesetzt. Tatsächlich haben Informatiker nicht zum Erfolg beigetragen Verhandlungen zum Stopp von Atomtests Compaq Computer Corp. baut Europas größten Supercomputer auf Basis von 2500 Alpha-Prozessoren Die französische Nuklearenergiekommission wird den Supercomputer einsetzen, um die Sicherheit der französischen Arsenale ohne weitere Atomtests zu verbessern.

Bei der Konstruktion von Luftfahrtgeräten sind nicht weniger umfangreiche Berechnungen erforderlich. Die Modellierung der Parameter eines Flugzeugs erfordert enorme Leistung – um beispielsweise die Oberfläche eines Flugzeugs zu berechnen, müssen die Parameter der Luftströmung an jedem Punkt der Tragfläche und des Rumpfs pro Quadratzentimeter berechnet werden. Mit anderen Worten, es ist erforderlich, die Gleichung für jeden Quadratzentimeter zu lösen, und die Oberfläche des Flugzeugs beträgt mehrere zehn Quadratmeter. Bei Änderung der Flächengeometrie muss alles neu berechnet werden. Darüber hinaus müssen diese Berechnungen schnell durchgeführt werden, da sich sonst der Entwurfsprozess verzögert. Die Raumfahrt begann nicht mit Flügen, sondern mit Berechnungen. Supercomputer haben hier ein riesiges Anwendungsfeld."

Die Boeing Corporation setzte einen von Linux NetworX entwickelten Supercluster ein, mit dem das Verhalten von Treibstoff in der Delta-IV-Rakete simuliert wurde, die für den Start von Satelliten für verschiedene Zwecke ausgelegt ist. Von den vier betrachteten Cluster-Architekturen hat sich Boeing für den Linux-Cluster NetworX entschieden, weil er akzeptable Betriebskosten bietet und die Anforderungen des Delta-IV-Projekts in Bezug auf die Rechenleistung sogar übertrifft. Der Cluster besteht aus 96 Servern auf Basis von AMD Athlon 850 MHz Prozessoren, die über Hochgeschwindigkeits-Ethernet-Verbindungen miteinander verbunden sind.

Im Jahr 2001 installierte IBM für das US-Verteidigungsministerium im Supercomputing Center auf Hawaii einen Linux-Cluster mit 512 Prozessoren und einer Verarbeitungskapazität von 478 Milliarden Operationen pro Sekunde. Neben dem Pentagon soll der Cluster auch von anderen Bundesressorts und wissenschaftlichen Einrichtungen genutzt werden: insbesondere ein Cluster zur Vorhersage der Geschwindigkeit und Richtung der Ausbreitung von Waldbränden. Das System besteht aus 256 IBM eServerx330 Thin Servern mit jeweils zwei Pentium-III-Prozessoren. Die Server werden über einen von Myricom entwickelten Clustering-Mechanismus verbunden.

Der Anwendungsbereich von Supercomputern ist jedoch nicht auf den militärisch-industriellen Komplex beschränkt. Heute sind Biotech-Unternehmen große Kunden von Supercomputern.

Supercomputer
Supercomputer IBM BlueGene/L

"Als Teil des Human Genome Programms erhielt IBM", schreibt Volovik, "den Auftrag, einen Computer mit mehreren zehntausend Prozessoren zu bauen. Die Entschlüsselung des menschlichen Genoms ist jedoch nicht das einzige Beispiel für den Einsatz von Computern Biologie: Die Entwicklung neuer Medikamente ist heute nur mit leistungsstarken Computern möglich Daher sind Pharmariesen gezwungen, stark in Computertechnologie zu investieren, was einen Markt für Hewlett-Packard, Sun, Compaq bildet ein neues Medikament dauerte 5-7 Jahre und erforderte erhebliche finanzielle Kosten. Heute werden Medikamente jedoch leistungsstarken Computern nachempfunden, die nicht nur Medikamente „bauen", sondern auch ihre Wirkung auf den Menschen bewerten. Amerikanische Immunologen haben ein Medikament entwickelt, das 160 bekämpfen kann Viren. Dieses Medikament wurde sechs Monate lang auf einem Computer modelliert. Eine andere Art, es herzustellen, würde mehrere Jahre Arbeit erfordern".

Und im Los Alamos National Laboratory wurde die weltweite AIDS-Epidemie bis zu ihrem Ursprung „zurückgerollt“. Daten über Kopien des AIDS-Virus wurden in einen Supercomputer eingegeben, wodurch es möglich wurde, den Zeitpunkt des Auftretens des allerersten Virus - 1930 - zu bestimmen.

Mitte der 1990er Jahre entstand ein weiterer großer Markt für Supercomputer. Dieser Markt steht in direktem Zusammenhang mit der Entwicklung des Internets. Die Menge an Informationen im Web hat beispiellose Ausmaße erreicht und wächst weiter. Darüber hinaus wachsen die Informationen im Internet nicht linear. Mit der Zunahme der Datenmenge verändert sich auch die Form ihrer Präsentation – Text und Zeichnungen wurden um Musik, Video und Animation ergänzt. Daraus ergaben sich zwei Probleme – wo die immer größer werdenden Datenmengen gespeichert werden sollten und wie die Zeit reduziert werden sollte, die zum Auffinden der richtigen Informationen benötigt wird.

Supercomputer kommen auch überall dort zum Einsatz, wo große Datenmengen verarbeitet werden müssen. Zum Beispiel im Bankwesen, in der Logistik, im Tourismus, im Transportwesen. Compaq hat kürzlich einen Supercomputer-Vertrag im Wert von 200 Millionen US-Dollar an das US-Energieministerium vergeben.

Hironobu Sakaguchi, Präsident der PC-Spielefirma Square, sagt: „Heute bereiten wir einen Film vor, der auf unseren Spielen basiert. Square „berechnet“ ein Bild aus dem Film in 5 Stunden. Auf GCube dauert dieser Vorgang 1/30 Sekunde ." Damit erreicht der Prozess der Medienproduktion ein neues Level: Die Arbeitszeit am Produkt wird reduziert, die Kosten für einen Film oder ein Spiel deutlich reduziert.

Die starke Konkurrenz zwingt die Spieler dazu, die Preise für Supercomputer zu senken. Eine Möglichkeit, den Preis niedrig zu halten, besteht darin, viele Standardprozessoren zu verwenden. Diese Lösung wurde von mehreren "Spielern" des großen Computermarktes gleichzeitig erfunden. Infolgedessen erschienen zur Zufriedenheit der Käufer serielle, relativ kostengünstige Server auf dem Markt.

Tatsächlich ist es einfacher, umständliche Berechnungen in kleine Teile zu unterteilen und die Ausführung jedes dieser Teile einem separaten, kostengünstigen, in Massenproduktion hergestellten Prozessor anzuvertrauen. Aus 500 konventionellen Pentium-Prozessoren besteht beispielsweise ASCI Red von „Intel“, das bis vor kurzem die erste Zeile in der TOP9632-Tabelle der schnellsten Computer der Welt belegte. Ein weiterer wichtiger Vorteil dieser Architektur ist ihre Skalierbarkeit: Durch einfaches Erhöhen der Prozessoranzahl lässt sich die Leistung des Systems steigern. Allerdings mit einigen Einschränkungen: Erstens wächst die Leistung mit zunehmender Anzahl einzelner Rechenknoten nicht direkt proportional, sondern etwas langsamer, ein Teil der Zeit wird zwangsläufig dafür aufgewendet, das Zusammenspiel der Prozessoren untereinander zu organisieren, und Zweitens nimmt die Softwarekomplexität erheblich zu. Aber diese Probleme werden erfolgreich gelöst, und die Idee des "Parallel Computing" entwickelt sich seit mehr als einem Jahrzehnt.

„Anfang der neunziger Jahre entstand eine neue Idee“, schreibt Yuri Revich in Izvestia, „die als Meta-Computing oder „Distributed Computing“ bezeichnet wurde.“ Bei einer solchen Organisation des Prozesses werden einzelne Rechenknoten nicht mehr strukturell kombiniert zu einem gemeinsamen Körper zusammenzufassen, aber darstellen Ursprünglich sollte es Computer verschiedener Ebenen zu einem einzigen Rechenkomplex kombinieren, zum Beispiel könnte eine vorläufige Datenverarbeitung auf einer Benutzer-Workstation durchgeführt werden, grundlegende Modellierung - auf einem Vektor-Pipeline-Supercomputer, große Lösungen Systeme linearer Gleichungen - auf einem massiv parallelen System und Visualisierung der Ergebnisse - auf einer speziellen Grafikstation.

Separate Stationen, die durch Hochgeschwindigkeitskommunikationskanäle verbunden sind, können denselben Rang haben, genau so besteht der ASCI White-Supercomputer von IBM, der jetzt die erste Linie in den TOP500 eingenommen hat, aus 512 separaten RS / 6000-Servern (der Computer, der besiegte Kasparow). Aber die eigentliche Tragweite der Idee der "Verteilung" erlangte mit der Verbreitung des Internets. Obwohl die Kommunikationswege zwischen einzelnen Knoten in einem solchen Netzwerk kaum als High-Speed ​​bezeichnet werden können, lässt sich andererseits die Anzahl der Knoten selbst in eine nahezu unbegrenzte Zahl einwählen: Jeder Computer in jedem Teil der Welt kann daran beteiligt sein Ausführen einer Aufgabe am anderen Ende der Welt.

Zum ersten Mal sprach die breite Öffentlichkeit im Zusammenhang mit dem phänomenalen Erfolg der SETI@Home-Suche nach außerirdischen Zivilisationen von „verteiltem Rechnen“. 1,5 Millionen Freiwillige, die nachts ihr Geld für Strom ausgeben für den edlen Zweck, Kontakt zu Außerirdischen zu finden, sorgen für eine Rechenleistung von 8 Tflops, die nur knapp hinter dem Rekordhalter zurückbleibt – der erwähnte ASCI-White-Supercomputer entwickelt eine „Geschwindigkeit“ von 12 Tflops. Laut Projektleiter David Anderson "würde ein einziger Supercomputer mit der gleichen Leistung wie unser Projekt 100 Millionen Dollar kosten, und wir haben ihn fast aus dem Nichts geschaffen."

Colin Percival, ein junger Mathematikstudent aus den USA, demonstrierte eindrucksvoll die Möglichkeiten des Distributed Computing. 2,5 Jahre lang stellte er mit Hilfe von 1742 Freiwilligen aus fünfzig Ländern der Welt drei Rekorde gleichzeitig in einem bestimmten Wettbewerb auf, dessen Zweck darin besteht, neue aufeinanderfolgende Ziffern der Zahl "Pi" zu bestimmen. Zuvor konnte er die fünf- und vierzig Billionen Dezimalstellen berechnen, und seit kurzem konnte er bestimmen, welche Zahl an der Billiardenstelle steht.

Die Leistung von Supercomputern wird am häufigsten in Gleitkommaoperationen pro Sekunde (FLOPS) gemessen und ausgedrückt. Dies liegt daran, dass numerische Modellierungsaufgaben, für die Supercomputer entwickelt werden, meist Berechnungen mit reellen Zahlen mit einem hohen Maß an Genauigkeit und nicht mit ganzen Zahlen erfordern. Daher ist für Supercomputer das Leistungsmaß herkömmlicher Computersysteme – die Anzahl Millionen Operationen pro Sekunde (MIPS) – nicht anwendbar. Trotz ihrer Mehrdeutigkeit und Näherung ermöglicht die Auswertung in Flops einen einfachen Vergleich von Supercomputersystemen untereinander auf der Grundlage eines objektiven Kriteriums.

Die ersten Supercomputer hatten eine Leistung von etwa 1 kflops, also 1000 Gleitkommaoperationen pro Sekunde. Der Computer CDC 6600 mit einer Leistung von 1 Million Flops (1 Mflops) wurde 1964 entwickelt. Die 1 Milliarde Flops (1 Gigaflops)-Grenze wurde 2 vom Supercomputer NEC SX-1983 mit einem Ergebnis von 1.3 Gflops übertroffen. Die Grenze von 1 Billion Flops (1 Teraflops) wurde 1996 vom Supercomputer ASCI Red erreicht. Der Meilenstein von 1 Billiarde Flops (1 Petaflops) wurde 2008 vom Supercomputer IBM Roadrunner erreicht. Derzeit wird daran gearbeitet, bis 2016 Exascale-Computer zu entwickeln, die eine Trillion Gleitkommaoperationen pro Sekunde ausführen können.

Autor: Musskiy S.A.

 Wir empfehlen interessante Artikel Abschnitt Die Geschichte der Technik, Technik, Objekte um uns herum:

▪ Jet-Auto TRUST SSC

▪ beschichtete Optik

▪ Bessemer-Prozess

Siehe andere Artikel Abschnitt Die Geschichte der Technik, Technik, Objekte um uns herum.

Lesen und Schreiben nützlich Kommentare zu diesem Artikel.

<< Zurück

Neueste Nachrichten aus Wissenschaft und Technik, neue Elektronik:

Maschine zum Ausdünnen von Blumen im Garten 02.05.2024

In der modernen Landwirtschaft entwickelt sich der technologische Fortschritt mit dem Ziel, die Effizienz der Pflanzenpflegeprozesse zu steigern. In Italien wurde die innovative Blumenausdünnungsmaschine Florix vorgestellt, die die Erntephase optimieren soll. Dieses Gerät ist mit beweglichen Armen ausgestattet, wodurch es leicht an die Bedürfnisse des Gartens angepasst werden kann. Der Bediener kann die Geschwindigkeit der dünnen Drähte anpassen, indem er sie von der Traktorkabine aus mit einem Joystick steuert. Dieser Ansatz erhöht die Effizienz des Blütenausdünnungsprozesses erheblich und bietet die Möglichkeit einer individuellen Anpassung an die spezifischen Bedingungen des Gartens sowie die Vielfalt und Art der darin angebauten Früchte. Nachdem wir die Florix-Maschine zwei Jahre lang an verschiedenen Obstsorten getestet hatten, waren die Ergebnisse sehr ermutigend. Landwirte wie Filiberto Montanari, der seit mehreren Jahren eine Florix-Maschine verwendet, haben von einer erheblichen Reduzierung des Zeit- und Arbeitsaufwands für das Ausdünnen von Blumen berichtet. ... >>

Fortschrittliches Infrarot-Mikroskop 02.05.2024

Mikroskope spielen eine wichtige Rolle in der wissenschaftlichen Forschung und ermöglichen es Wissenschaftlern, in für das Auge unsichtbare Strukturen und Prozesse einzutauchen. Allerdings haben verschiedene Mikroskopiemethoden ihre Grenzen, darunter auch die begrenzte Auflösung bei der Nutzung des Infrarotbereichs. Doch die neuesten Errungenschaften japanischer Forscher der Universität Tokio eröffnen neue Perspektiven für die Erforschung der Mikrowelt. Wissenschaftler der Universität Tokio haben ein neues Mikroskop vorgestellt, das die Möglichkeiten der Infrarotmikroskopie revolutionieren wird. Dieses fortschrittliche Instrument ermöglicht es Ihnen, die inneren Strukturen lebender Bakterien mit erstaunlicher Klarheit im Nanometerbereich zu sehen. Typischerweise sind Mikroskope im mittleren Infrarotbereich durch eine geringe Auflösung eingeschränkt, aber die neueste Entwicklung japanischer Forscher überwindet diese Einschränkungen. Laut Wissenschaftlern ermöglicht das entwickelte Mikroskop die Erstellung von Bildern mit einer Auflösung von bis zu 120 Nanometern, was 30-mal höher ist als die Auflösung herkömmlicher Mikroskope. ... >>

Luftfalle für Insekten 01.05.2024

Die Landwirtschaft ist einer der Schlüsselsektoren der Wirtschaft und die Schädlingsbekämpfung ist ein integraler Bestandteil dieses Prozesses. Ein Team von Wissenschaftlern des Indian Council of Agricultural Research-Central Potato Research Institute (ICAR-CPRI), Shimla, hat eine innovative Lösung für dieses Problem gefunden – eine windbetriebene Insektenluftfalle. Dieses Gerät behebt die Mängel herkömmlicher Schädlingsbekämpfungsmethoden, indem es Echtzeitdaten zur Insektenpopulation liefert. Die Falle wird vollständig mit Windenergie betrieben und ist somit eine umweltfreundliche Lösung, die keinen Strom benötigt. Sein einzigartiges Design ermöglicht die Überwachung sowohl schädlicher als auch nützlicher Insekten und bietet so einen vollständigen Überblick über die Population in jedem landwirtschaftlichen Gebiet. „Durch die rechtzeitige Beurteilung der Zielschädlinge können wir die notwendigen Maßnahmen zur Bekämpfung von Schädlingen und Krankheiten ergreifen“, sagt Kapil ... >>

Zufällige Neuigkeiten aus dem Archiv

Kabellose 5G-Antennen von Huawei 30.05.2020

Huawei kündigte einen Durchbruch bei der Entwicklung von 5G-Antennen an. Ein neues Design namens CableFree verbessert die Fähigkeiten von 5G-Basisstationsantennen. Dieser Kommunikationsstandard sieht die Nutzung neuer Bänder und mehr Antennenanschlüsse vor. Und das neue Design bietet eine bessere Abdeckung im 5G-Hochfrequenzband. Nach Angaben des Unternehmens verbessert CableFree die Strahlungseffizienz der Antenne um etwa 20 %.

Um die höhere Kapazität und die zusätzlichen Antennenverbindungen für die 5G-Kommunikation zu unterstützen, müssen die Antennen 1 kW verarbeiten können. Für die Kommunikation der vorherigen Generation reichte eine Leistung von 500-600 Watt aus. Das CableFree-Design erhöht die Leistung der Antenne um mehr als 80 % und reduziert außerdem das Gewicht der Antennen, wodurch sie einfacher zu installieren sind. Eine auf CableFree basierende Sechsbandantenne ist etwa 10 kg leichter als Analoga, und das Gewicht von Mehrkanalantennen wird sofort um 50 kg reduziert. Daher muss kein Kran installiert werden, was Zeit und Geld während des Netzwerkbereitstellungsprozesses spart.

Gleichzeitig reduziert CableFree den Einsatz von Schrauben und Lötpunkten um bis zu 80 % und reduziert so die Wahrscheinlichkeit einer passiven Intermodulation oder Signalverzerrung und Interferenz durch große Metallobjekte. Dies wiederum erleichtert die Automatisierung der Antennenproduktion bei gleichbleibender Qualität.

Weitere interessante Neuigkeiten:

▪ Tschernobyl-Immunität

▪ Neurolink - Mini-Gehirnimplantat

▪ Huawei Smart Life Luftreiniger 1Pro

▪ Die orbitale Mondsonde LADEE ist wie geplant abgestürzt

▪ Loadix Autonomer landwirtschaftlicher Lader

News-Feed von Wissenschaft und Technologie, neue Elektronik

 

Interessante Materialien der Freien Technischen Bibliothek:

▪ Abschnitt der Website Anrufe und Audiosimulatoren. Artikelauswahl

▪ Artikel Medizinische Physik. Krippe

▪ Artikel: Aus welchem ​​Holz bestand das Kon-Tiki-Floß? Ausführliche Antwort

▪ Artikel Feederfahrer. Standardanweisung zum Arbeitsschutz

▪ Artikel Ein einfacher, kostengünstiger Metalldetektor. Enzyklopädie der Funkelektronik und Elektrotechnik

▪ Artikel Eine vereinfachte Version eines Leistungsverstärkers der Klasse B. Enzyklopädie der Funkelektronik und Elektrotechnik

Hinterlasse deinen Kommentar zu diesem Artikel:

Name:


E-Mail optional):


Kommentar:





Alle Sprachen dieser Seite

Startseite | Bibliothek | Artikel | Sitemap | Site-Überprüfungen

www.diagramm.com.ua

www.diagramm.com.ua
2000-2024