Kommen die Analogrechner zurück?
Effizientes Rechnen in Echtzeit
Vor über einem halben Jahrhundert haben Analogrechner wichtige Dienste in der Raumfahrt, für Ballistik- oder Gezeitenberechnungen geleistet. Dann wurden sie durch digitale Rechner abgelöst. Heute stossen letztere an ihre Leistungsgrenzen – und bieten Analogrechnern somit wieder eine Chance, ihre Stärken auszuspielen.
Schon seit einigen Jahren machen sich die physikalischen Grenzen bei digitalen Rechnern bemerkbar. Um die Transistorendichte auf heutigen Chips zu erhöhen, wird ein enormer Aufwand betrieben. Durch das Vorrücken in den fast atomaren Bereich wirken sich unerwünschte quantenmechanische Effekte immer stärker aus. Zudem wird das Abführen der Verlustwärme, die durch das Schalten der Gates im Gigahertzbereich entsteht, zu einer Herausforderung. Aber nicht nur die integrierten digitalen Schaltkreise an sich sorgen für Kopfzerbrechen, sondern auch der immense energetische Aufwand für die träge Datenkommunikation zwischen Prozessor und Speicher. Das Verschieben der benötigten Daten erfordert heute um Grössenordnungen mehr Energie als das eigentliche Rechnen in der CPU. Was sich in den 1970er-Jahren bei der Von-Neumann-Architektur als entscheidender Vorteil gegenüber Analogrechnern präsentierte, nämlich die freie Programmierbarkeit, führt nun zu Schwierigkeiten.
Um diese zu entschärfen, wird an Alternativen geforscht, beispielsweise daran, den Speicher und die CPU in einem Chip zusammenzubringen, dem sogenannten In-Memory-Computing. Oder es werden wieder Rechnerkonzepte aus dem Archiv geholt, die prinzipiell ohne Speicher auskommen und deshalb solche Kommunikationsengpässe erst gar nicht auftreten lassen: die Analogrechner.
Inhärent statt sequenziell
Analogrechner sind physikalische Systeme, die das Verhalten des zu berechnenden Objekts imitieren. Dabei muss es sich nicht um elektronische Systeme handeln: Die frühen Analogrechner waren mechanische Systeme mit beweglichen Rädern oder Zahnrädern. Mit dem von Tauchern vor der griechischen Insel Antikythera entdeckten, über zwei Jahrtausende alten Mechanismus liessen sich beispielsweise die Bewegungen von Sonne und Mond berechnen. Aber auch für näher liegende Phänomene wie die Gezeiten konnten mechanische Analogrechner eingesetzt werden. Im Jahr 1872 konstruierte William Thomson, der spätere Lord Kelvin, eine solche Maschine, die bei der Berechnung der Pegelstände der Themse nebst dem Mond, der Sonne, der Erdrotation noch weitere Parameter berücksichtigen konnte. Weiterentwickelte Gezeitenrechner wurden später in den beiden Weltkriegen verwendet. Auch der Zeitpunkt des D-Days der Landung in der Normandie wurde mit ihnen ermittelt.
In den 1940er-Jahren kamen langsam elektronische Analogrechner auf und wurden zunächst zusammen mit den mechanischen eingesetzt. Erst Mitte der 1960er-Jahre übernahmen die elektronischen Rechner das Feld, weil sie nun dank der Bipolartransistoren kompakter und effizienter waren als die mit Röhren operierenden Varianten. Das Prinzip aber ist dasselbe: Die Rechner weisen mehrere Rechenelemente auf, die mit Patchkabeln verschaltet werden, um ein elektronisches Modell des in Differenzialgleichungen formulierten Problems zu realisieren. Anschliessend lässt sich die Lösung mit einem Messgerät messen oder auf einem Oszilloskop darstellen.
Der Vorteil, den die Transistoren den Analogrechnern ursprünglich brachten, kehrte sich in den 1970er-Jahren in einen Nachteil für sie um, denn nun liessen sich mit ihnen integrierte Schaltungen bauen, die frei programmierbare digitale Rechner ermöglichten.
Wiedererwachtes Interesse
Nach Jahrzehnten, in denen das Interesse an Analogrechnern praktisch verschwunden war, nahm das Konzept wieder Fahrt auf. Motiviert war dieser Sinneswandel durch die Technologie der Very Large Scale Integration, VLSI, die es ermöglichte, Analogrechner auf Chips zu realisieren, bei denen die Verknüpfungen der Rechenelemente programmiert werden konnten – ohne umständliches Steckfeld.
Im Rahmen seiner Doktorarbeit hat Glenn Cowan 2005 den ersten rekonfigurierbaren Analogrechner-Chip vorgestellt, mit Integrierern, Multiplizierern, Funktionsgeneratoren und weiteren Schaltkreisen. 2016 hat dann Ning Guo mit seinen Kollegen die zweite Generation von Analogrechnerchips vorgestellt, die deutlich besser waren.
Aktuell forschen Grosskonzerne wie Intel, Google und Microsoft an der Integration von Analogrechnern in die digitale Hardware. IBM hat kürzlich zwei Studien dazu veröffentlicht. Eine der Studien wurde in Nature (Bd. 620) publiziert. In ihr wird ein Analogrechner-Chip vorgestellt, der 35 Millionen Phase-Change-Memory-Einheiten als Neuronen auf 34 Schichten verteilt, um bis zu 12,4 Tera-Operationen pro Sekunde und Watt ausführen zu können. Damit soll Spracherkennung und Transkription auf viel energieeffizientere Weise möglich sein als mit digitalen Rechnern.
Mit alten Rechnern in die Zukunft
Schon seit vielen Jahren befasst sich Bernd Ulmann, Informatikprofessor an der Hochschule für Ökonomie und Management in Frankfurt, sowohl als Sammler als auch als Entwickler mit Analogrechnern. Er verfügt bei sich zu Hause über ein privates Analogrechnermuseum mit Exponaten, die er teilweise selbst restauriert hat. Die meisten Rechner sind funktionsfähig. Sein Prachtstück ist der Telefunken RA 770 – der letzte Analogrechner, den das Unternehmen zwischen 1966 bis 1975 vermarktet hat. Analogrechner aus den Vereinigten Staaten, die deutlich preisgünstiger waren, haben dieses deutsche Geschäft zum Erliegen gebracht. Ein weiteres Exponat der Sammlung ist der US-Hybridrechner Pacer 700 von Electronic Associates – vermutlich das einzige noch erhaltene Exemplar. Ursprünglich wurde es 1974 vom Deutschen Zentrum für Luft- und Raumfahrt für die Berechnung der Lageregelung der Ariane-Rakete erworben.
Aber Bernd Ulmann geht es nicht nur darum, diese antiken Geräte zu sammeln und verstehen zu lernen, er möchte dieses Wissen in die Zukunft bringen und nutzbar machen. Denn er ist überzeugt, dass Analogrechner für gewisse Aufgaben geeigneter sind als Digitalrechner.
Die von ihm gegründete Firma Anabrid GmbH hat zunächst einen modularen Analog-Tischrechner, den Analog Paradigm Model-1, entwickelt und ein Dutzend Exemplare weltweit verkauft. Anschliessend kam «The Analog Thing», ein handlicher, preisgünstiger Analogrechner hauptsächlich für Ausbildungszwecke, von dem bereits rund 1300 Exemplare verkauft wurden. Vergleichbar ist er mit dem erfolgreichen Raspberry Pi. Ulmann konstatiert: «Der ist ja schon viel zu komplex. Mit Linux-Kernel und Risc-Prozesser ist man gleich bei einem Million-Zeilen-Code.» Das ist beim The Analog Thing völlig anders, denn den versteht jeder, der sich für Elektronik interessiert. CPU-Kenntnisse sind nicht nötig.
Die nächste Generation, an der nun gearbeitet wird, wird kein Panel mit manuell gesteckten Patchkabeln mehr haben. Programmiert wird dann via Digitalrechner, auf dem eine Art Compiler läuft, der basierend auf der Aufgabe Steuerinformationen an den diskret aufgebauten Analogrechner sendet. Elektronische Schalter im System übernehmen dabei die Funktion der Patchkabel. Obwohl dieses System noch keinen Ein-Chip-Analogrechner hat, wird es die Arbeit deutlich vereinfachen. Für einen Rechnerchip, der das System noch kompakter machen würde, fehlt zurzeit das Venture-Kapital.
Ein Umdenken anstossen
Das Motto von Bernd Ulmann lautet: «Man muss der Digitalfraktion die Deutungshoheit nehmen.» Denn sie hätten in den letzten Jahrzehnten sehr erfolgreich das Image aufgebaut, dass «digital» die Patentlösung für alles ist, beispielsweise auch für KI. «Sie sind seit Jahrzehnten auf algorithmisches Denken getrimmt. Es ist eigentlich verrückt, das, was eigentlich schon analog vorliegt, digital zu machen.» Er würde Informatikern spätestens im Studium nahebringen, dass analoge Ansätze auch sinnvoll sein können. Beim Einstellen von neuen Mitarbeitenden für die Entwicklung mit Analogrechnern müsse man heute stattdessen auf Elektroniker, Physiker oder Biochemiker ausweichen, weil sie eher in Modellen denken. Die gleiche Herausforderung wird bei Quantencomputern auftreten, denn auch sie rechnen nicht algorithmisch.
Bei Analogrechnern spart man sich laut Ulmann einen Arbeitsschritt: «Bei beiden Arten von Rechnern muss man das Problem mathematisch formulieren, um simulieren zu können. Bei Analogrechnern ist man an dieser Stelle fertig, während bei Digitalrechnern der Ärger erst losgeht. Wie löse ich auf einem Digitalrechner eine Differenzialgleichung? Was ist mit Werterepräsentation, mit Gleitkommazahlen? Da brauche ich Bibliotheken und schlaue numerische Verfahren.»
Ein oft geäusserter Einwand gegen Analogrechner ist ihre Ungenauigkeit. Ulmann kontert: «Welche Probleme brauchen im Ingenieurbereich schon so eine hohe Rechengenauigkeit? Wann kenne ich meine Parameter auf mehr als drei Nachkommastellen?» Double-precision floating numbers seien eigentlich nur in numerischen Verfahren wie Additionen nötig, die eine Million mal Zahlen addieren müssen, um ein Integral präzise genug zu berechnen. Das Problem an sich brauche diese Genauigkeit gar nicht. «Wenn man sich die Natur anschaut, beispielsweise neuronale Netze, sieht es anders aus: Unsere Neuronen haben synaptische Gewichte mit vier bis fünf Bit Auflösung. Das reicht offensichtlich für ein Gehirn. Und es funktioniert.»
Emulation eines Energiesystems mit Analog Twin
Obwohl Schweizer Netzbetreiber wie Swissgrid heute in der Praxis für die Modellierung des Netzes – der Leitungen, Transformatoren, Schaltanlagen, Generatoren sowie der Verbraucher – nur digitale Technologien einsetzen, könnten auch hier analoge Rechner nützlich sein. Sowohl an der Hochschule für Technik und Architektur in Freiburg als auch an der ZHAW in Winterthur wird an analogen Technologien zur Emulation von Energiesystemen geforscht. Dies ist besonders heute nützlich, um die Auswirkungen der Zunahme von dezentraler Stromerzeugung und neuen Verbrauchern wie E-Autos und Wärmepumpen, kombiniert mit der Abnahme der Schwungmasse, zu untersuchen.
Dazu wurde vor zwölf Jahren an der ZHAW ein analoger dynamischer 3-Phasen-Hardware-Emulator eingerichtet, mit dem reale Komponenten mit Laborkomponenten kombiniert werden können. Die Spannungen des Modells sind dabei um den Faktor 1000 kleiner als die realen Spannungen. Der Emulator wird kontinuierlich mit neuen Elementen ausgestattet, die von den Studierenden entwickelt werden. Auch die Kombination mit digitalen Komponenten für Hardware-in-the-Loop ist möglich.
Das Spektrum der so erforschten Systemkomponenten ist breit: Es können u.a. konventionelle und erneuerbare Erzeuger, Phasor Measurement Units, Primär- und Sekundärregelung und programmierbare Schwungmassen mit Synchrongeneratoren simuliert werden, um eine Überwachung und Steuerung des Netzes in Echtzeit zu erforschen. Es kann untersucht werden, wie sich Instabilitäten durch die Regelung der Erregung von Synchronmaschinen reduzieren lassen. Auch ein Schwarzstart kann in Echtzeit ausprobiert werden, um Erkenntnisse über Schwierigkeiten wie unerwünschte Interaktionen zwischen realen Komponenten (beispielsweise Grid-Forming-Invertern), die sich nicht digital modellieren lassen, zu gewinnen. Petr Korba, der Leiter des Labors, betont: «Das ist die einzige Weise, wie man möglichst nahe an die Realität kommt.»
Ausblick
Vorteile bieten die Analogrechner einige: Sie sind schnell und liefern das Resultat praktisch ohne Zeitverzögerung, sind sparsam und immun gegen Cyberangriffe. Die Tücken der Digitalrechner wie Betriebssysteme, Shared Memory, Von-Neumann-Engpässe, Deadlocks usw. sind ihnen fremd. «Ich habe nur Physik in Form einer Elektronik, die ein Problem löst», so Ulmann. Gerade für die KI sind Analogrechner deshalb prädestiniert. «Ob ich nun die Neuronen simuliere, indem ich lineare Algebra auf Matritzen anwende und mich algorithmisch totrechne, oder ob ich ein analoges Netzwerk aus Neuronen baue, das wie ein biologisches Netzwerk funktioniert, das Resultat ist identisch. Aber die analoge Variante ist um den Faktor 1000 energieeffizienter. Die KI schreit nach analog.» Der Analogrechner kann dazu beispielsweise klassisch mit einem Digitalrechner mit den vielen Daten trainiert werden. Für mobile Lösungen wären solche analogen Chips besonders prädestiniert, statt digitale Co-Prozessoren einzusetzen, um analoge Probleme zu lösen. Das Votum von Ulmann ist klar, die Motivation in der Forschung, analoge Lösungen zu berücksichtigen, grösser als auch schon. Nun gilt es, die Lücke zwischen Konzept und Praxis zu schliessen.
Literatur
- Bernd Ulmann, Analog and Hybrid Computer Programming, 2nd edition, De Gruyter, 2023.
- Andreas Hirstein, «Die Zukunft der KI ist analog», NZZ am Sonntag, 9.9.2023.
- Yannis Tsividis, «Not your father’s analog computer», IEEE Spectrum, 1.12.2017.
Kommentare