Mit der Zukunft rechnen
Das Ende des mooreschen Gesetzes motiviert
Die Miniaturisierung der konventionellen Halbleitertechnologie stösst an ihre Grenzen. Da eine weitere Skalierung kaum mehr möglich ist, arbeitet man intensiv an neuen Rechner-Konzepten.
Vor einem halben Jahrhundert hat der Intel-Mitgründer Gordon Moore vorausgesagt, dass sich – vereinfacht gesagt – die Anzahl Transistoren auf einem Chip alle 12 Monate verdoppeln würde. 1975 passte er die Zeitspanne auf 24 Monate an, da seine Datenbasis nun solider war. Was zunächst eine Beobachtung der damaligen Entwicklung war, wurde von den Chipherstellern als Zielvorgabe übernommen.
Um dies zu erreichen, sah man bereits in den 2000er-Jahren, dass es nicht ausreicht, nur die Geometrie zu verkleinern. Zunächst wurden neue Materialien zur Erhöhung der Kapazität der Transistoren eingeführt und dann Tri-Gate-Transistoren bei 22 nm – eine Grösse, die der menschlichen DNA entspricht. Nun zeichnet sich ab, dass die Vorgabe von Moore nicht mehr erreicht werden kann, denn das heutige fotolithografische Verfahren schafft kleinste Strukturen von 14 nm mit Licht mit einer Wellenlänge von 193 nm. Noch kleinere Strukturen können zwar durch den Einsatz von extremem UV-Licht geschaffen werden, dies ist aber technisch schwierig und teuer. Zudem sinkt die Zuverlässigkeit der Transistoren, denn sie sind nun so nahe beieinander, dass sie sich gegenseitig beeinflussen. Es treten zunehmend auch unerwünschte Quanteneffekte und Leckströme auf.
Die ökonomischen Folgen dieser Herausforderungen können mit dem «Gegenspieler» des mooreschen Gesetzes ausgedrückt werden: Das Gesetz von Arthur Rock sagt, dass sich die Kosten einer Chipfabrik alle vier Jahre verdoppeln. Es kommt also ein Zeitpunkt, an dem die Investitionskosten so hoch sind, dass sich das mooresche Wachstum nicht mehr finanzieren lässt.
Wie weiter?
Die Datenmengen wachsen ungebremst weiter. Mit Voice-over-IP, dem Internet der Dinge, den Social Media und Video-Streams kommen Anforderungen, die nicht ignoriert werden können. Zudem steigen die Ansprüche an die Rechenleistung. Das Rechnen wird intensiver, Stichwort Cognitive Computing: Aus riesigen unstrukturierten Datenmengen möchte man nützliche Informationen gewinnen.
An neuen Hardware-Technologien wird bereits gearbeitet, aber bis Nano-Schalter und Ähnliches in grossem Massstab verfügbar sein werden, wird noch viel Zeit vergehen. Wie schliesst man diese Lücke? Einen Lösungsansatz skizziert Bruno Michel, der sich seit 14 Jahren als Forscher bei IBM mit Computerchiptechnologien und deren Kühlung beschäftigt. Bei seiner Perspektive steht der Wärmewiderstand im Fokus. Je kleiner er in Rechnern ist, desto dichter können diese gebaut werden. Und da 99% der Energie für den Datentransport eingesetzt werden und nur 1% für das eigentliche Rechnen, ist es naheliegend, dass dichter integrierte Computersysteme dank kürzerer Kommunikationswege deutlich weniger Energie brauchen. Für die gesamte Computerbranche gilt deshalb: Je kleiner die Systeme, desto effizienter sind sie. Bruno Michel vergleicht dies mit dem menschlichen Gehirn, das rund 10 000 Mal dichter und um den gleichen Faktor effizienter als heutige Rechner ist. Zwei Gründe sind für diese Effizienz vorstellbar: Eine besondere Architektur und die Dichte. Da wir auch nach einem Jahrhundert Forschung die Funktionsweise des Gehirns nicht im Detail kennen, aber wissen, welche Rolle die Dichte bei der Effizienz spielt, schlägt er vor, dass man sich nun auf Letzteres konzentriert, um Rechner effizienter zu machen.
Den Wärmewiderstand verkleinern
Wenn der Wärmewiderstand reduziert wird, können Komponenten näher zusammengebracht werden. Dadurch sinkt der Energieverbrauch der Kommunikation und der Rechner wird effizienter. Erste Schritte in diese Richtung wurden bei den wassergekühlten Rechnern Aquasar (ETH Zürich) und Supermuc am Leibniz-Rechenzentrum in München realisiert. Letzterer leistet bei einem Volumen von 50 000 m3 1 PFlops (1015 Flops). Die IBM-Forscher wollen dies mit einer 3D-Integration in Kombination mit einer Flüssigkühlung im Chipstapel, die gleichzeitig die Stromversorgung übernimmt, 50 Millionen Mal schrumpfen. Dadurch soll das System 5000 Mal effizienter werden – mit der aktuellen CMOS-Technologie. Zeithorizont: 10 bis 15 Jahre.
Ein weiterer Weg könnte mit dem Internet der Dinge beschritten werden. Am Körper getragene, sensorbestückte Mikrorechner, sogenannte Wearables, könnten eine neue Technologieplattform ermöglichen, die deutlich effizienter und preisgünstiger ist. Bruno Michel verweist hier auf das Gesetz, das durch Gordon Bell 1972 formuliert wurde. Bell beschrieb, wie neue Computer-Klassen entstehen, die neue Anwendungen ermöglichen und dadurch grössere Märkte und neue Industrien erobern – und dadurch viel preisgünstiger werden. Alle zehn Jahre findet ein solcher Technologiesprung statt. Begonnen hatte diese Entwicklung in den 1960er-Jahren mit den Mainframes, dann kamen die Minicomputer, gefolgt von den PCs, den Client-Server-Strukturen, dem Cloud Computing und heute den mobilen Geräten (Smart Phones, Tablets) bis zu drahtlosen Sensor-Netzwerken. Um möglichst sparsame Computer zu erhalten, muss man bei der neusten Technologie ansetzen, bei den preisgünstigen Wearables.
Heute sind Wearables oft noch zu gross und nicht zuverlässig und leistungsfähig genug. Aber wenn man diese Aspekte optimiert, kann ein Durchbruch im Computing erwartet werden. Dann wird das Prinzip, wonach man zum Computer gehen und seine Sprache lernen musste, umgekehrt. Man wird ein System haben, das immer präsent ist, sich intuitiv bedienen lässt und viel über die Person weiss – ein System, das in der Lage ist, unsere Emotionen zu erkennen und unsere Sprache zu sprechen.
Das Spektrum der Anwendungen solcher Wearables ist gross. Beispielsweise können sie chronisch Kranke an die Einnahme von Medikamenten oder durchzuführende Aktivitäten erinnern, oder den Zustand von Patienten, die früher vom Spital nach Hause zurückkehren, beobachten: Bei Verschlechterungen lösen sie einen Alarm aus – schon bevor eine kritische Situation eintritt. Heute ist man noch auf ein «Edge Device», den Cognitive Hypervisor, angewiesen, der zu Hause Sensordaten sammelt und dem Anwender oder den Ärzten Meldungen schickt. Künftig könnte all dies in einem «Hearable» im Ohr integriert sein. Auch im Fitness- und Wellnessbereich sind Anwendungen möglich.
Der potenzielle Markt ist beträchtlich. Neue Investoren könnten es ermöglichen, dass mehr Sensoren integriert, die Leistungsfähigkeit gesteigert und die Wearables noch kleiner und attraktiver gestaltet werden. Eine Chance für energieeffiziente, vernetzte Computer.
Die übernächsten Generationen
In der Forschung befasst man sich auch mit neuartigen Konzepten. Am IBM-Forschungslabor in Rüschlikon sind dies u.a. das Rechnen mit Quanten und das Neuromorphic Computing. Beide Ansätze bergen viel Potenzial: Beim ersteren würden schon rund 60 Quantenbits genügen, um zu bisher unerreichten Rechenleistungen zu kommen, z.B. um chemische Reaktionen zu simulieren. Ein Grund für diese Leistungsfähigkeit ist die Menge der durch Qubits darstellbaren Zustände: Sie können nicht nur die Zustände 0 oder 1 einnehmen, sondern auch eine Überlagerung der beiden. Ein einzelnes Qubit kann so in jedem Zustand auf einer Kugeloberfläche sein, welche 0 und 1 berührt. Diese Überlagerung von mehreren Zuständen ermöglicht paralleles Rechnen. Bei günstigen Problemstellungen wächst demnach die Rechenleistung eines Quantenrechners exponentiell mit der Anzahl der Qubits.
Das Neuromorphic Computing, ein Rechenkonzept, das die Funktionsweise des Gehirns nachahmt, hat wiederum den Vorteil, dass die Logik und der Speicher am gleichen Ort existieren können. Dies macht es schnell und sparsam. Realisiert wird dies in Rüschlikon mit Phase Change Memory Devices, einem Material, das auch in beschreibbaren DVDs eingesetzt wird. Besonders geeignet ist diese Architektur für die Mustererkennung in riesigen Datenmengen und die Datenextraktion in «verrauschten» Umgebungen. Heute hat man funktionsfähige Chips mit einigen Millionen PCM-Zellen, die in Gruppen von künstlichen Neuronen und Synapsen miteinander verbunden werden können. Es wird jedoch noch einige Jahre dauern, bis diese Art des Rechnens praxistauglich ist.
Literatur
Peter Bright, «Moore's law really is dead this time», Ars Technica, 11. 2. 2016.
Kommentare