Compter sur l’avenir
La fin de la loi de Moore motive
La miniaturisation de la technologie des semi-conducteurs atteint ses limites. Afin de continuer à accroître la puissance de calcul, les scientifiques travaillent intensément sur de nouveaux concepts d’ordinateurs.
Il y a un demi-siècle, le cofondateur d’Intel Gordon Moore prédisait que le nombre de transistors dans une puce doublerait tous les 12 mois. En 1975, il ajustait la période à 24 mois, sa base de données étant désormais plus solide. Ce qui au départ était une observation du développement est devenu l’objectif des fabricants de puces.
Pour atteindre cet objectif, il est déjà apparu dans les années 2000 que la réduction de la géométrie ne suffirait pas. De nouveaux matériaux visant à augmenter la capacité des transistors ont d’abord été introduits puis les transistors Tri-Gate en 22 nm – une taille qui correspond à l’ADN humain. Mais il est de plus en plus clair que l’objectif de Moore ne peut plus être atteint, les plus petites structures pouvant être réalisées à l’aide des processus photolithographiques actuels avec une longueur d’onde de 193 nm étant limitées à 14 nm. Certes, il est possible de créer des structures encore plus petites avec une lumière UV extrême, mais il s’agit d’un procédé techniquement difficile et coûteux. De plus, cela réduirait la fiabilité des transistors, car ils seraient si proches les uns des autres qu’ils s’influenceraient mutuellement. Des effets quantiques et des courants de fuite indésirables apparaîtraient également.
Les conséquences économiques de ces défis peuvent être exprimées par «la contrepartie» de la loi de Moore: la loi d’Arthur Rock affirme que les frais d’une usine de fabrication de puces doublent tous les quatre ans. Il arrive donc un moment où les frais d’investissement sont si élevés qu’il devient impossible de financer la croissance relative à la loi Moore.
Comment poursuivre?
Les quantités de données augmentent sans cesse. Voice-over-IP, l’Internet des objets, les médias sociaux et le streaming de vidéos génèrent une demande qu’il est impossible d’ignorer. Les exigences en termes de puissance des ordinateurs augmentent également. Le calcul devient plus intense, mot-clé Cognitive Computing: on souhaite extraire des informations utiles à partir d’énormes quantités de données déstructurées.
De nouvelles technologies informatiques sont déjà en cours de développement, mais il va falloir encore beaucoup de temps avant que des nanocommutateurs et autres systèmes soient disponibles à grande échelle. Comment combler cette lacune? Bruno Michel, chercheur depuis déjà 14 ans chez IBM dans le domaine des technologies des puces des ordinateurs et leur refroidissement, ébauche une solution. Selon lui, la résistance thermique constitue le cœur du problème. Plus cette dernière est basse dans un ordinateur, plus celui-ci peut être construit de manière dense. Et dans la mesure où 99% de l’énergie sont utilisés pour le transport des données et seulement 1% pour le calcul, il est évident que les systèmes intégrés plus denses nécessitent nettement moins d’énergie en raison des voies de communication plus courtes. On peut donc énoncer l’affirmation suivante pour l’intégralité de la branche de l’informatique: plus les systèmes sont petits, plus ils sont efficaces. Bruno Michel compare ce fait avec le cerveau humain qui est environ 10'000 fois plus dense et efficace qu’un ordinateur actuel. Deux raisons pourraient expliquer cette efficacité: une architecture particulière et la densité. Comme après un siècle de recherche, nous ne connaissons toujours pas le mode de fonctionnement du cerveau en détail mais nous savons quel rôle la densité joue sur l’efficacité, il propose de se concentrer sur ce point pour améliorer l’efficacité des ordinateurs.
Réduire la résistance thermique
En réduisant la résistance thermique, les composants pourront être disposés de manière plus dense. Cela permettrait de réduire la consommation énergétique de la communication et de rendre le calculateur plus efficace. La première étape a été réalisée sur les supercalculateurs refroidis à l’eau Aquasar (ETH Zurich) et Supermuc du Leibniz Supercumputing Center, à Munich. Avec un volume de 50'000 m3, ce dernier fournit une puissance de calcul de 1 PFlops (1015 Flops). Avec la technologie CMOS actuelle, les chercheurs d’IBM souhaitent, grâce à l’intégration 3D combinée avec un refroidissement de l’empilement de puces par un fluide qui lui procure du même coup son alimentation en courant, diviser ce volume par un facteur de 50 millions afin de rendre le système 5000 fois plus efficace. Horizon temporel: de 10 à 15 ans.
L’Internet des objets pourrait ouvrir une voie supplémentaire. Des microcalculateurs équipés de capteurs et portés sur le corps, lesdits Wearables, pourraient permettre une nouvelle plate-forme technologique nettement plus efficace et économique. Bruno Michel renvoie ici à la loi formulée en 1972 par Gordon Bell. Bell y décrit l’apparition de nouvelles catégories d’ordinateurs permettant de nouvelles applications et donc la conquête de plus grands marchés et de nouvelles industries, ce qui les rend bien moins onéreux. Un tel saut technologique a lieu tous les 10 ans. Ce développement a commencé dans les années 1960 avec les Mainframes, les mini-ordinateurs ont ensuite fait leur apparition, suivis des PC, des structures client-serveur, du Cloud Computing et aujourd’hui par les appareils mobiles (smartphones, tablettes) et les réseaux de capteurs sans fil. Pour obtenir un ordinateur aussi économique que possible, il faut miser sur les dernières technologies: les économiques Wearables.
Aujourd’hui, les Wearables sont encore souvent trop gros ainsi que pas suffisamment fiables et performants. Mais en optimisant ces aspects, on peut s’attendre à une percée dans le Computing. Le principe selon lequel nous devions aller vers notre ordinateur et apprendre son langage sera alors inversé. Nous disposerons d’un système toujours présent, utilisable de manière intuitive et qui en sait long sur la personne; un système en mesure d’identifier nos émotions et de parler notre langage.
Le spectre des applications de tels Wearables est grand. Par exemple, ils peuvent rappeler à des malades chroniques de prendre leurs médicaments ou encore observer l’état de patients rentrés plus tôt de l’hôpital: en cas de dégradation, ils déclenchent une alarme, avant même qu’une situation critique ne se produise. Aujourd’hui, nous dépendons encore d’un «Edge Device», le Cognitive Hypervisor qui collecte les données des capteurs à la maison et qui envoie des messages à l’utilisateur ou aux médecins. À l’avenir, tous ces éléments pourraient être intégrés dans un «Hearable» porté dans l’oreille. Des applications sont également possibles dans le domaine du fitness et de la remise en forme.
Le marché potentiel est considérable. De nouveaux investisseurs pourraient permettre d’intégrer plus de capteurs, d’augmenter la performance et de rendre les Wearables encore plus petits et attractifs. Une chance pour des ordinateurs efficients mis en réseau.
Les générations suivantes
La recherche s’occupe également du développement de concepts entièrement nouveaux. Au laboratoire de recherche IBM à Rüschlikon, il s’agit, entre autres, du calcul quantique et du Neuromorphic Computing. Ces deux concepts renferment un grand potentiel: concernant les calculateurs quantiques, environ 60 qubits suffiraient pour atteindre des puissances de calcul inégalées, par exemple en vue de simuler des réactions chimiques complexes. Cette performance est notamment due à la quantité d’états que les qubits permettent: les qubits ne prennent pas uniquement les états 0 et 1 mais également une superposition des deux. Un seul qubit peut être dans n’importe quel état situé sur une surface sphérique comprenant les états 0 et 1. Cette superposition de plusieurs états permet le calcul parallèle. Si le problème est posé de manière appropriée, la puissance de calcul de l’ordinateur quantique augmente de façon exponentielle avec le nombre de qubits.
Le Neuromorphic Computing s’inspire du fonctionnement du cerveau. La logique et la mémoire coexistent au même endroit, ce qui permet d’augmenter considérablement l’efficacité énergétique. À Rüschlikon, ces systèmes sont réalisés avec des Phase Change Memory Devices (PCM) fabriqués avec le même matériau que celui utilisé dans les DVD réinscriptibles. Cette architecture est particulièrement adaptée à la reconnaissance de patterns dans de gigantesques quantités de données ainsi qu’à l’extraction de données dans des environnements «bruyants». Nous avons aujourd’hui des puces exploitables dotées de quelques millions de cellules PCM pouvant être reliées en groupes de neurones et synapses artificiels. Il pourrait cependant s’écouler encore quelques années avant d’arriver à un produit final qui puisse être utilisé en pratique.
Littérature
Peter Bright, «Moore's law really is dead this time», Ars Technica, 11.02.2016.
Commentaire