Architecture des ordinateurs
L’un des ancêtres de l’ordinateur, ici The Harward Mark1 au musée d’IBM… Des célèbres Harward Mark I et Colossus Mark II de la guerre 1939-1945, jusqu’au super calculateur Riken Fugaku de 2020 comptabilisant 159.000 processeurs A64FX ARM pour une puissance de calcul de 415.5 pétaflops, l’architecture des ordinateurs n’a cessé d’évoluer. Les premiers bénéfices sont une puissance de calcul toujours plus importante, obtenue avec du matériel dont la taille se réduit sans cesse, comme en témoigne la classe des micro-ordinateurs Mac Mini,Intel NUC ou encore Raspberry Pi.
Cette miniaturisation permet d’intégrer un nombre croissant de composants, notamment l’unité d’allocation logique (UAL) et l’unité de contrôle au sein d’un même circuit intégré, le microprocesseur. Certaines architectures intègrent même un circuit graphique (Intel Core i5 / i7, AMD A8, notamment) sans oublier le SoC de nos smartphones, pensé pour une intégration maximale de tous les composants essentiels.
Sur les cartes-mères actuelles, la mémoire vive est située sur des circuits intégrés proches du CPU, soudés ou organisés en barrettes amovibles, tandis que la mémoire cache est incorporée à l’intérieur du microprocesseur. Enfin, l’ensemble est cadencé par une horloge système qui s’exprime en mégahertz (MHz). On la souhaite la plus rapide possible, mais deux obstacles limitent cette hausse : plus l’horloge est rapide, plus la chaleur dégagée est importante, et une température trop élevée nuit au microprocesseur. De plus, indépendamment de la température, il existe une cadence où le microprocesseur devient imprévisible (courants de fuite) et génère des erreurs de calcul qui induisent une instabilité, voire le plantage du système.
Dès lors, pour contourner cet écueil, depuis le début des années 2000, la tendance est au regroupement de plusieurs microprocesseurs dans la même puce ; c’est l’architecture Intel Core, reprise par d’autres depuis, qui permet d’augmenter la puissance en multipliant les coeurs, d’autant que la miniaturisation permet cette astuce sans augmenter les coûts…
Une autre tendance apparue en 2006 chez ARM, est aux microprocesseurs sans horloge, cette dernière produisant de la chaleur par ses signaux cadencés, s’en passer permet au microprocesseur d’afficher une consommation quasi nulle au repos, le seul signal d’horloge nécessaire étant celui destiné au rafraîchissement des mémoires. C’est un atout important, surtout pour les appareils portables, dotés de faibles réserves d’énergie, mais aussi sur les supercalculateurs, dont les dizaines de milliers de microprocesseurs réunis dégagent une impressionnante chaleur qu’il convient de dissiper à grand renfort de climatisation énergivore.
Enfin, la principale différence actuelle par rapport au modèle informatique originel de Von Neumann est la présence sur certaines architectures de deux antémémoires différentes : une pour les instructions et une pour les données (alors que le modèle de Von Neumann spécifiait une mémoire commune pour les deux). Aujourd’hui, on considère que si le contenu du cache de données doit être réécrit en mémoire principale quand il est modifié, on sait que celui du cache d’instructions n’aura jamais à l’être, d’où simplification des circuits et un gain de performance comme de consommation, ce qui se traduit par de meilleures performances.
À n’en pas douter, comme en témoigne sa fulgurante évolution, l’architecture des ordinateurs ne sera jamais figée. Cette progression permanente est marquée par des bonds spectaculaires ( transistor, semi-conducteurs, parallélisation ) dont le prochain sera peut-être l’architecture quantique, déjà largement expérimentée dans les laboratoires de plusieurs grandes firmes, dont Google et IBM.