Mémoire cache
La mémoire cache, au plus près des coeurs du microprocesseur, ici sur une architecture Intel Core (crédit Intel). En informatique, la mémoire cache est une petite quantité de mémoire ultra rapide, en général onéreuse, que l’on intercale entre un composant très rapide lui aussi, et une autre mémoire plus lente, mais présente en quantités plus importantes.
Cette demi-mesure est le fruit d’un compromis entre la nécessité d’utiliser la mémoire la plus rapide possible, généralement de la coûteuse SRAM, et un espace de mémoire vive le plus large possible, la SDRAM et ses déclinaisons, relativement “lentes” mais abordables. .
Pour ne pas trop pénaliser les performances d’un système où le microprocesseur ( CPU ) attendrait que la mémoire vive lui réponde, les ingénieurs ont imaginé le principe du cache, qui consiste à placer, au plus près du CPU, une petite quantité de mémoire ultrarapide, parfois sur plusieurs niveaux, la mémoire cache.
Dans cette mémoire, on stockerait, temporairement, les données les plus fréquemment utilisées par le CPU, diminuant ainsi l’impact d’une trop grande différence de performances entre un microprocesseur et sa mémoire de travail. Des algorithmes très complexes se chargent de déterminer quelles données doivent figurer dans le cache à un instant T ; il s’agit de la prédiction de branchement.
À noter que d’autres éléments, comme les disques durs, peuvent aussi bénéficier de l’ingénieux principe de la mémoire cache, et que celui-ci durera tant qu’une mémoire ultra rapide abordable ne sera pas disponible sur le marché, et ce en quantité suffisante pour remplacer la SDRAM classique.