Binaire
Une machine à calculer de Leibnitz, en 1670. En informatique, le langage binaire ne peut prendre que deux valeurs pour s’exprimer, le 1 et le 0, par opposition au système décimal utilisant la base 10 (de 1 à 10) qui s’inspire naturellement du nombre de doigts des deux mains. Pour comprendre l’importance du système binaire, il faut savoir que c’est le seul langage (à cause de sa simplicité) que peut traiter directement un ordinateur par l’intermédiaire de son microprocesseur, un élément de calcul central qui intègre une multitude de transistors. Or, le système de numération binaire correspond exactement aux deux états possibles d’un transistor : ouvert, le courant électrique passe, ce qui équivaut à 1 ; fermé, le courant électrique ne passe pas, ce qui équivaut à 0…
Toute l’informatique est donc basée sur cette suite d’opérations arithmétiques relativement simples, mais effectuées à toute vitesse (celle de l’électricité, proche de celle de la lumière) sur des ensembles de 0 et de 1, soit le langage binaire en action !
À noter que si les bases du langage binaire sont anciennes (certains n’hésitent pas à citer les travaux de Leibniz, un mathématicien allemand né 1646 !) leurs applications dans les premiers calculateurs électromécaniques datent des années 1930, pour prendre leur véritable essor pendant la seconde guerre mondiale (avec les travaux d’Alan Turing notamment) où disposer d’une puissance de calcul suffisante pour casser les codes de l’ennemi s’avéra crucial pour les alliés. Il fallut ensuite attendre l’avènement d’une autre formidable invention, celle du transistor en 1947, pour que s’ouvre l’ère de l’électronique qui jeta les bases de l’informatique moderne que nous connaissons aujourd’hui.