I.A
L’I.A devrait-elle prendre modèle sur l’humain, forcément ? On ne présente plus l’acronyme I.A pour Intelligence Artificielle, thème d’innombrables publications sans oublier les films, mais savons-nous exactement ce que recouvre ce terme créé par John Mac-Carthy au début des années 1960 ? Pour commencer, on doit s’entendre sur le terme intelligence avant de se pencher sur son côté artificiel ; pour le dictionnaire Larousse, il s’agit : “d’un ensemble de fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle, de l’aptitude d’un être humain à s’adapter à une situation, à choisir des moyens d’action en fonction des circonstances.” Alors, l’équivalent existe-t-il au niveau artificiel ? Nos ordinateurs, nos automobiles connectées, voire nos smartphones peuvent-ils revendiquer une forme d’intelligence au vrai sens du terme ? Hélas non, loin de là ! Pourtant, des briques de cet édifice ultime sont déjà présentes ; des entités logicielles comme Watson sont déjà capables de comprendre une question, et de répondre avec une très forte probabilité d’exactitude. Oui, mais tout cela dépend d’un contexte précis, de gigantesques bases de données informatiques et d’un protocole strictement défini dont le programme, si performant soit-il, ne s’écarte jamais… Malgré cela, de nombreux chercheurs pensent qu’il convient de segmenter les définitions de l’intelligence artificielle. Pour certains, l’I.A n’a pas besoin d’imiter l’intelligence biologique de l’humain, elle doit juste être rationnelle et efficace. Pour d’autres, au contraire, la machine ne doit pas se contenter d’avoir un comportement intelligent prévisible, mais elle doit faire preuve de créativité en trouvant, au besoin, une solution adaptative qui ne serait pas écrite dans son programme… De nombreux tests cognitifs et mathématiques, dont celui d’Alan Turing, l’un des pères de l’informatique moderne, ont été élaborés pour déterminer si un ordinateur parvenait à penser comme un humain et à ce jour, aucune machine n’est arrivée à les réussir tous, à l’instant où nous écrivons ces lignes, du moins… Pourtant, certaines limitations sautent graduellement ; en premier lieu, celles liées au matériel informatique, qui furent longtemps un frein. En effet, des supercalculateurs comme l’IBM Deep Blue sont capables d’une puissance de calcul supérieure à celle d’un cerveau humain (du moins l’estime-t-on) et rien n’empêche de les réunir en série. Plus près de nous, des ordinateurs spécialisés dits “neurals” commencent à être embarqués dans certains véhicules, à l’image de ceux qui équipent les automobiles de la firme Tesla et qui visent, à terme, une conduite complètement autonome, quel que soit l’environnement ! Et puis, en complément des progrès du matériel, vint la mémoire, le stockage des informations, elle aussi dépassant (cette fois, très largement avec le cloud computing) les capacités d’un cerveau humain… Alors, que manque-t-il ? Une révolution logicielle, assurément ! De vastes programmes comme le Deep Learnig sont en cours, mais sans les dénigrer, il est peu probable qu’ils parviennent au niveau souhaité. Pour cela, il faudra qu’un ensemble d’algorithmes parviennent à retranscrire le mécanisme des émotions, à s’en servir pour créer, pour s’adapter à une situation imprévue, à moins qu’il existe une autre forme d’intelligence que la nôtre, que celle des êtres vivants, et qu’elle soit encore à découvrir ? Il n’en demeure pas moins qu’un peu partout sur la planète des dizaines de milliers de chercheurs travaillent sur le sujet, et peu de projets auront autant d’impact sur nos sociétés en cas d’aboutissement… À un point tel que certains espèrent que ce jour demeure à jamais une utopie…