Des robots qui parlent ou même qui écrivent, des logiciels qui gèrent un inventaire dans une usine, des voitures qui se conduisent elles-mêmes, l’outil recommandation sur Amazon ou Netflix, la domotique ou même le système de reconnaissance facial sur Facebook sont tous des exemples utilisant l’intelligence artificielle de nos jours
Des robots qui parlent ou même qui écrivent, des logiciels qui gèrent un inventaire dans une usine, des voitures qui se conduisent elles-mêmes, l’outil recommandation sur Amazon ou Netflix, la domotique ou même le système de reconnaissance facial sur Facebook sont tous des exemples utilisant l’intelligence artificielle de nos jours

Trois grandes avancées en intelligence artificielle

Simon Roberge, Initiative de journalisme local
Simon Roberge, Initiative de journalisme local
La Tribune
En 1997, l’ordinateur Deep Blue bat le champion du monde d’échec Garry Kasparov, devenant ainsi la première machine à battre l’humain. Ce moment s’avère marquant puisqu’il a donné un second souffle à l’intelligence artificielle, qui n’a pas arrêté de progresser depuis. Et 23 ans plus tard, les ordinateurs peuvent faire bien plus que de jouer aux échecs.

Des robots qui parlent ou même qui écrivent, des logiciels qui gèrent un inventaire dans une usine, des voitures qui se conduisent elles-mêmes, l’outil recommandation sur Amazon ou Netflix, la domotique ou même le système de reconnaissance facial sur Facebook sont tous des exemples utilisant l’intelligence artificielle de nos jours.

Présente à peu près partout, l’intelligence artificielle est plutôt simple à comprendre. Comment est-ce qu’un ordinateur peut apprendre à jouer aux échecs, gérer un inventaire ou reconnaître une personne sur une photo? La réponse est simple : de la même façon que l’être humain.

« L’humain emmagasine l’information dans son cerveau, explique Jean-Sébastien Dessureault, fondateur de la Cellule d’expertise en robotique et intelligence artificielle rattachée au Cégep de Trois-Rivières. Si on lui montre une photo d’une personne une fois, ça se peut qu’il ne la reconnaisse pas tout de suite sur une autre photo, mais si on lui montre 1000 fois une photo de la même personne, il va se faire une tête et il sera capable de la reconnaître dans n’importe quelles circonstances. »

C’est le même principe avec le réseau de neurones artificiel d’une intelligence artificielle. 

« Plus on fait vivre des expériences à un réseau de neurones, plus l’ordinateur sera compétent à effectuer une certaine tâche, que ce soit, par exemple, reconnaître un visage ou des objets dans une photo, ajoute celui qui poursuit un doctorat en génie électrique à l’UQTR. C’est possible pour un ordinateur d’apprendre sur la base d’expériences antérieures. Plus la donnée est complexe, plus il faut lui faire vivre des expériences. »

Jean-Sébastien Dessureault

Big data, cartes graphiques et connectivité

Ce sont trois grandes avancées en informatique qui permettent aujourd’hui de parler à Siri sur son téléphone : le big data, les cartes graphiques et la connectivité.

La première clé USB a été vendue en 2000. Pour 30 $, on pouvait mettre la main sur une capacité de stockage de 128... megs. À peine 20 ans plus tard, une clé USB de 8 gigs coûte environ 10 $ et il est très abordable d’acheter des téraoctets de données. C’est ce qu’on appelle le big data, c’est-à-dire l’explosion des quantités de stockage disponibles.

« C’est la source de l’intelligence artificielle, mentionne M. Dessureault. C’est ce qui est utilisé pour nourrir un réseau de neurone. Avec du stockage on peut mettre des vidéos, photos et sons. On est en mesure de stocker beaucoup plus de données. »

L’industrie des jeux vidéo a mené à la création des cartes graphiques qui, au contraire des microprocesseurs, peuvent traiter l’information en parallèle.

« Les microprocesseurs traitent les données de façon séquentielle, une après l’autre. On leur en demandait beaucoup. Les jeux vidéo ont beaucoup aidé l’intelligence artificielle. Ils ont permis d’avoir des graphiques de jeux vidéo plus performants rapidement, mais on a aussi besoin de le faire en intelligence artificielle. »

Ce qui aurait pris à un microprocesseur des mois ou des années de traitement prend maintenant quelques heures. 

Et finalement la très grande connectivité entre nos cellulaires, ordinateurs, voiture, montre, etc. aident beaucoup à la collecte de données.

« De plus en plus, on a des senseurs un peu partout dans notre environnement, souligne M. Dessureault. Les objets sont connectés entre elles et ça permet d’amener beaucoup d’eau au moulin. L’information, avant de la stocker, il faut la ramasser dans l’environnement humain. »

En attendant d’autres avancées majeures, en informatique quantique par exemple, ces trois grands axes seront encore au cœur du développement de l’intelligence artificielle dans les prochaines années.

Le jeu de l'imitation

Pour remonter aux origines de l’intelligence artificielle, il faut retourner jusque dans les années 1950 avec Alan Turing, connu pour avoir joué un rôle majeur dans la cryptanalyse de la machine Enigma lors de la Seconde Guerre mondiale.

« Il a posé la question à savoir si une machine peut penser, explique Jean-Sébastien Dessureault. Il s’est demandé si on pouvait arriver à tromper un humain en le faisant communiquer avec une machine et qu’il pense que c’est un autre humain. Ça s’appelle le test de Turing ou le jeu de l’imitation. À partir de cette publication, on s’est mis à réfléchir à l’intelligence artificielle. »

Les découvertes de Hodgkin et Huxley en biologie ont également amené beaucoup d’eau au moulin pour l’intelligence artificielle à ses débuts.

« Ils ont réussi à mettre des senseurs sur le cerveau d’un calmar géant pour vraiment voir comment les signaux électriques se répandent dans un cerveau. »

Ces recherches ont mené à la création d’un premier réseau de neurones artificiels, un procédé encore utilisé de nos jours.