On ne présente plus l’Intelligence Artificielle. C’est probablement l’un des sujets techniques les plus présents dans les média ces 5 dernières années.
C’est aussi un sujet très concerné par l’éthique, car les applications qui peuvent en être faites pourraient facilement dériver vers des usages peu recommandables.
Cette technologie impacte tout autant le grand public que l’entreprise la plus avancée.
Pourtant, les techniciens et experts qui devront mettre en œuvre, implémenter, pratiquer cette “technologie” le savent : l’Intelligence Artificielle (IA) est plutôt un terme médiatique.
Derrière cette notion floue se cachent en fait de multiples niveaux de complexité, et de multiples outils.
Deux concepts ont notamment émergé : le Machine Learning et le Deep Learning.
Que recouvrent-ils, que permettent-ils, en quoi sont ils différents de l’IA ? Nous vous l’expliquons.
L’Intelligence Artificielle : une première étape, mais aussi un terme générique
On ne peut expliciter le Machine Learning et le Deep Learning sans passer par la case Intelligence Artificielle. Le temps d’évacuer assez vite quelques idées reçues.
La CNIL qualifiait l’IA, dans un document de 2017, de “grand mythe de notre temps” [i]. Derrière ce jugement un peu péremptoire, se cache l’idée que l’on prête à l’Intelligence Artificielle des pouvoirs qu’elle n’a pas.
A la base, l’Intelligence Artificielle est un concept né dans les années 50. L’idée est une émanation concomitante de plusieurs cerveaux éminents.
Parmi ceux-ci, Alan Turing ou Warren Weaver, puis John McCarthy. Avec d’autres, ils pensent qu’une machine peut parvenir à imiter certaines fonctions cognitives humaines. Ce qui sera vérifié assez vite. Mais il faut bien comprendre que ce terme ne recouvre encore qu’une série d’algorithmes. Ceux-ci restent conçus et programmés par l’homme, et aboutiront à un résultat prévisible.
De cette origine, il devrait exister 2 façons différentes de définir l’IA :
- Dans un première acceptation, elle constitue le socle, le premier degré d’une évolution qui a conduit au Machine Learning, puis au Deep Learning.
- Dans une autre acceptation plus fréquente, elle est un terme générique qui englobe ces deux derniers concepts, ainsi que tout nouvel outil plus puissant qui pourrait apparaitre.
Le Machine Learning : pour aller au delà de la programmation
Considérer qu’un simple algorithme, qu’une suite de calculs ou de formules, puisse être une approximation suffisante de l’Intelligence humaine, n’est pas satisfaisant.
Cela reviendrait à considérer des automates imitant la nature, tel que ceux de Vaucanson (le joueur de flute, le canard…) comme des robots dotés d’une IA.
C’est pourquoi, dans les années 80, émerge des outils plus puissants. Cette émergence est aussi, mécaniquement, le fruit des avancées techniques en matière de traitement des données.
L’inconvénient de l’IA stricto sensu, dans son acceptation initiale des années 50, c’est sa rigidité. Il faut définir des comportements immuables, les modéliser, les transformer en ligne de code. Ce process est réducteur et couteux en temps.
Le Machine Learning, lui, cherche à élargir le champ des applications possibles, et à générer un gain de temps. Il va pour cela s’appuyer sur la statistique.
Profitant des capacités de traitement (mais aussi de stockage) multipliées, les informaticiens ont imaginé de doter l’ordinateur de rudiments d’apprentissage.
Il s’agit, dans l’idéal, de résoudre certaines tâches sans que la machine ne soit explicitement programmée pour chacune. Pour cela, on va chercher à isoler des répétitions (aussi nommées patterns) dans des flux de données afin d’en tirer des conséquences.
S’appuyant sur l’analyse des données, le Machine Learning (ML) est intimement lié au Big Data. Car son efficacité dépendra en grande partie de la quantité et de la qualité des données disponibles.
[35 % lus]. Vous souhaitez en savoir plus sur ce sujet ?
Cet article a été créé en partenariat avec Appvizer, et nous vous invitons à le découvrir en intégralité sur leur plateforme.
[i] https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf