Du Machine Learning au Deep Learning : la marche de l'IA vers l'autonomie

Du Machine Learning au Deep Learning : la marche de l'IA vers l'autonomie

Le 13/03/2020

On ne présente plus l’Intelligence Artificielle. C’est probablement l’un des sujets techniques les plus présents dans les médias ces 5 dernières années.

On lui prête mille vertus et possibilités. C’est une technologie qui impacte tout autant le grand public que l’entreprise la plus avancée.

Pourtant, les techniciens et experts qui devront mettre en œuvre, implémenter, pratiquer cette « technologie » le savent : l’Intelligence Artificielle (IA) est plutôt un terme médiatique. Derrière cette notion floue se cachent en fait de multiples niveaux de complexité, et de multiples outils.

Deux concepts ont notamment émergé : le Machine Learning et le Deep Learning. Que recouvrent-ils, que permettent-ils, en quoi sont-ils différents de l’IA ? Nous vous l’expliquons.

L’Intelligence Artificielle : une première étape, mais aussi un terme générique

On ne peut expliciter le Machine Learning et le Deep Learning sans passer par la case Intelligence Artificielle. Le temps d’évacuer assez vite quelques idées reçues.

La CNIL qualifiait l’IA, dans un document de 2017, de « grand mythe de notre temps » 1. Derrière ce jugement un peu péremptoire se cache l’idée que l’on prête à l’Intelligence Artificielle des pouvoirs qu’elle n’a pas.

À la base, l’Intelligence Artificielle est un concept né dans les années 50. L’idée est une émanation concomitante de plusieurs cerveaux éminents.

Parmi ceux-ci, Alan Turing ou Warren Weaver, puis John McCarthy. Avec d’autres, ils pensent qu’une machine peut parvenir à imiter certaines fonctions cognitives humaines. Ce qui sera vérifié assez vite. Mais il faut bien comprendre que ce terme ne recouvre encore qu’une série d’algorithmes. Ceux-ci restent conçus et programmés par l’homme, et aboutiront à un résultat prévisible.

De cette origine, il devrait exister 2 façons différentes de définir l’IA :

  • Dans une première acceptation, elle constitue le socle, le premier degré d’une évolution qui a conduit au Machine Learning, puis au Deep Learning.
  • Dans une autre acceptation plus fréquente, elle est un terme générique qui englobe ces deux derniers concepts, ainsi que tout nouvel outil plus puissant qui pourrait apparaitre.

Le Machine Learning : pour aller au-delà de la programmation

Considérer qu’un simple algorithme, qu’une suite de calculs ou de formules puisse être une approximation suffisante de l’intelligence humaine, n’est pas satisfaisant. Cela reviendrait à considérer des automates imitant la nature, tel que ceux de Vaucanson (le joueur de flute, le canard…) comme des robots dotés d’une IA.

C’est pourquoi, dans les années 80, émergent des outils plus puissants. Cette émergence est aussi, mécaniquement, le fruit des avancées techniques en matière de traitement des données.

L’inconvénient de l’IA stricto sensu, dans son acceptation initiale des années 50, c’est sa rigidité. Il faut définir des comportements immuables, les modéliser, les transformer en ligne de code. Ce process est réducteur et couteux en temps.

Le Machine Learning, lui, cherche à élargir le champ des applications possibles, et à générer un gain de temps. Il va pour cela s’appuyer sur la statistique. Profitant des capacités de traitement (mais aussi de stockage) multipliées, les informaticiens ont imaginé de doter l’ordinateur de rudiments d’apprentissage.

Il s’agit, dans l’idéal, de résoudre certaines tâches sans que la machine ne soit explicitement programmée pour chacune. Pour cela, on va chercher à isoler des répétitions (aussi nommées patterns) dans des flux de données afin d’en tirer des conséquences.

S’appuyant sur l’analyse des données, le Machine Learning (ML) est intimement lié au Big Data. Car son efficacité dépendra en grande partie de la quantité et de la qualité des données disponibles.

Dans les rouages du Machine Learning

On peut considérer que le Machine Learning s’appuie sur 2 phases :

  • Une première phase dite d’estimation consiste à mettre en place un modèle. Dans cette étape, les données utilisées, que l’on nomme parfois observations, sont en nombre fini. On parle à ce stade d’apprentissage ou d’entraînement : c’est encore l’homme qui interagit, tri, oriente.
  • Dans une seconde phase, on va appliquer ce modèle préalablement déterminé et validé à un grand nombre de données. On peut alors parler d’une mise en production. Il s’agit d’obtenir des résultats exploitables, mais aussi, souvent, de continuer la phase d’apprentissage. L’outil deviendra ainsi plus performant au fil du temps.

Le Machine Learning fait donc apparaitre la notion d’apprentissage. Cet apprentissage peut se faire selon différents modes :

  • supervisé,
  • non-supervisé,
  • semi-supervisé,
  • partiellement supervisé,
  • par renforcement,
  • par transfert.

L’usage de ces méthodes peut conduire à un outil qui offre plus ou moins de sérendipité.

Les algorithmes utilisés par le Machine Learning sont nombreux. Il est impossible de les citer tous, d’autant qu’il s’agit d’un domaine en évolution constante. Parmi les plus utilisés :

  • « Random Forest », basé sur des arbres de décisions,
  • Les machines à vecteurs,
  • Les réseaux Bayesiens,
  • La régression logistique,
  • Les algorithmes évolutionnistes.

Ce qu’il est important de retenir, c’est que le Machine Learning est une boîte à outils foisonnante. Chaque projet devra donc choisir les méthodes d’apprentissage et les algorithmes les plus adaptés à son objectif.

Forces et faiblesses du Machine Learning

Cette forme d’Intelligence Artificielle a démontré ses capacités en de multiples occasions. Elle fut notamment médiatisée par ses « exploits » dans le domaine du jeu. Elle a permis a l’ordinateur de battre l’homme sur des terrains de plus en plus complexes. Depuis le jeu de dames, dès les années 50, jusqu’au jeu d’échecs avec la victoire de Deep Blue (IBM) sur Gary Kasparov en 1997.

Le Machine Learning peut aussi apporter très concrètement à une entreprise des bénéfices quantifiables. Il est applicable par exemple à l’analyse prédictive, à la perception (reconnaissance d’écriture, reconnaissance visuelle…), à la détection de fraude, à l’aide au diagnostic, à l’analyse financière ou de marché, etc.

On est bien là en présence d’un outil d’IA adaptable et convertible en ROI. De plus, avec l’avancée du Cloud et des technologies Big Data, le Machine Learning devient accessible, techniquement et financièrement, a un plus grand nombre d’organisations.

Malgré ses qualités, le Machine Learning recèle aussi quelques faiblesses. Elles tiennent essentiellement à la qualité des données qui lui permettent de fonctionner. Tant au stade de la modélisation (choix et pertinence des données), qu’au stade de l’exploitation, il faut disposer de Data parfaitement adaptées, validées, et en quantité suffisante.

Mais la restriction majeure du Machine Learning, c’est l’intervention initiale de l’homme pour mettre en place le modèle. D’où l’évolution vers un process plus autonome.

Plus loin dans l’IA : le Deep Learning

Et si l’intervention humaine encore nécessaire pour le Machine Learning pouvait être évitée ? N’a-t-on pas orienté, sans le vouloir, l’exploitation des données dans une direction inopportune ? Ne passe-t-on pas à côté d’informations d’une grande importance stratégique, contenues dans les données, mais que l’on n’a pas mises à jour ?

Pour répondre à ces questions, il faut imaginer une méthode plus intuitive et systématique. Elle doit combiner un Data Mining étendu avec un traitement quasi neuronal des informations, plus proche d’un cerveau humain. C’est le Deep Learning, apparu dans les années 2000.

Plutôt que de cibler « à priori » certaines données, le Deep Learning est capable de les analyser de façon plus exhaustive. Un tel outil permet alors de faire ressortir des redondances, structurations, étrangetés, qui sont signifiantes, exploitables, et qui peuvent être corrélées.

Il s’appuie pour cela sur des « neurones virtuels », les réseaux neuronaux. Organisés en couches successives, ils sont basés sur des algorithmes de traitement différents. Chaque couche peut ainsi avoir une fonction spécifique : tri, reconnaissance de forme, stockage provisoire d’informations, etc.

Une évolution plutôt qu’une révolution

Le Deep Learning est donc une évolution, une spécialisation du Machine Learning. Il peut même être considéré comme l’un des algorithmes les plus efficients du Machine Learning. Il en diffère en prenant directement en charge les tâches de spécification de fonction (les caractéristiques à analyser à partir des données) et l’optimisation (comment évaluer les données pour fournir une prévision précise).

Un réseau neuronal reçoit une information, puis l’analyse. Il prend une décision sur cette base, puis il est informé selon que sa détermination est correcte ou incorrecte. Un algorithme va alors pouvoir modifier la connexion entre les « neurones ».

Procédant ainsi par expérimentation, à partir de millions de données et d’informations, il peut parvenir « in fine » à prendre la décision adéquate avec une probabilité maximale.

Ce fonctionnement optimise les avantages initiaux du Machine Learning. Ainsi, pour reprendre l’exemple des jeux cité plus haut, c’est le Deep Learning qui a permis à Google de concevoir Alpha Go 2. La version Alpha Go Zéro a été capable d’apprendre le jeu de GO par elle-même, en trois jours. Elle est en capacité de battre les meilleurs joueurs du monde.

Un cheminement lent depuis une IA faible vers une IA forte

Même si les capacités du Deep Learning semblent très puissantes, elles restent limitées comparées au cerveau humain. On est encore dans le domaine de l’Intelligence Artificielle faible.

L’Intelligence Artificielle forte, ou générale, est définie par les chercheurs comme « la capacité à reproduire, voire dépasser l’intelligence humaine dans toutes ses composantes ». Le Deep Learning est encore dans le champ de l’IA faible, car il fonctionne sur des tâches limitées et préalablement définies.

Par contre, son champ d’action s’étend par l’avancée constante des capacités de traitement des données, par leur nombre, et par la puissance des infrastructures informatiques existantes.

💡 Ce qu’il faut retenir

  • L’Intelligence Artificielle est un ensemble de concepts et de technologies évolutives.
  • Parmi ceux-ci, le Machine Learning et le Deep Learning sont deux stades avancés et imbriqués d’Intelligence Artificielle.
  • Le Machine Learning est capable d’optimiser un traitement de données dans un périmètre préalablement défini et choisi par l’homme.
  • Le Deep Learning peut aller encore plus loin, en apprenant sans modèle préalable, par l’exemple, grâce à sa structure neuronale.
  • Le Deep Learning nécessite des quantités de données importantes, ainsi qu’une capacité de calcul étendue.

1. https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf
2. https://www.lemonde.fr/pixels/article/2017/10/18/intelligence-artificielle-toujours-plus-puissant-alphago-apprend-desormais-sans-donnees-humaines_5202931_4408996.html

Associé créateur de Marketor, Laurent Hercé évolue dans le monde de l’IT depuis son origine ou presque (1987). Il anime des communautés et des blogs dans les domaines IT, RH, Social Selling, Cloud computing, SaaS, innovation.

Passionné par la vulgarisation, Laurent rédige du contenu sous toutes ses formes, notamment pour les blogs, livres blancs, études et guides…

Laurent Hercé

Laurent Hercé, Expert IT, Cloud computing, SaaS, IoT...

La transparence est une valeur essentielle pour Appvizer. En tant que média, nous avons pour objectif d'offrir à nos lecteurs des contenus utiles et de qualité tout en permettant à Appvizer de vivre de ces contenus. C'est pourquoi, nous vous invitons à découvrir notre système de rémunération.   En savoir plus