Souveraineté numérique et intelligence artificielle

L'intelligence artificielle, un élément clé de la souveraineté numérique

souveraineté numérique et intelligence artificielle

La souveraineté numérique passera par la bataille de l’intelligence artificielle que la France doit remporter si elle souhaite enrayer le déclassement de son économie… et qu’elle peut remporter puisque l’avance présumée des États-Unis ou de la Chine en IA est en trompe-l’œil.

Lorsque l’on parle souveraineté numérique, on pense spontanément à la protection des données personnelles, à la main mise de Google ou de Facebook sur la publicité en ligne, à l’écrasante domination d’Amazon dans l’e-commerce, à la cybersécurité, à la cyberdéfense ou encore aux antennes 5G de Huawei.

À côté de ces sujets identifiés et très visibles des experts, il en est un autre beaucoup plus technique, mais tout aussi stratégique : l’indépendance en matière d’intelligence artificielle.

On pourrait penser que c’est par le machine learning et la data, largement hébergée sur les plateformes américaines, que l’intelligence artificielle se connecte sur les problématiques de souveraineté.

Ce n’est que la partie émergée de l’iceberg, car le gros du glaçon est sous la ligne de flottaison.

L’innovation technologique… vraiment au service de la productivité des entreprises ?

Le gros du glaçon, c’est la partie automatisation de l’intelligence artificielle, la seule technologie susceptible de nous permettre de revenir aux taux de croissance de la productivité de 4 % ou 5 % par an que l’on a connu durant les fameuses 30 Glorieuses.

Lorsque l’on tente d’analyser le ralentissement économique que connaît la France depuis les années 80 on observe une forte corrélation entre :

  • faible croissance d’une part,
  • vieillissement de la population et des gains annuels de productivité toujours plus faibles d’autre part. Le vieillissement est une cause structurelle. Lorsque l’on vieillit, en général, on a moins envie : moins envie d’entreprendre, moins envie de consommer. La faiblesse des gains de productivité est une cause plus conjoncturelle, liée au manque d’innovation technologique.

On n’imagine mal, alors que l’on n’a jamais autant parlé d’innovation technologique et de disruption, que les avancées qui débouchent sur une augmentation effective de la productivité sont peu nombreuses. En effet, les innovations ont surtout pour effet de modifier nos façons de travailler, d’échanger ou d’acheter, mais pas de travailler plus vite, d’échanger plus efficacement ou d’acheter moins cher, par exemple.

C’est ce que disent les statistiques macro-économiques de la plupart des pays développés.

Comment est-ce possible, alors que l’on numérise à tout va et que le digital est associé à tant de vertus ?

Simplement parce que réaliser une tâche via un ordinateur ne fait pas nécessairement gagner du temps. Un exemple très basique : est-on plus rapide lorsque l’on doit se connecter sur Google Agenda ou Outlook pour prendre un rendez-vous plutôt que de sortir un agenda de sa poche ?

Pour anecdotique qu’il soit, cet exemple est plus symptomatique qu’il n’y paraît.

L’informatique de première génération (les bases de données et la bureautique) et de deuxième génération (l’informatique connectée de l’internet) ont parfois permis des gains de productivité importants. Mais beaucoup plus rarement que l’on ne pourrait le croire, surtout si l’on intègre les temps que l’informatique fait perdre : déconcentration causée par les notifications des réseaux sociaux, temps d’apprentissage des nouveaux outils, temps et coût associés à la sécurité (sauvegarde de données, prévention et réactions aux attaques extérieures, veille et gestion de l'e-réputation, etc.), gestion de la surinformation, etc.

L’Intelligence Artificielle au secours de la productivité ?

C’est pourquoi j’attends avec impatience que les promesses historiques de l’IA (automatisation des tâches physiques, numériques, mais aussi des processus cognitifs) prennent réellement forme. D’autant plus lorsque l’on sait que ces promesses, initialement formulées dans les années 60, ont été renouvelées dans les années 80 puis dans les années 2010, après le fameux hiver de l’IA.

Les premiers pays à automatiser la production de services grâce à l’IA, ainsi que des industries de main-d’œuvre historiquement peu automatisables, prendront une longueur d’avance. C’était vrai avant la crise de la Covid-19. Cela l’est encore plus depuis cette crise, car certains pays en sortiront totalement déclassés et disparaîtront du groupe des économies leaders.

L’économie française perd, en effet, du terrain depuis 40 ans et on assiste à son déclassement progressif d’autant plus perceptible que certains pays émergents comme la Chine ou l’Inde rattrapent leur retard et rejoignent même le groupe des super puissances économiques.

La crise économique consécutive de la crise sanitaire de la Covid-19 peut être soit le coup de grâce pour notre économie, soit l’électrochoc dont elle avait besoin pour se réveiller.

Les esprits chagrins objecteront que la bataille de l’IA est déjà perdue face aux 1000 milliards de dollars que la Chine va investir dans son plan AI et à l’avance prise par les GAFAM.

C’est une incompréhension profonde des technologies et applications de l’intelligence artificielle.

L’IA dans laquelle les GAFAM et la Chine ont pris de l’avance pourrait se résumer à quelques spécialités :

  • reconnaître/interpréter des images, des vidéos, des textes,
  • échanger de façon basique sans intelligence ou créativité,
  • traduire,
  • prévoir (les ventes, les stocks optimaux, le churn client, etc.),
  • prévenir (les risques de défaillance d’un emprunteur, de panne sur une machine, d’intrusion dans un réseau informatique, etc.),
  • diriger des véhicules autonomes,
  • et surtout, surtout, surtout, vendre plus de publicité. L’image est un peu caricaturale, mais elle reflète le gros des usages effectifs du machine learning.

La plupart de ces applications du machine learning permettent des gains de productivité réels sur des tâches particulières, mais la plupart du temps marginaux au niveau d’une entreprise classique, dans son ensemble.

Exception probable : le deep learning promet d’accélérer les processus de recherche de nouveaux traitements médicaux, mais on manque encore de recul pour estimer l’ampleur de l’avantage compétitif que cela peut conférer à un laboratoire donné.

Mais pour la plupart des entreprises, l’intelligence artificielle dans sa version moderne (le machine learning) n’a pas (encore) permis de générer des gains de productivité remarquables.

Les limites du machine learning

On pourrait se demander pourquoi, alors même que le référent IA de Google Raymond Kurzweill a déclaré que l’intelligence artificielle dépasserait l’intelligence humaine en 2028.

Tout simplement parce qu’il n’existe pas et n’existera pas suffisamment de données pour que le machine learning parviennent à tout automatiser.

En effet, comme le lecteur averti le sait, le machine learning n’«apprend» qui si on lui fournit des données. Des données en grande quantité. Des données bien propres et surtout des données… disponibles. Les experts du machine learning ironisent d’ailleurs souvent sur le fait que 75 % du temps d’un projet de machine learning consiste à collecter des data, à les calibrer et à les connecter. L’entraînement des données à proprement parler représente un temps beaucoup moins important que l’on ne pourrait le penser.

Or, bien que la production de données a progressé de façon exponentielle à la faveur de la prolifération des terminaux de connexions à internet, ainsi que des systèmes de tracking physiques/digitaux et des objectifs connectés, la plupart d’entre elles ne servent à rien dans le cadre du machine learning. Par ailleurs, il n’existe pas de data pour créer des modèles de machine learning permettant d’automatiser tous les raisonnements simples et a priori les processus cognitifs complexes.

Vers d’autres approches de l’intelligence artificielle

De fait, si l’intelligence artificielle doit un jour permettre de tout automatiser, il faudra recourir à d’autres types d’approches techniques que le machine learning/deep learning.

La vieille intelligence artificielle symbolique (celle qui s’appuie sur des modèles de représentation de la connaissance et des processus cognitifs, créés par des experts métiers) est encore loin d’avoir révélé tout son potentiel.

Nous avons par exemple tenté de le prouver en créant la plate-forme intelligent-agents.com, qui analyse des situations complexes et est capable de formuler des recommandations stratégiques de haut niveau et sur mesure, comme le ferait un expert du marketing, de l’organisation ou du référencement naturel. Dès début avril, après seulement 21 jours de travail, nous avions créé un agent intelligent capable de générer des recommandations stratégiques très fines sur 80 pages, permettant à un restaurant, une compagnie aérienne ou un éditeur de logiciel de définir un plan d’action financier, commercial et d’adaptation de la production pour traverser la crise de la Covid-19. On comprendra aisément que le machine learning serait totalement incapable de réaliser un tel exploit. Il a en effet besoin de données historiques pour apprendre et, comme la situation actuelle est inédite, ces données historiques ne servent à rien. Par ailleurs, les experts du machine learning savent que, quand bien même ces data historiques existeraient, les algorithmes actuels de machine learning ne sont pas conçus pour rédiger des rapports texte de haut niveau.

Avec cet exemple on commence à comprendre comment le machine learning, bien que puissant, ne permettra probablement pas d’automatiser plus de 3 % ou 4 % des tâches intellectuelles réalisées dans les entreprises de services. L’intelligence artificielle, pour tenir ses promesses, devra s’appuyer sur d’autres familles de technologies, existantes (l’IA symbolique avec ses moteurs de règles et ses modèles de représentation de la connaissance) ou à venir.

Asseoir sa souveraineté numérique sur le terrain de l’IA

Or, l'avancée réelle des États-Unis et de la Chine en matière d’intelligence artificielle se concentre essentiellement sur le machine learning et son cousin le deep learning qui, bien que très efficaces dans une demi-douzaine de domaines d’application, présentent comme toutes les technologies un potentiel limité.

Dans cette perspective, le jeu reste encore largement ouvert

Les États-Unis et la Chine n’ont pas encore mis au point les applications métiers susceptibles d’être automatisées par le machine learning, et qui doperont la productivité de leurs entreprises normales.

Ces deux pays, comme la majorité de la planète, concentrent peu de moyens à la recherche sur l’intelligence artificielle symbolique, pourtant la meilleure piste actuelle pour automatiser les processus cognitifs des cadres en entreprise par exemple.

Ces deux pays, enfin, ne possèdent aucune avance, par définition, dans les familles de technologies d’intelligence artificielle qui restent à inventer.

Dans le contexte de souveraineté numérique, il existe donc trois nouveaux types d’opportunités que la France peut et doit saisir. Elles lui permettraient à la fois de créer des leaders mondiaux de l’IA et, surtout, de générer des gains de productivité pour doper ses entreprises «classiques» :

  • Les applications du machine learning permettant d’augmenter la productivité des processus métiers, sur lesquelles ni les entreprises chinoises, ni les entreprises américaines n’ont encore pris de position dominante.
     
  • Les applications de l’intelligence artificielle symbolique augmentant la productivité des processus métiers auxquelles les entreprises américaines ou chinoises s’intéressent peu.
     
  • Le développement de nouvelles formes d’intelligence artificielle.

La France s’est laissée dépasser dans le domaine de la publicité en ligne. Cela a eu pour conséquence de faire fuir une partie de la valeur ajoutée créée par les grands groupes de communication et de média français vers les États-Unis.

La France s’est, en partie, laissée dépasser dans le domaine de l’édition logicielle, par les éditeurs américains qui aspirent petit à petit une partie de la valeur ajoutée dans ce secteur.

La France s’est laissée dépasser dans le domaine de l’e-commerce par Amazon, qui lui aussi absorbe une grosse partie de la valeur ajoutée du secteur de la distribution, et la rapatrie aux États-Unis.

Il peut se produire exactement le même phénomène en matière de production de biens ou de services si les entreprises françaises s’équipent de logiciels d’automatisation américains. Ce sont ces éditeurs de logiciels qui grignoteront à leur tour une partie de la valeur ajoutée de presque toutes nos entreprises pour les sortir de notre économie.

Aujourd’hui, la véritable bataille de l’intelligence artificielle dans les entreprises n’a pas encore été livrée.

Nous avons tenté de démontrer que la France était tout à fait à même de remporter cette bataille.

Il ne reste qu’à la livrer.

Grâce à sa formation à l’intelligence artificielle pour les cadres supérieurs, 24 h academy a déjà commencé à former les lieutenants, colonels et généraux qui livreront et remporteront cette bataille.

Raphaël Richard est l’un des initiateurs de Play Digital France en avril 2020, créé pour sensibiliser entreprises et pouvoirs publics aux enjeux de l’indépendance numérique.

Ce pionnier du digital depuis 1996, spécialiste du webmarketing et de l’intelligence artificielle, dirige l’agence de marketing digital Neodia et réalise des formations à l’intelligence artificielle au sein de grandes entreprises et ETI.

Article invité. Les contributeurs experts sont des auteurs indépendants de la rédaction d’Appvizer. Leurs propos et positions leur sont personnels.

Commenter cet article

Ajouter un commentaire