Le livre d’Axel Cypel Au cœur de l’intelligence artificielle. Des algorithmes à l’IA forte offre, en 480 pages, une exploration du monde complexe et en constante évolution de l’intelligence artificielle (IA). Axel Cypel est ingénieur diplômé de l’École des Mines de Paris, spécialiste de la gestion de projets et de Data science. Auteur et conférencier, il est aussi enseignant à l’École Aivancity1. Il exerce actuellement au sein d’un groupe bancaire différentes fonctions de transformations techniques et organisationnelles axées sur les projets d’IA.
Au cœur de l’intelligence artificielle n’est pas un ouvrage de vulgarisation scientifique à proprement parler, il s’agit d’un ouvrage repère qui présente de manière critique l’IA, son fonctionnement, ses forces et ses dangers, en appui sur des arguments scientifiques. Comme le sous-titre l’indique, Des algorithmes à l’IA forte, Axel Cypel commence par introduire les bases des algorithmes, de manière à permettre une compréhension optimale de la façon dont l’IA émerge à partir de ces éléments fondamentaux. L’auteur s’attache à détailler les différences entre la science (informatique et mathématique) et ce que la presse ou certains auteurs nous expliquent de l’IA.
Quatre parties, très progressives, structurent la réflexion.
La première partie « Expliquer l’IA » (p. 11-136) est organisée autour d’une présentation générale de différents concepts : l’IA, le Machine Learning, la Data science, la pensée computationnelle et l’apprentissage machine.
L’IA, selon l’auteur, vise à donner des « capacités cognitives à la machine, résoudre des problèmes complexes » et plus précisément à lui conférer « des facultés de perception, d’apprentissage, de raisonnement, de décision et de dialogue » (p. 14). Ainsi dotées de fonctions cognitives, les machines pourront se substituer, dans certains cas, aux prises de décisions des individus. Pour son fonctionnement, l’IA (combinaison entre les mathématiques et l’informatique) nécessite une grande masse de données (data).
Les algorithmes, terme largement utilisé par les médias sans être systématiquement explicité, sont définis comme une séquence d’instruction implémentée sur un ordinateur : ils transcrivent « informatiquement des méthodes mathématiques pour parvenir à créer une modélisation d’un phénomène à partir de données ». Quant à l’IA « forte », elle est présentée comme un modèle prédictif, supervisé, souvent décrit à l’aide de formules mathématiques, qui a pour caractéristiques de déléguer à des machines une partie des capacités humaines pour prendre des décisions, pour se substituer aux choix humains.
L’auteur préfère la rigueur mathématique aux envolées journalistiques. Il désapprouve les rapprochements que l’on peut faire entre l’IA et l’intelligence humaine. On en revient toujours, selon lui, à l’expertise humaine ; il n’y a pas d’autonomie des machines. Et il pointe « un discours largement plus pervers et bien plus commun : celui qui consiste à proclamer la neutralité des machines, sous couvert de froide application de la mathématique, leur conférant l’absence de sentiments. On voit clairement qu’il n’en est rien. La machine est aussi neutre que son concepteur, à savoir celui qui a déterminé le critère à appliquer. » (p. 132).
L’intelligence artificielle, comme tout algorithme d’apprentissage machine, est une technique d’optimisation. La nouveauté ne vient, en fait, précise-t-il « que de la capacité de calcul informatique qui de nos jours permet de traiter des problèmes d’optimisation en peu de temps, autorisant des applications concrètes ». Et il conclut qu’il n’y a pas d’outil magique pour capturer un réseau de neurones : « On en revient donc toujours plus ou moins à l’expertise humaine qui va indiquer les bons descripteurs à utiliser et, à tout le moins, labelliser une base d’apprentissage. Et cela porte un nom : l’artisanat… Il ne sera pas possible d’automatiser la recherche des réponses aux problèmes. » (p. 135)
Dans la deuxième partie (p. 137-236), l’auteur développe les « Limites techniques des approches ». L’expression « infirmités de l’IA » est utilisée pour caractériser ces limites qui sont déclinées en petits et grands théorèmes de limitation : à savoir les biais, les boîtes noires, les rêves d’une machine auto-apprenante…
Dans le chapitre sur les petits théorèmes de limitation, l’auteur explique notamment la notion de corrélation (« deux séries de données sont apparemment corrélées sans qu’il y ait de raison logique »). Il souligne, entre autres, que beaucoup de corrélations n’ont aucun sens et qu’il ne suffit pas de disposer d’une grande quantité d’informations pour avoir une grande quantité de connaissances, il existe des corrélations fallacieuses. La Data science reste « une affaire de spécialistes ». Le problème n’est pas de traiter toutes les informations, ce qui serait illusoire, mais de faire « ressortir la bonne » : « Or la bonne, comme la vraie, est une notion sémantique et nécessite donc une interprétation.» (p. 204)
Dans le chapitre sur les grands théorèmes de limitation – un atout de cet ouvrage savant – l’auteur, sans trop rentrer dans des développements et formulations mathématiques, présente comment un modèle peut s’écarter de la réalité par la représentation qu’il propose. Il n’est pas possible, avance-t-il en conclusion, « d’éliminer le doute, de remplacer la confiance » : « La certitude n’existe pas plus en mathématiques qu’en tout autre activité humaine. »
La troisième partie (p. 237-310) est consacrée à la dimension socio-économique du numérique et notamment à l’école. L’auteur traite de sujets variés « autour de l’IA », comme le transhumanisme, les GAFAM, le Bitcoin, la Blockchain. Il propose une réflexion scientifique sur de nombreux thèmes d’actualité, avec des critiques virulentes de certains ouvrages abordant ces mêmes sujets.
« Le transhumanisme est un obscurantisme » selon lui, et à l’occasion il procède à une critique appuyée du livre La guerre des intelligences de Laurent Alexandre, pour sa vision animiste « de l’intelligence artificielle et […] les craintes qui en découlent », lui reprochant de « se complaire dans l’approximation et la simplification à outrance [faisant] d’un discours potentiellement profond un modèle de raisonnement spécieux ». Et il développe des arguments en faveur d’une intelligence artificielle « outil », dénuée de conscience, au service des utilisateurs.
Le chapitre suivant aborde l’omniprésent sujet du monopole des GAFAM, qualifiées de « technologies numériques de désintermédiation ». Les GAFAM se positionnent « comme une fine couche sur les producteurs (où sont les coûts) pour toucher la multitude des gens (où est l’argent)2 ». Ce qui illustre fort à propos le monde contemporain où Airbnb, Amazon, et Google, pour n’en citer que quelques-uns, prospèrent à la faveur, selon lui « de la nullité de leurs concurrents » alors que la réalité est bien plus compliquée. Et d’ajouter que l’efficacité des GAFAM « provient d’une sorte de fantasmagorie selon laquelle une requête sur Internet donne l’ensemble des actions possibles pour un souhait donné » (p. 271).
Un chapitre sur « l’argent technologique », Bitcoin et autres monnaies scripturales complète la réflexion en développant les usages de l’IA dans ces domaines. La technologie Blockchain est alors présentée qui suscite l’intérêt des entreprises et des chercheurs.
Dans la dernière partie (p. 311-445), Axel Cypel ouvre le débat sur « L’IA et le sens du progrès » : danger, éthique et conscience d’une IA forte.
Il revient alors sur l’intelligence artificielle, avec le traitement automatique du langage et notamment la génération de textes (Natural Language Generation) à partir d’une grande masse de données. Il développe ce thème à partir d’exemples précis, comme la catégorisation des mails, ou la création d’un moteur de recherche. Cette partie, assez technique, peut intéresser les professeurs documentalistes par les thématiques traitées, comme l’indexation d’un corpus documentaire, ou la réalisation d’un chatbot, défini comme « un programme informatique donnant l’illusion de comprendre vos requêtes et de pouvoir dialoguer avec vous pour y répondre ». Ce qui l’amène à s’interroger sur la place de l’intelligence artificielle dans ce cadre : « L’intelligence artificielle se situe uniquement dans le moteur de langage naturel, et encore, seulement s’il est construit à partir de Machine Learning. »
L’ouvrage se termine sur les dangers de l’intelligence artificielle, mettant en garde contre tous les thuriféraires du progrès. Il cite en particulier des passages du livre de Luc Ferry La révolution transhumaniste : « On n’y peut rien, nous autres pauvres humains ça se fait à notre insu et c’est gouverné par une force supérieure qui s’appelle la compétition internationale ». L’auteur liste alors toutes les menaces possibles (reconnaissance faciale, résurgence de la guerre froide entre États-Unis et Chine pour financer les meilleurs logiciels, normes européennes et mondiales, réglementations…), sans vraiment développer l’une d’entre elles, mais en s’appuyant sur des ouvrages qui vont traiter le problème, et finalement sans conclure à ce niveau sur un véritable danger de l’IA (mais qui peut savoir ?). Le propos n’est pas inintéressant, c’est l’honnête citoyen qui s’interroge : « La science doit servir et non pas asservir. Son usage à grande échelle, via la transmission radio les algorithmes de Big Data, tend à assigner aux personnes une place prédéterminée » (p. 418).
La question est ensuite posée du bon usage de l’intelligence artificielle, et de l’importance d’une « réflexion éthique » portant « naturellement » sur la définition de ce « bon usage » : une question à laquelle il n’est pas simple d’apporter une réponse car plus le modèle est complexe, plus il est difficile de comprendre la complexité algorithmique.
Le dernier chapitre se termine sur la « Conscience (artificielle), intelligence artificielle forte ». L’intelligence artificielle y est définie de manière plus littéraire que technique, et plusieurs arguments sont développés, concluant sur l’impossibilité d’une intelligence artificielle consciente.
En conclusion avec Au cœur de l’intelligence artificielle, Axel Cypel réussit à rendre des concepts souvent abstraits accessibles même pour les lecteurs peu avertis. L’utilisation d’exemples concrets et d’analogies pertinentes contribue à rendre le sujet moins intimidant et l’approche critique retenue à captiver l’intérêt du lecteur.
L’ouvrage est intéressant, notamment dans ses (premières) parties à dominante technique, et sans trop de formules mathématiques. Les chapitres qui ouvrent des perspectives sur des questions de société pourront être approfondis par la lecture de son dernier ouvrage Voyage au bout de l’IA : ce qu’il faut savoir sur l’intelligence artificielle, récemment publié chez De Boeck supérieur (octobre 2023).
La force du livre est que l’auteur ne se limite pas aux algorithmes de base mais qu’il explore également le concept d’IA forte. Cette extension vers des sujets plus avancés offre une perspective sur le sujet. Il est important de noter cependant que la complexité de certains concepts peut nécessiter une concentration plus approfondie et des prérequis de la part du lecteur.
Un autre intérêt du livre réside dans sa capacité à aborder les implications éthiques de l’IA. Axel Cypel soulève des questions cruciales sur l’éthique et la responsabilité dans le développement de cette technologie. Cela ajoute une dimension critique à la discussion et invite à réfléchir sur les implications à long terme de l’IA.
Au cœur de l’intelligence artificielle d’Axel Cypel constitue ainsi une introduction solide à l’IA, tout en suscitant une réflexion sur les enjeux éthiques et sociaux liés à cette technologie en rapide évolution. Il a, à ce titre, toute sa place dans un CDI, en tant qu’ouvrage ressource pour les enseignants.

Cypel, Axel. Au cœur de l’intelligence artificielle. Des algorithmes à l’IA Forte. Bruxelles : De Boeck Supérieur, 2020. 480 pages. 24,90 euros.





















































