Au cœur de l’intelligence artificielle. Des algorithmes à l’IA Forte d’Axel Cypel

Le livre d’Axel Cypel Au cœur de l’intelligence artificielle. Des algorithmes à l’IA forte offre, en 480 pages, une exploration du monde complexe et en constante évolution de l’intelligence artificielle (IA). Axel Cypel est ingénieur diplômé de l’École des Mines de Paris, spécialiste de la gestion de projets et de Data science. Auteur et conférencier, il est aussi enseignant à l’École Aivancity1. Il exerce actuellement au sein d’un groupe bancaire différentes fonctions de transformations techniques et organisationnelles axées sur les projets d’IA.

Au cœur de l’intelligence artificielle n’est pas un ouvrage de vulgarisation scientifique à proprement parler, il s’agit d’un ouvrage repère qui présente de manière critique l’IA, son fonctionnement, ses forces et ses dangers, en appui sur des arguments scientifiques. Comme le sous-titre l’indique, Des algorithmes à l’IA forte, Axel Cypel commence par introduire les bases des algorithmes, de manière à permettre une compréhension optimale de la façon dont l’IA émerge à partir de ces éléments fondamentaux. L’auteur s’attache à détailler les différences entre la science (informatique et mathématique) et ce que la presse ou certains auteurs nous expliquent de l’IA.

Quatre parties, très progressives, structurent la réflexion.

La première partie « Expliquer l’IA » (p. 11-136) est organisée autour d’une présentation générale de différents concepts : l’IA, le Machine Learning, la Data science, la pensée computationnelle et l’apprentissage machine.
L’IA, selon l’auteur, vise à donner des « capacités cognitives à la machine, résoudre des problèmes complexes » et plus précisément à lui conférer « des facultés de perception, d’apprentissage, de raisonnement, de décision et de dialogue » (p. 14). Ainsi dotées de fonctions cognitives, les machines pourront se substituer, dans certains cas, aux prises de décisions des individus. Pour son fonctionnement, l’IA (combinaison entre les mathématiques et l’informatique) nécessite une grande masse de données (data).
Les algorithmes, terme largement utilisé par les médias sans être systématiquement explicité, sont définis comme une séquence d’instruction implémentée sur un ordinateur : ils transcrivent « informatiquement des méthodes mathématiques pour parvenir à créer une modélisation d’un phénomène à partir de données ». Quant à l’IA « forte », elle est présentée comme un modèle prédictif, supervisé, souvent décrit à l’aide de formules mathématiques, qui a pour caractéristiques de déléguer à des machines une partie des capacités humaines pour prendre des décisions, pour se substituer aux choix humains.
L’auteur préfère la rigueur mathématique aux envolées journalistiques. Il désapprouve les rapprochements que l’on peut faire entre l’IA et l’intelligence humaine. On en revient toujours, selon lui, à l’expertise humaine ; il n’y a pas d’autonomie des machines. Et il pointe « un discours largement plus pervers et bien plus commun : celui qui consiste à proclamer la neutralité des machines, sous couvert de froide application de la mathématique, leur conférant l’absence de sentiments. On voit clairement qu’il n’en est rien. La machine est aussi neutre que son concepteur, à savoir celui qui a déterminé le critère à appliquer. » (p. 132).
L’intelligence artificielle, comme tout algorithme d’apprentissage machine, est une technique d’optimisation. La nouveauté ne vient, en fait, précise-t-il « que de la capacité de calcul informatique qui de nos jours permet de traiter des problèmes d’optimisation en peu de temps, autorisant des applications concrètes ». Et il conclut qu’il n’y a pas d’outil magique pour capturer un réseau de neurones : « On en revient donc toujours plus ou moins à l’expertise humaine qui va indiquer les bons descripteurs à utiliser et, à tout le moins, labelliser une base d’apprentissage. Et cela porte un nom : l’artisanat… Il ne sera pas possible d’automatiser la recherche des réponses aux problèmes. » (p. 135)

Dans la deuxième partie (p. 137-236), l’auteur développe les « Limites techniques des approches ». L’expression « infirmités de l’IA » est utilisée pour caractériser ces limites qui sont déclinées en petits et grands théorèmes de limitation : à savoir les biais, les boîtes noires, les rêves d’une machine auto-apprenante…
Dans le chapitre sur les petits théorèmes de limitation, l’auteur explique notamment la notion de corrélation (« deux séries de données sont apparemment corrélées sans qu’il y ait de raison logique »). Il souligne, entre autres, que beaucoup de corrélations n’ont aucun sens et qu’il ne suffit pas de disposer d’une grande quantité d’informations pour avoir une grande quantité de connaissances, il existe des corrélations fallacieuses. La Data science reste « une affaire de spécialistes ». Le problème n’est pas de traiter toutes les informations, ce qui serait illusoire, mais de faire « ressortir la bonne » : « Or la bonne, comme la vraie, est une notion sémantique et nécessite donc une interprétation.» (p. 204)
Dans le chapitre sur les grands théorèmes de limitation – un atout de cet ouvrage savant – l’auteur, sans trop rentrer dans des développements et formulations mathématiques, présente comment un modèle peut s’écarter de la réalité par la représentation qu’il propose. Il n’est pas possible, avance-t-il en conclusion, « d’éliminer le doute, de remplacer la confiance » : « La certitude n’existe pas plus en mathématiques qu’en tout autre activité humaine. »

La troisième partie (p. 237-310) est consacrée à la dimension socio-économique du numérique et notamment à l’école. L’auteur traite de sujets variés « autour de l’IA », comme le transhumanisme, les GAFAM, le Bitcoin, la Blockchain. Il propose une réflexion scientifique sur de nombreux thèmes d’actualité, avec des critiques virulentes de certains ouvrages abordant ces mêmes sujets.
« Le transhumanisme est un obscurantisme » selon lui, et à l’occasion il procède à une critique appuyée du livre La guerre des intelligences de Laurent Alexandre, pour sa vision animiste « de l’intelligence artificielle et […] les craintes qui en découlent », lui reprochant de « se complaire dans l’approximation et la simplification à outrance [faisant] d’un discours potentiellement profond un modèle de raisonnement spécieux ». Et il développe des arguments en faveur d’une intelligence artificielle « outil », dénuée de conscience, au service des utilisateurs.
Le chapitre suivant aborde l’omniprésent sujet du monopole des GAFAM, qualifiées de « technologies numériques de désintermédiation ». Les GAFAM se positionnent « comme une fine couche sur les producteurs (où sont les coûts) pour toucher la multitude des gens (où est l’argent)2 ». Ce qui illustre fort à propos le monde contemporain où Airbnb, Amazon, et Google, pour n’en citer que quelques-uns, prospèrent à la faveur, selon lui « de la nullité de leurs concurrents » alors que la réalité est bien plus compliquée. Et d’ajouter que l’efficacité des GAFAM « provient d’une sorte de fantasmagorie selon laquelle une requête sur Internet donne l’ensemble des actions possibles pour un souhait donné » (p. 271).
Un chapitre sur « l’argent technologique », Bitcoin et autres monnaies scripturales complète la réflexion en développant les usages de l’IA dans ces domaines. La technologie Blockchain est alors présentée qui suscite l’intérêt des entreprises et des chercheurs.

Dans la dernière partie (p. 311-445), Axel Cypel ouvre le débat sur « L’IA et le sens du progrès » : danger, éthique et conscience d’une IA forte.
Il revient alors sur l’intelligence artificielle, avec le traitement automatique du langage et notamment la génération de textes (Natural Language Generation) à partir d’une grande masse de données. Il développe ce thème à partir d’exemples précis, comme la catégorisation des mails, ou la création d’un moteur de recherche. Cette partie, assez technique, peut intéresser les professeurs documentalistes par les thématiques traitées, comme l’indexation d’un corpus documentaire, ou la réalisation d’un chatbot, défini comme « un programme informatique donnant l’illusion de comprendre vos requêtes et de pouvoir dialoguer avec vous pour y répondre ». Ce qui l’amène à s’interroger sur la place de l’intelligence artificielle dans ce cadre : « L’intelligence artificielle se situe uniquement dans le moteur de langage naturel, et encore, seulement s’il est construit à partir de Machine Learning. »
L’ouvrage se termine sur les dangers de l’intelligence artificielle, mettant en garde contre tous les thuriféraires du progrès. Il cite en particulier des passages du livre de Luc Ferry La révolution transhumaniste : « On n’y peut rien, nous autres pauvres humains ça se fait à notre insu et c’est gouverné par une force supérieure qui s’appelle la compétition internationale ». L’auteur liste alors toutes les menaces possibles (reconnaissance faciale, résurgence de la guerre froide entre États-Unis et Chine pour financer les meilleurs logiciels, normes européennes et mondiales, réglementations…), sans vraiment développer l’une d’entre elles, mais en s’appuyant sur des ouvrages qui vont traiter le problème, et finalement sans conclure à ce niveau sur un véritable danger de l’IA (mais qui peut savoir ?). Le propos n’est pas inintéressant, c’est l’honnête citoyen qui s’interroge : « La science doit servir et non pas asservir. Son usage à grande échelle, via la transmission radio les algorithmes de Big Data, tend à assigner aux personnes une place prédéterminée » (p. 418).
La question est ensuite posée du bon usage de l’intelligence artificielle, et de l’importance d’une « réflexion éthique » portant « naturellement » sur la définition de ce « bon usage » : une question à laquelle il n’est pas simple d’apporter une réponse car plus le modèle est complexe, plus il est difficile de comprendre la complexité algorithmique.
Le dernier chapitre se termine sur la « Conscience (artificielle), intelligence artificielle forte ». L’intelligence artificielle y est définie de manière plus littéraire que technique, et plusieurs arguments sont développés, concluant sur l’impossibilité d’une intelligence artificielle consciente.

En conclusion avec Au cœur de l’intelligence artificielle, Axel Cypel réussit à rendre des concepts souvent abstraits accessibles même pour les lecteurs peu avertis. L’utilisation d’exemples concrets et d’analogies pertinentes contribue à rendre le sujet moins intimidant et l’approche critique retenue à captiver l’intérêt du lecteur.
L’ouvrage est intéressant, notamment dans ses (premières) parties à dominante technique, et sans trop de formules mathématiques. Les chapitres qui ouvrent des perspectives sur des questions de société pourront être approfondis par la lecture de son dernier ouvrage Voyage au bout de l’IA : ce qu’il faut savoir sur l’intelligence artificielle, récemment publié chez De Boeck supérieur (octobre 2023).
La force du livre est que l’auteur ne se limite pas aux algorithmes de base mais qu’il explore également le concept d’IA forte. Cette extension vers des sujets plus avancés offre une perspective sur le sujet. Il est important de noter cependant que la complexité de certains concepts peut nécessiter une concentration plus approfondie et des prérequis de la part du lecteur.
Un autre intérêt du livre réside dans sa capacité à aborder les implications éthiques de l’IA. Axel Cypel soulève des questions cruciales sur l’éthique et la responsabilité dans le développement de cette technologie. Cela ajoute une dimension critique à la discussion et invite à réfléchir sur les implications à long terme de l’IA.
Au cœur de l’intelligence artificielle d’Axel Cypel constitue ainsi une introduction solide à l’IA, tout en suscitant une réflexion sur les enjeux éthiques et sociaux liés à cette technologie en rapide évolution. Il a, à ce titre, toute sa place dans un CDI, en tant qu’ouvrage ressource pour les enseignants.

 

 

 

Cypel, Axel. Au cœur de l’intelligence artificielle. Des algorithmes à l’IA Forte. Bruxelles : De Boeck Supérieur, 2020. 480 pages. 24,90 euros.

 

ChatGPT : l’IA qui fascine mais qui inquiète tout autant

La version gratuite de ChatGPT 3 défraie la chronique depuis près d’un an. Cette IA conversationnelle interroge et interpelle toute personne qui essaie de communiquer avec elle. Il est important de la tester car cela permet de constater qu’elle répond aux questions de manière relativement claire et rapide. De prime abord, les capacités de l’IA semblent impressionnantes. 

 

Vous pouvez tester la version gratuite de cette intelligence artificielle conversationnelle, en vous connectant et en vous inscrivant sur le site d’OpenAI https://chat.openai.com/auth/login. Vous pouvez tout d’abord commencer par discuter avec elle, l’interroger sur un sujet que vous connaissez bien, comme par exemple « la vérification des sources », pour constater la pertinence et la cohérence de ses réponses et de sa manière de communiquer. Si vous prenez ensuite un peu de recul, vous pouvez réfléchir à l’usage pertinent que vous pouvez faire de cet outil. Peut-être aurez-vous envie de vous améliorer en anglais et donc de pouvoir discuter en anglais avec ChatGPT et d’être corrigé par ce dernier si vous faites des erreurs. Vous pouvez dès lors créer un « prompt1 » (commande en langage naturel), et faire de ChatGPT votre « professeur d’anglais personnalisé ». Ainsi, lorsque vous lui parlerez en anglais, il corrigera d’abord vos erreurs, puis vous donnera la règle grammaticale associée et enfin vous proposera un « trick » (aide-mémoire) pour que vous ne fassiez plus la même erreur. Les capacités de cette IA sont surprenantes, oui, mais aussi inquiétantes car l’on peut aisément se questionner sur les conséquences de cette invention technologique, surtout quand elle est accessible à tous.

ChatGPT un modèle de langage développé par OpenAI

GPT (Generative Pre-trained Transformer) est une famille de modèles de langage développé par OpenAI, une entreprise spécialisée en intelligence artificielle (IA) basée à San Francisco. ChatGPT s’appuie sur GPT 3.5 dans sa version gratuite et accessible à tous et sur le dernier modèle GPT 4 pour sa version payante aux performances encore plus remarquables. Les modèles de la famille GPT utilisent l’apprentissage automatique pour générer du texte en se basant sur des milliards de séquences de mots provenant de différentes sources en ligne. Ils sont entraînés sur de vastes ensembles de données textuelles, ce qui leur permet de générer des réponses cohérentes et pertinentes aux requêtes de l’utilisateur. Ces modèles sont ensuite entraînés spécifiquement pour suivre des instructions et produire du texte au contenu acceptable, ce qui leur permet d’être utilisés par le plus grand nombre dans la version conversationnelle de ChatGPT. ChatGPT est donc un chatbot dont le moteur est un modèle GPT.

ChatGPT est souvent utilisé dans des chatbots et des applications de messagerie instantanée, fournissant ainsi une meilleure expérience utilisateur, plus personnalisée et plus efficace. Il peut également être utilisé pour traduire automatiquement des textes dans différentes langues, rédiger des contenus pour des sites web, blogs et autres. Enfin, il est utilisé aussi pour générer des textes à partir de quelques mots-clés donnés en entrée.

Si cette IA plait autant aux utilisateurs (entreprises et internautes), c’est qu’elle permet d’améliorer l’efficacité et l’expérience utilisateur en s’adaptant aux préférences et au langage de celui-ci, tout en répondant de manière instantanée et précise à ses questions.

 

ChatGPT, un modèle de langage basé sur la prédiction

Il faut rappeler, tout d’abord, que ChatGPT est un « large langage model » (grand modèle de langage) qui a été entraîné sur des données ne dépassant pas 2021 et qu’il n’est pas connecté à Internet.

Le modèle qui sert de fondement à ChatGPT est similaire à celui utilisé par le correcteur automatique dans les smartphones pour compléter les messages. Ce correcteur y parvient grâce à un algorithme qui essaie de prédire, à partir des mots écrits, quels sont les prochains mots les plus probables dans la phrase. Les modèles de langage comme ChatGPT ont le même objectif : prédire la suite logique mais de manière beaucoup plus efficace parce qu’ils ont été entraînés sur beaucoup plus de données. De plus, le modèle de ChatGPT dispose de 175 milliards de paramètres pour la version ChatGPT 3.52 (cent fois plus que la version précédente GPT 2), qui lui permettent d’ajuster ses performances pour fournir des résultats plus précis. Il est important de noter que les textes générés par ChatGPT ressembleront à ceux que les ingénieurs lui ont donné en apprentissage lors de son entraînement.

Pour améliorer davantage les performances de ChatGPT, les ingénieurs ont ensuite « fine-tuné » leur modèle, c’est-à-dire affiné ses paramètres. Pour cela, ils ont utilisé des « feed-back » humains, autrement dit des retours d’utilisateurs, pour trier et organiser les réponses en fonction de leur pertinence. Ce processus a permis à ChatGPT de proposer des réponses plus pertinentes, en conformité avec les consensus scientifiques et moraux. Pour transformer ce modèle en chatbot, il a ensuite fallu lui donner une mise en scène lui permettant de répondre aux questions de manière plus « humaine ».

Toutefois, il n’est pas toujours fiable car son objectif est de produire des textes crédibles et non pas véridiques. Il peut donc lui arriver d’avoir une « hallucination » et d’aller jusqu’à inventer des réponses, des références d’articles ou d’auteurs. Les hallucinations sont définies par Keivan Farzaneth, conseiller pédagogique principal en intelligence artificielle au collège Sainte-Anne, comme étant le moment où l’IA « interprète ou génère des informations qui ne sont pas exactes. Par exemple, une IA pourrait générer une réponse qui n’a pas de sens ou qui est complètement hors contexte, ou alors, elle pourrait penser qu’elle a identifié un chat dans une image alors qu’il n’y en a pas ». (Farzaneh, Glossaire, dernière modification 14 août 20233.) Attention donc, ChatGPT ne peut pas remplacer les recherches sur les moteurs de recherche classiques car il n’effectue aucune recherche dans une base de données lorsqu’il répond à une question : ChatGPT produit uniquement le texte le plus cohérent possible à partir du texte qu’il a obtenu en entrée, pas le plus fiable. C’est ce que souligne également Laure Soulier, maîtresse de conférences en informatique dans l’équipe Machine learning for information access de l’Institut des Systèmes Intelligents et de Robotique (ISIR) :

« Il écrit des réponses plausibles qui nous semblent cohérentes, mais qui peuvent en réalité se révéler inexactes ou trompeuses. L’entraînement basé sur l’apprentissage par renforcement ne contraint pas le modèle à générer des informations véridiques et sa connaissance du monde est limitée aux données qu’on lui a fournies lors de l’entraînement. N’étant pas pour le moment connecté au web, le ChatGPT n’a pas accès aux nouvelles informations publiées4. »

Il faut alors vérifier systématiquement les informations qu’il donne car, s’il fournit des réponses très vraisemblables, celles-ci ne sont fondées sur aucune source concrète.

En effet, certains de ses usages aujourd’hui répandus, notamment la republication directe sur d’autres supports de textes issus de ChatGPT, remettent en question la possibilité de vérifier les sources et les informations, soulevant ainsi des interrogations sur la fiabilité et l’authenticité des informations, ainsi que sur l’impact de l’IA sur la capacité à distinguer la vérité de la fiction. Même si certains outils ont été développés pour tenter de pallier ce problème, il est évident que l’une des clés essentielles pour résoudre ce défi sera la formation et l’éducation des utilisateurs aux bonnes pratiques d’utilisation de cette nouvelle technologie.

 

L’intelligence artificielle et l’information

Comment, dans ce contexte d’incertitude autour des sources et d’instabilité du document, le professeur documentaliste peut-il permettre à tous les élèves d’acquérir une culture de l’information et des médias, sachant qu’avec l’avènement de l’IA, il devient de plus en plus difficile de vérifier la véracité des informations que l’on peut trouver sur Internet ?

L’un des exemples les plus flagrants et actuels concernant la vérification des informations générées par l’IA est celui des images, créées par l’IA Midjourney, représentant Emmanuel Macron assis sur des poubelles près de la Tour Eiffel ou fuyant des policiers en pleine rue ou encore portant le gilet orange des éboueurs. Ces images sont des exemples frappants de ce phénomène car elles ne sont pas des montages mais bien des créations d’intelligence artificielle qui s’inspirent du style vestimentaire d’Emmanuel Macron, de ses expressions et de ses bijoux. Elles sont si réalistes qu’elles remettent en question la capacité à distinguer la vérité de la fiction ou à repérer les fausses informations. Les deep fakes ont déjà posé la question de la véracité des vidéos, car elles permettent de remplacer le visage d’une personne par un autre et de changer ses propos de manière très réaliste. Avec l’IA, il sera de plus en plus difficile de vérifier l’authenticité d’une information, même s’il s’agit d’une photographie ou d’une vidéo.
Concernant la création de contenus textuels, ChatGPT 3 et sa version plus récente ChatGPT 4 ne sont pas en reste dans l’élaboration de fausses informations ! En effet, ces deux IA sont incapables, pour le moment, de garantir la fiabilité des informations qu’elles donnent et d’en donner les sources.

D’une part, lorsque ChatGPT est utilisé comme moteur de recherche, alors que ce n’est pas sa vocation, il n’est pas possible de garantir la véracité des informations fournies. À aucun moment cette IA n’effectue une recherche d’informations. Si, par exemple, on lui demande de rédiger la biographie de Descartes, le contenu qu’elle fournira sera vraisemblable et une partie sera probablement juste, mais il est possible que des erreurs ou des inexactitudes se glissent dans ses propos. Ainsi, ChatGPT pourrait affirmer que Descartes a effectué un séjour en Amérique du Sud, alors que cette information est fausse. Le problème est que ce genre d’erreur n’est perceptible que par des personnes qui connaissent déjà bien le sujet et ici, en l’occurrence, la vie de Descartes. Il est donc essentiel d’expliquer le fonctionnement de cette IA à tous les utilisateurs pour ne pas tomber dans l’illusion que nous avons affaire à une incroyable encyclopédie capable de répondre à toutes nos questions en un clin d’œil.
D’autre part, ChatGPT peut être utilisé de manière malveillante pour créer sciemment de fausses informations ou pour influencer et manipuler des utilisateurs. Un générateur de texte qui semble très vraisemblable et convaincant peut être utilisé à mauvais escient et malheureusement les garde-fous d’OpenAI ne sont pas infaillibles. Des personnes malintentionnées peuvent ainsi utiliser ce chatbot pour produire des codes malveillants, créer de faux profils de rencontre, réaliser des arnaques plus crédibles ou mener des campagnes d’hameçonnage. Lorsqu’on essaie par exemple de demander à ChatGPT de créer un mail de phishing, l’IA s’excusera d’abord de ne pas pouvoir satisfaire notre requête :

« Je suis désolé, mais en tant qu’agent d’IA, je ne peux pas écrire un email de phishing. La création et la distribution de courriels de phishing sont des actes malveillants et illégaux, qui peuvent causer des dommages importants aux victimes.
Au lieu de cela, je vous recommande de rester vigilant et de ne jamais divulguer vos informations personnelles […].
Il est important de signaler tout courriel de phishing suspect aux autorités compétentes […]5. »

Cependant, en insistant un peu, il est malheureusement possible de contourner les restrictions de ChatGPT afin d’obtenir le résultat demandé. Il est également possible de simuler une conversation avec un ChatGPT « nazi » ou « raciste » en lui donnant des instructions différentes ou en lui demandant de jouer un rôle spécifique dans un « jeu de rôle » ou dans un scénario de film.
Selon une étude menée par NewsGuard, une start-up fondée en 2018 aux États-Unis lors de l’explosion des fake news partagées sur les réseaux sociaux au moment de l’élection présidentielle de 2016 et spécialisée dans l’évaluation de la crédibilité des sites web d’actualités et de médias, la dernière version de ChatGPT, ChatGPT 4, est moins fiable que sa version précédente dès lors qu’on le questionne sur des thèses complotistes. NewsGuard a effectué des tests sur les propos de l’IA qui pouvaient alimenter des sujets complotistes. Ainsi dans « 80 % des cas, le robot d’intelligence artificielle (IA) ChatGPT a relayé des affirmations fausses et trompeuses lorsque nous lui avons posé des questions orientées sur des sujets d’actualité importants » (Brewster, Arvanitis & Sadeghi, 20236). Cette capacité de l’IA à produire des textes vraisemblables mais non véridiques souligne la nécessité d’être vigilant quant à l’utilisation de ChatGPT. En effet, le chatbot peut être utilisé pour désinformer ou alimenter des récits complotistes de manière très convaincante, surtout si on lui demande de prendre le point de vue de quelqu’un qui adhère à des théories du complot.

Dès lors, comment lutter contre les fausses informations créées par les intelligences artificielles et relayées sur Internet ? Comment s’assurer que chacun dispose des clefs pour détecter le vrai du faux ?
Des outils numériques commencent à être développés pour répondre à ces problématiques. Par exemple, en 2020, Microsoft a créé une IA appelée Video Authenticator, capable de détecter les fausses vidéos ou images. Une autre solution serait de mettre en place un système de certification des contenus publiés, par l’ajout d’un patch ou d’un élément visible pour authentifier leur véracité. Cependant, ces solutions ne sont pas encore généralisées et présentent encore des failles car elles ne permettent pas de détecter toutes les fausses informations. La question de la véracité de l’information est plus que jamais d’actualité et les professionnels de l’information et des médias doivent s’adapter à ces nouvelles réalités. Les cours d’EMI dispensés par les professeurs documentalistes sont donc essentiels pour agir contre les fake news, en formant les élèves à un usage réfléchi de ces outils.

 

ChatGPT dans l’enseignement

Au premier abord, les usages de chatGPT questionnent beaucoup et inquiètent de nombreux enseignants. En effet, il est assez facile de trouver sur Internet, à la radio ou autour de nous, des témoignages d’étudiants et d’élèves confiant qu’ils utilisent ChatGPT pour gagner du temps. L’IA leur permet par exemple de résumer un livre, formuler un plan de dissertation ou traduire un texte en quelques instants. La démocratisation de l’utilisation de ce genre d’IA interroge dès lors les méthodes d’enseignements et d’apprentissages.
ChatGPT 3 peut notamment remettre en question les devoirs à la maison car rien n’empêche les élèves d’utiliser ce chatbot pour réaliser une dissertation ou un écrit d’invention, les intelligences artificielles conversationnelles générant des textes dans un français presque parfait. Les élèves peuvent très facilement poser une question à l’IA et copier-coller l’information ou le texte donné sans citer leur source (ici ChatGPT 3). Un tel usage s’apparente non seulement à du plagiat, comme l’indique Keivan Farzaneh sur son site L’intelligence artificielle en éducation (rubrique Introduction au plagiat, 2023), mais, plus encore, les élèves utilisant ainsi cet outil ne font pas eux-mêmes le travail demandé et par conséquent n’apprendront rien de cet exercice. Il ne paraît donc plus possible de donner ce genre de devoir sauf si le sujet est d’actualité (dépassant 2021) ou s’il est suffisamment complexe pour que l’IA ne sache pas le traiter correctement. Pour minimiser les risques de plagiat (copier-coller d’un texte généré par une IA conversationnelle), les exercices de rédaction de textes devront sans doute se faire en classe plutôt qu’à la maison. Keivan Farzaneh ajoute également : « Si la rédaction se fait sur un support numérique, il est important de se promener régulièrement en classe, et lorsque possible, d’orienter les appareils des élèves dans une même direction afin d’avoir une vue d’ensemble de la classe plus facilement. » (rubrique Minimiser les risques de plagiat, 20237) Les enseignants vont devoir repenser les sujets, privilégier des études de cas ou des analyses de documents par exemple. L’arrivée de cette nouvelle technologie les encouragera peut-être à se tourner davantage vers l’expression orale, obligeant ainsi les élèves à réfléchir par eux-mêmes. Il faudra également insister sur l’illégalité et les conséquences du plagiat, même si le texte a été généré par un robot et que les élèves ne se rendent pas toujours compte que ce robot en est la source.
Reconsidérer l’ensemble de l’enseignement et des méthodes d’apprentissage à cause de ChatGPT n’est vraiment pas nécessaire. L’inquiétude ressentie aujourd’hui peut rappeler celle qu’a suscitée Wikipédia à ses débuts. Depuis, l’usage de cette encyclopédie a été encadré et étudié à l’école, menant à une utilisation plus réfléchie par tout un chacun. Tout comme Wikipédia, les chatbots peuvent être très efficaces dans certains cas mais il faut rester prudent quant à leur utilisation.

Il s’agit également de former les élèves à un usage raisonné de ChatGPT car, comme nous l’avons vu précédemment, l’IA peut produire des erreurs. Il faut donc que les élèves soient conscients des biais que peuvent générer les chatbots et qu’ils comprennent le concept d’hallucination.
D’autre part, il peut être facile de repérer les textes générés par l’IA, notamment lorsqu’il n’est pas habituel pour les élèves de s’exprimer sans faire d’erreur, dans une syntaxe parfaite. ChatGPT a également tendance à générer des répétitions et à produire des phrases courtes. Pour pouvoir vérifier si les élèves ont copié-collé ChatGPT, il est possible d’utiliser des outils permettant de vérifier si un texte a été écrit par un humain ou par une IA. Plusieurs outils (GPTZéro, AI Text Classifier, etc.) sont disponibles sur Internet ; toutefois, tous ne sont pas extrêmement fiables et il faut garder à l’esprit qu’ils peuvent également faire des erreurs. Malgré tout, ils restent des outils intéressants pour confirmer ou infirmer une suspicion de triche et éventuellement interroger l’élève concerné.
GPTZero (2022-20238) a été développé par un étudiant en informatique américain Edward Tian. Compliqué à comprendre de prime abord, l’outil est en réalité simple d’utilisation : une fois le texte à évaluer copié-collé dans l’encadré prévu à cet effet, l’algorithme analyse le texte. Un premier score est ensuite donné, portant sur la « perplexité9 » du texte considéré dans son ensemble, puis un second score, portant sur la perplexité des phrases du texte. Plus le score de perplexité est grand, plus le texte est susceptible d’avoir été écrit par un humain. Le score de perplexité correspond en quelque sorte à la complexité des phrases et au taux de probabilité des mots utilisés. En bas de la page, un bouton « Get GPTZero Result » permet l’accès aux résultats. Lorsque le score dépasse 100, le texte est détecté comme celui d’un humain. Le site annonce alors “Your Text is likely human generated!” (Votre texte a été probablement écrit par un humain !). Si le score est en dessous de 100, il est plus probable qu’il ait été généré par une IA.
Un autre outil que vous pouvez tester est celui développé par OpenAI et qui se nomme AI Text Classifier10. Il fonctionne comme l’outil précédent et détecte assez bien les textes générés par des IA. En revanche, il ne détecte pas encore très bien ceux qui sont écrits par des humains ! Il va sans doute être amélioré avec le temps.
Draft & Gold (202311) propose également son propre détecteur, plus simple d’utilisation et de prise en main. Une fois le texte entré dans l’encadré de détection, il suffit d’activer « Analyser », ce qui permet d’obtenir le résultat de l’analyse du texte en pourcentage et de savoir si l’extrait a été rédigé en partie ou entièrement par une IA. Le site annonce directement le résultat : « Sur la base de notre analyse, votre texte a très probablement été écrit par un humain ». Plus le texte est long et plus l’algorithme semble mieux l’analyser et détecter s’il a été généré par une IA. Sa version gratuite limite malheureusement son utilisation à une quarantaine de tests par jour, mais il reste malgré tout un très bon outil de détection, simple et efficace.

Il faut cependant souligner que certains professeurs, comme Keivan Farzaneh, déconseillent l’utilisation des détecteurs de textes générés par l’IA « car ils produisent régulièrement des faux positifs ou des faux négatifs » (rubrique Détecter le plagiat, 202312). Pour lui, la meilleure façon reste d’analyser le texte de l’élève pour « détecter toute forme d’anomalie dans la structure des phrases (enchaînements douteux, changement soudain de la qualité de la langue, etc.)13 ». Il conseille de faire rédiger un petit écrit à chaque élève, en classe, en début d’année, et de le garder comme comparatif en cas de doute durant l’année : ainsi l’enseignant s’assure de connaître le style d’écriture de l’élève.

 

Des pistes pour former les élèves à l’usage de ChatGPT

ChatGPT n’est donc ni un outil de recherche documentaire, ni une encyclopédie, notamment parce qu’il ne permet ni de citer ni de vérifier les sources utilisées pour fournir les réponses aux questions posées par les internautes. Il convient donc d’être prudent, car de nombreuses erreurs peuvent se glisser dans les contenus qu’il délivre.

À titre d’exemple voici ce qu’il est possible de faire lors d’une séance pédagogique :

1. Introduction : expliquer ce qu’est ChatGPT et faire le rapprochement entre l’IA et les algorithmes de prédiction présents dans les smartphones. Il est possible également de dire aux élèves, dès l’introduction, que l’objectif du cours est de mettre en lumière les effets de biais et d’hallucination du chatbot.

2. Utilisation : il est possible de consacrer plusieurs séances à la démonstration des erreurs de ChatGPT en demandant aux élèves de poser une question spécifique à ChatGPT, puis de vérifier les informations fournies pour valider ou non les informations données.
Une autre option consiste à demander aux élèves de poser plusieurs fois la même question à ChatGPT via de nouvelles conversations et de comparer les réponses. En constatant que les réponses obtenues ne sont pas identiques, les élèves pourront en arriver eux-mêmes à la conclusion que les réponses données par l’IA ne sont pas toujours fiables.
Bien entendu, cette vérification doit s’accompagner d’un travail sur les sources d’information pour sensibiliser les élèves à l’importance de la vérification des informations et à la fiabilité de celles-ci.

3. Limitations et risques : un brainstorming peut ensuite permettre de mettre en évidence les risques liés à un mauvais usage de ce chatbot. Les élèves prendront alors conscience du concept d’hallucination et des biais que peuvent engendrer les IA.

4. En conclusion, l’enseignant pourrait insister sur l’importance de contre-vérifier les informations. Il peut s’agir ici de demander aux élèves d’utiliser un autre chatbot, fournissant des informations plus fiables et sourcées, contrairement à ChatGPT 3. Par exemple le chatbot de Bing « Bingchat ».

Il est également possible d’explorer l’un des domaines d’utilisation les plus intéressants de ChatGPT, à savoir celui de la langue, de la reformulation et potentiellement de la traduction. Une séance de correction de dissertation, ou d’un autre devoir, peut ainsi être envisagée à l’aide de cet outil. Par exemple, après avoir identifié les phrases qui leur posent problème (sur le plan lexical ou syntaxique), les élèves peuvent demander à ChatGPT de corriger leurs erreurs et de fournir la règle grammaticale correspondante. Avec le temps, cet exercice, supervisé par l’enseignant qui vérifierait les corrections proposées, peut aider les élèves à améliorer leurs compétences.

Exemple de requête : « Voici un texte sur [concept]. Améliore et corrige l’orthographe, la grammaire, la syntaxe et le vocabulaire. Mets en caractères gras les erreurs corrigées et explique tes corrections. »

Autre exemple de requête : « Voici un texte sur [concept]. Vérifie les arguments pour voir s’ils sont pertinents. Au besoin, corrige les arguments et explique ton raisonnement. Mets les arguments corrigés en caractères gras14. »

Sur son site (rubrique Elèves : pourquoi utiliser les robots conversationnels ?), Keivan Farzaneh mentionne un autre usage possible de l’IA pour les élèves : expliquer un concept en termes simples ou différents et donc vulgariser ou reformuler certaines notions15.

Exemple de requête : « Adresse-toi à un élève de [âge] ans. Explique pourquoi les protéines adoptent une structure tridimensionnelle. Fournis ta réponse en moins de 10 lignes. »

 

Quels usages les enseignants peuvent-ils faire de ChatGPT ?

Coté enseignants, ChatGPT peut être utilisé pour produire des contenus pédagogiques innovants : par exemple, pour générer de nouveaux exercices à proposer aux élèves, pour créer des listes et les ordonner de manière efficace et pertinente ou encore pour produire les trames de nouveaux cours, ce qui constitue un gain de temps pour l’enseignant. En cas de doute, les professeurs ont suffisamment de recul et de connaissances pour pouvoir vérifier les informations données par ChatGPT.
Keivan Farzaneh propose, sur son site, toute une série d’exemples de ce que l’on peut demander à ChatGPT pour agrémenter les cours : générer des exemples en lien avec les concepts enseignés, générer des définitions adaptées au niveau des élèves, générer tous types d’activités permettant de faire de la différenciation, des plans de cours, des exercices mais aussi des grilles d’évaluations, etc.
À ce propos, il conseille la lecture du Guide de l’enseignant. L’usage de ChatGPT “ce qui marche le mieux”, écrit par Andrew Herft, conseiller pédagogique au NSW Department of Education en Australie, traduit et adapté par Alexandre Gagné. Le guide donne une liste de « prompts » (questions ou commandes) à poser pour obtenir des résultats fiables et efficaces, dont voici deux exemples :

« Utilisez une évaluation formative régulière pour comprendre les points forts et les points à améliorer des élèves. »

« Utilisez ChatGPT pour créer des quiz et des évaluations qui testent la compréhension de la matière par les élèves. »
« Vous pouvez saisir cette commande : “Créez un quiz avec 5 questions à choix multiple pour évaluer la compréhension des élèves sur [concept enseigné].” (Herft & Gagné, 2023) »

Simon Dugay, enseignant d’informatique au secondaire et chargé de cours en didactique des sciences propose lui aussi quelques pistes d’usage de l’IA sous la forme d’une infographie (Dugay, 2022) :

Image créée par Duguay S. @SimonDuguay3. 20/12/2022. Piste pour l’utilisation de #ChatGPT dans le but de faciliter la tâche des enseignants.

Pour intégrer ChatGPT 3 dans la création de cours, de nombreuses ressources, très riches, peuvent ainsi être utilisées, comme le Guide de l’enseignant (Herft & Gagné, 2023) ou le site de Keivan Farzaneh (2023), déjà cités et qui sont tous les deux très clairs et pratiques. Le site de Keivan Farzaneh met ainsi à disposition la liste des IA (ou “générateur de”) et des informations sur ces IA en fonction de leurs compétences ; il propose également un comparatif des robots conversationnels très utile pour choisir celui le plus adapté aux besoins.

Pour conclure

L’arrivée de ChatGPT dans les pratiques a suscité un engouement dû à sa manière, quasi humaine et extrêmement cohérente, de converser avec les utilisateurs, faisant presque oublier sa nature artificielle. Cependant, cette IA est également source d’inquiétude dans le domaine de l’enseignement, interrogeant les pratiques pédagogiques et les méthodes d’apprentissage des élèves et montrant ainsi qu’il est important de rester conscient des limites et des risques de ce genre d’outil. C’est pourquoi il est urgent d’engager avec les élèves une réflexion sur les enjeux sociétaux liés aux IA et de les former à une utilisation responsable de chatGPT, en soulignant que ces IA ne peuvent se substituer aux efforts personnels, au risque de commettre des erreurs. Les élèves doivent être encouragés, plus que jamais, à vérifier les informations auprès de sources fiables, à se cultiver et ne pas se laisser séduire par l’illusion de facilité qu’offre ChatGPT.

Cependant ChatGPT peut être utilisé de manière bénéfique pour aborder en classe le fonctionnement d’une IA, mais aussi pour des tâches telles que la reformulation, la traduction ainsi que pour des exercices de correction. Il est alors important de bien encadrer ces cours sur l’intelligence artificielle et cela nécessite des connaissances et des formations supplémentaires pour les enseignants. ChatGPT et l’intelligence artificielle de manière générale peut devenir un atout pour les professeurs, les aidant dans la création de contenus, de leçons, d’exercices et bien d’autres tâches.

Enfin, ChatGPT, à l’instar de l’ensemble des intelligences artificielles, connaît des évolutions technologiques rapides et multiformes et est l’objet de nombreuses recherches universitaires. Il convient, en outre, de souligner que les dernières avancées, notamment ChatGPT 4, semblent s’orienter vers un modèle payant et donc un accès restreint aux internautes.

 

 

Demain les IA génératives

Novembre 2022, ChatGPT, l’intelligence artificielle conversationnelle de l’entreprise américaine OpenAI conquiert la planète web en répondant instantanément à toute question des internautes de façon directe, synthétique et ordonnée. Cette IA s‘appuie sur un corpus textuel déterminé entièrement constitué de données issues du web mais non connecté à celui-ci en temps réel. Néanmoins, depuis 2019, la plateforme payante Playground d’OpenAI permettait déjà aux développeurs et à tout internaute féru d’algorithmes de tester les différentes versions de Cha­tGPT, grâce à de multiples réglages, et de générer du texte ou du code afin de les intégrer dans des applications. En 2023, tout s’accélère, avec le développement de versions toujours plus performantes, dont ­ChatGPT 4 (version payante), qui, grâce à l’un de ses plugins, peut désormais chercher des informations sur le web (actualité, sources, etc.). En mars 2023, OpenAI s’associe avec Microsoft qui intègre ChatGPT 4 au moteur de recherche Bing (application Copilot), rendant cette version accessible gratuitement au grand public. Enfin, en décembre 2023, OpenAI signe le premier accord de partenariat avec un important groupe de presse européen, Axel Springer, offrant ainsi l’accès à une base de données d’articles aux utilisateurs de ChatGPT 4.
La concurrence n’est pas en reste. Une course mondiale est engagée, de nombreuses autres IA conversationnelles performantes sont développées, parmi lesquelles on peut citer : Mistral AI (France), Perplexity AI (USA), Meta AI de Facebook (USA), Ernie Bot de Baidu (Chine) et, particulièrement, Bard de Google, sortie en 2023, dont la version multimodale1, Gemini, prétend rivaliser avec ChatGPT 4.
Les IA génératives2, dont font partie les IA conversationnelles, évoluent donc constamment et proposent également la création d’image à partir d’un texte (DALL.E d’OpenAI, Bing créateur d’image de Microsoft, Text to image de Canva, Midjourney avec Discord) ou la transcription vocale (Speech-to-Text de Google, Whisper d’OpenAI…). Elles se diversifient avec l’émergence d’autres options telles que la génération de vidéo, de musique, de traduction vocale, de diaporama à partir d’un prompt3. Il est également possible de faire une traduction vocale en langue étrangère d’un audio ou d’une vidéo (HeyGen). Une tendance vers les intelligences artificielles génératives multimodales semble donc se dessiner. Dans un avenir très proche, les IA génératives feront probablement partie de notre quotidien, exécutant de nombreuses tâches basiques ou complexes.

Face aux enjeux sociétaux liés au déploiement et à l’utilisation de ces nouvelles technologies, notamment les multiples plaintes en violation des droits d’auteur, les atteintes à la protection des données personnelles (RGPD), la CNIL a publié le 16 mai 2023 « un plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus ». En outre, le 9 décembre 2023, l’Union européenne est parvenue à un accord entre les différents États membres sur un texte qui encadre les intelligences artificielles, l’AI Act : « Ce règlement vise à garantir que les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale sont protégés contre les risques liés à l’IA, tout en encourageant l’innovation […]. Les règles établissent des obligations relatives au niveau de risque et d’impact que l’IA peut générer. »

À la suite de l’annonce, par le ministre de l’Éducation nationale, de l’introduction de l’IA dans l’apprentissage du français et des mathématiques en seconde (application MIA), dès la rentrée 2024, il est urgent de réfléchir à l’usage de ces outils, comme le signale Manon Lefebvre, dans son article sur ChatGPT, en nous présentant son fonctionnement, ses limites, et en suggérant des pistes de réflexion, d’apprentissage et de production de contenus pédagogiques.