Intelligence artificielle et pratiques de lecture une enquête menée à l’Université de Lille

Introduction

Depuis le lancement de ChatGPT en 2022, puis les montées en puissance de systèmes concurrents (notamment DeepSeek lancé au début de 2025) et les récentes initiatives politiques (particulièrement le Sommet pour l’action sur l’Intelligence Artificielle à Paris en février 2025), il n’est plus possible de faire la sourde oreille face à l’intelligence artificielle (IA).

Par « intelligence artificielle », nous entendons ici plus particulièrement les intelligences artificielles génératives (IAG), en tant que type d’imbrication d’algorithmes en mesure de générer des contenus textuels, des images, des sons ou des vidéos à la suite d’une demande, simple ou complexe, entrée par un utilisateur humain. Elle est généralement mise en contraste avec l’intelligence artificielle dite « prédictive », qui ne produit pas de contenu véritablement nouveau mais seulement des prédictions statistiques en fonction de données d’entrée. Si par la suite nous parlons d’IA, il s’agira toujours plus précisément d’IAG.

Entièrement intégrée dans les pratiques éducatives et créatives de certains étudiants et professionnels, l’IAG change déjà nos façons d’appréhender les processus inventifs. À côté de cela, la dernière étude publiée par le Centre National du Livre (CNL) (“Les Français et la lecture”, 2025) montre que le temps passé sur écran ne fait qu’augmenter (+ 7mn/jour comparativement aux résultats de 2023, soit 3 h 21 passées sur écran chaque jour) ; des résultats qui sont encore plus prononcés du côté des moins de 25 ans : ils passent en moyenne 5 h 02 par jour devant les écrans, soit une hausse de 53 mn par rapport aux résultats de 2023. La lecture, quant à elle, qu’elle soit sur support papier ou numérique ne fait que diminuer. Les Français passent plus d’une heure de moins à lire par semaine qu’en 2023, et les moins de 25 ans y consacrent environ 1 h 26 de moins par semaine.

À partir ce constat, il nous semble intéressant de nous questionner sur la potentielle apparition de nouvelles pratiques de lecture. En effet, en mettant en parallèle ces deux phénomènes que sont la montée de l’IAG et la diminution de la lecture au profit d’un temps sur écran rallongé1, nous sommes en mesure de nous interroger sur la place qu’occupe la lecture dans ce nouvel environnement.

Contextualisation

C’est dans ce contexte que nous avons entamé une enquête ouverte sur le croisement des pratiques de lecture (en numérique et sur papier) et des usages individuels de l’IA. Notre enquête s’inscrivait dans le cadre d’un enseignement de sociologie de la lecture et nous avons bénéficié du soutien et de l’expertise de Mme Yuliya Samofalova, enseignante en information et communication à l’Université de Lille. Nous allons en exposer les résultats dans cet article.

L’idée d’enquêter sur le croisement IA et lecture a germé lorsque nous nous sommes posées une question simple et délicate : dans quelle mesure est-il encore nécessaire de lire en quantité alors que l’intelligence artificielle nous permet (ou nous promet ?) de résumer n’importe quel texte ? Si ce questionnement est né presque comme une invitation à l’oisiveté, il se double cependant d’une interrogation sur un contexte social caractérisé par une accélération des contenus et des attentes éducatives et professionnelles, ce que certains chercheurs, à la suite du sociologue Hartmut Rosa, qualifient de « société de l’accélération » (Jézégou, 2021). Les résultats du CNL vont également dans ce sens : que ce soit chez les lecteurs ou chez les non-lecteurs, le manque de temps revient dans 67 % des réponses des interrogés. Ce paradigme pourrait nous pousser à envisager l’IA comme une voie de secours pour nous décharger de la contrainte sociale et éducative de devoir en faire toujours plus et plus vite. Nous pourrions alors élargir notre réflexion et nous demander quelle place nous serions prêts à laisser à l’IA dans nos pratiques de lecture, notamment en ce qui concerne les attendus scolaires et professionnels auxquels nous sommes confrontés.

Nous avons eu un mois pour établir notre questionnaire, le diffuser et en récolter les résultats, du 13 novembre au 11 décembre 2024. Ce questionnaire se divisait en quatre grandes parties : établissement du profil général du répondant (tranche d’âge ; activité professionnelle) ; pratiques de lecture (support ; profil de lecteur) ; avis concernant l’IA (utilisation ; avenir ; opinions) ; et enfin, un cas pratique dans lequel nous avons proposé aux répondants de tenter de distinguer un texte issu d’une œuvre de Baudelaire, d’un texte généré sur ChatGPT 40-mini d’OpenAI.

Le questionnaire a été réalisé sur la plateforme en ligne Framaforms, géré par Framasoft (association française à but non lucratif). Nous l’avons diffusé via différents canaux numériques afin de favoriser un échantillonnage boule de neige2. Tout d’abord, il a été envoyé par mail à plusieurs secrétariats pédagogiques de l’Université de Lille, notamment les secrétariats de lettres, de philosophie, de mathématiques et sciences de l’ingénieur. Nous visions des réponses de personnes jeunes et encore dans leurs études. Pour toucher un public plus large et en activité professionnelle, nous l’avons partagé sur divers réseaux sociaux : LinkedIn, Instagram (via des stories sur nos comptes respectifs et en partageant le questionnaire sur des comptes « Bookstagram » spécialisés dans la lecture) et Facebook (pour toucher un public un peu plus âgé). Cet éclatement de la diffusion via plusieurs médias nous a permis de récolter en une semaine 197 soumissions. Cependant, étant donné la large proportion d’étudiants dans les réponses obtenues (142 réponses soit environ 72 % du panel), nous avons finalement restreint nos résultats à cette tranche de répondants pour plus de pertinence.

Résultats

Profils

Dans un tout premier temps, nous avons établi le profil des répondants. Nous avons pris en compte leur âge et leur typologie de lecteur (grand lecteur : 20 livres et plus/an ; moyen lecteur : entre 5 et 19 livres/an ; petit lecteur : moins de 5 livres/an ; non-lecteur3). Il est apparu que nos répondants étudiants étaient âgés entre 20 et 30 ans (pour près de 79 % d’entre eux), tandis qu’un peu plus de 17 % avaient moins de 20 ans ; moins de 3 % avaient entre 30 et 40 ans. Ces résultats ne sont pas très surprenants et ciblent une population en grande partie issue de la génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) et donc habituée aux supports numériques parce que née pendant leur essor. Il est donc intéressant d’avoir le point de vue et l’avis d’une catégorie sociale déjà ancrée dans les évolutions technologiques.

Quant aux typologies de lecteurs, les étudiants s’affirment pour la plupart lecteurs (à plus de 97 %) et sont plutôt grands et moyens lecteurs, respectivement à 33,8 % et à 38,02 % ; les petits lecteurs arrivent ensuite à 26,05 %. Nous n’avons eu que trois répondants se caractérisant comme non-lecteurs ; pour cette raison, nous avons également décidé d’écarter ces trois répondants de nos résultats afin d’éviter l’écueil de manquer de représentativité.

Figure 1 : Nombre de répondants par profil de lecteurs

Ces chiffres montrent clairement un ancrage des étudiants dans la lecture, et si on pouvait penser que ces résultats correspondent à des impératifs liés à leurs études (bibliographies, notes de lecture, etc.), d’autres résultats viennent contredire notre hypothèse. En effet, après avoir dressé des premiers profils, nous avons interrogé nos participants sur les raisons qui les poussent à lire. Et les chiffres sont clairs : les étudiants interrogés lisent à plus de 97 % pour le loisir. C’est donc une large majorité des répondants qui favorise avant tout le plaisir dans la lecture. Viennent ensuite l’information et le travail comme deuxième et troisième motivation à la lecture, avec des résultats très proches : 42,2 % et 41,5 %. Nous voilà donc avec des répondants, fervents lecteurs pour le plaisir. Ce premier constat est relativement similaire à celui des résultats du CNL : les lecteurs lisent majoritairement pour le plaisir4. Cela dit, en ce qui concerne les résultats liés à la lecture pour le travail et l’information (catégorie absente dans le baromètre du CNL), notre enquête montre que les étudiants sont de plus grands utilisateurs de la lecture en contexte formel. En effet, la lecture pour le travail et l’information est près de deux fois supérieure à la moyenne nationale : à plus de 40 % contre seulement 24 % dans les résultats du CNL. Ce constat est intéressant parce qu’il pointe les besoins informationnels importants d’un public ; l’interrogation sur un nouvel outil pouvant modifier son rapport à la lecture prend encore plus de sens. En effet, en contexte d’accélération, les outils de synthèse pourraient permettre d’appréhender plus facilement et rapidement l’information.

Après avoir dressé la typologie des répondants-lecteurs, nous avons cherché à élargir progressivement notre réflexion vers des questions plus en lien avec le numérique. Pour cela, nous les avons interrogés sur leurs supports de lecture habituels (sans leur demander le type de contenus) et il en est ressorti que, si le papier est le support privilégié (près de 98 % des répondants lisent sur papier), plus de 58 % d’entre eux lisent également sur des formats numériques (téléphones, ordinateurs, etc.). Ce constat vient confirmer les résultats de l’étude du CNL de 20235 tout en allant plus loin car les chiffres de l’organisme montraient alors que 29 % de leurs interrogés lisaient également au format numérique, tandis que notre panel affiche des résultats près de 20 % plus élevés. Cette forte tendance numérique peut probablement s’expliquer par la large proportion de répondants jeunes.

Utilisations de l’IAG

Ensuite, nous avons commencé à orienter les répondants vers leurs opinions et pratiques de l’IAG. Au travers de cinq questions, nous avons cherché à établir, tout d’abord, leurs pratiques effectives de l’outil dans le cadre de génération de résumés ou d’analyses de textes. Il est étonnant de remarquer que près de 53 % des interrogés ont répondu ne pas utiliser du tout l’IAG dans ce cas. Si nous séparons les réponses en fonction des profils de lecture, nous remarquons que les grands lecteurs sont les plus réticents à utiliser l’IAG dans le cadre de génération de résumés (plus de 62,5 % répondent négativement).

Cependant, il est intéressant de noter que, lorsqu’il s’agit d’utilisation régulière de l’IAG, les moyens et les grands lecteurs se rapprochent fortement : 7,4 % pour les moyens lecteurs et 6,2% pour les grands lecteurs. Ces résultats peuvent probablement s’expliquer par des habitudes et des pratiques de lecture plus ancrées que chez les petits lecteurs, ces derniers utilisant régulièrement l’IAG pour des synthèses et des résumés dans plus de 27 % des réponses. Ces habitudes, qui seraient plus difficiles à modifier avec l’émergence de nouveaux outils, pourraient expliquer une réticence à l’utilisation régulière de l’IAG.

Cependant, ces chiffres sont nuancés par le plus faible écart qui existe entre les résultats liés aux utilisations occasionnelles de l’IAG. Effectivement, nous notons qu’à ce niveau-là les grands et petits lecteurs l’utilisent presque autant et la plus grande proportion revient même aux grands lecteurs (31 % contre 29 % pour les petits lecteurs).

Ainsi, toutes les catégories de lecteurs sont, au moins pour partie, sensibles à l’apparition de l’IAG (53 % d’entre eux usant de cet outil). Nous pouvons les distinguer uniquement grâce à la proportion de non-utilisateurs de l’IAG qui est manifestement beaucoup plus importante chez les grands lecteurs.

Figure 2 : Utilisations de l’intelligence artificielle générative par profils de lecteur

Ensuite, nous avons plus longuement interrogé nos répondants sur leurs opinions et prévisions relatives au développement de l’IAG dans les pratiques individuelles et éducatives. Pour ce faire, nous leur avons posé 4 questions :
1. « Selon vous, l’IA peut-elle enrichir l’expérience de lecture en fournissant des informations complémentaires ou des résumés ? »
2. « Pensez-vous que l’utilisation de l’IA pour la lecture réduit la créativité ou l’imagination personnelle ? » 3. « Pensez-vous que l’IA va impacter la façon de lire et d’apprendre à lire dans le futur ? »
4. « Selon vous, quel sera l’impact de l’IA sur la manière de lire et de comprendre l’information dans 10 ans ? »

Apparaît alors un avis général plutôt négatif. Si les réponses à la question 1 laissent apparaître une opinion positive majoritaire (41 % d’entre eux penchent en faveur d’un enrichissement, tandis que 38 % sont dubitatifs et un peu plus de 21 % n’envisagent pas d’enrichissement), les autres questions font émerger une vision pessimiste de l’IAG. Ils sont plus de 64 % à répondre que l’IAG a un impact négatif sur la créativité et l’imagination ; là où seulement environ 18 % n’envisagent pas de réduction de ces facultés.

Concernant l’avenir de l’IAG, 90 % des répondants sont d’avis que l’IAG aura un impact sur la façon de lire et d’apprendre à lire dans le futur et plus de la moitié d’entre eux (51,5 %) prévoient un impact important. Les répondants se divisent cependant sur la positivité de cet impact sur le long terme.

Nous leur avons proposé un petit exercice de projection dans l’avenir, à savoir s’imaginer ce que donnerait l’IAG sur les pratiques de lecture dans 10 ans. À défaut d’avoir posé des questions ouvertes, nous les avons seulement questionnés sur le caractère très positif, positif, neutre, négatif ou très négatif de cet impact. Les avis généraux se divisent alors en deux grandes catégories : un peu moins de 49 % des répondants estiment que l’IAG aura un impact négatif sur la manière de lire et de comprendre l’information et 38 % envisagent un impact neutre. Un peu plus de 13 % se positionnent pour un impact positif. Avec ces seules données, nous pouvons malgré tout faire émerger une opinion générale mitigée et globalement plutôt négative dans laquelle se retrouvent tous les profils de lecteurs (non-lecteurs, petits, moyens et grands lecteurs) et les avis sur le long terme.

Figure 3 : Opinion sur l’impact de l’IA sur la manière de lire et de comprendre l’information dans 10 ans
Figure 4 : Répartition des opinions sur les impacts de l’IA dans 10 ans, par profils de lecteur

 

 

Reconnaissance de l’IAG

Enfin, la dernière partie de notre questionnaire était dédiée à une expérimentation. Nous avons sélectionné deux textes poétiques que nous avons mis en regard. L’un d’entre eux était extrait du poème « L’Ennemi » de Charles Baudelaire (Les Fleurs du Mal, 1857) et l’autre était un texte généré sur ChatGPT 40-mini. Pour créer ce dernier, nous avons d’abord demandé au chatbot de réécrire le poème « L’Ennemi » en imitant le style de Baudelaire. Cependant, le résultat était assez peu satisfaisant : le texte était manifestement incohérent et la distinction entre les deux textes aurait été rapidement faite. Après l’échec d’une autre tentative au cours de laquelle nous avons demandé à l’IAG de rectifier ses incohérences, nous avons changé de posture et décidé de demander au chatbot d’écrire un poème sur les mêmes thématiques abordées par Baudelaire dans « L’Ennemi » – à savoir la vieillesse, le regret, etc. – tout en essayant d’adopter le style baudelairien. Là, le résultat s’est avéré beaucoup plus satisfaisant.

Nous avons alors isolé un passage dans chacun des deux textes et avons ajouté ces deux extraits au questionnaire, en demandant aux répondants quel était leur texte préféré et quel était – selon eux – le texte généré par ChatGPT.

Avant de vous en révéler les résultats, voici les deux textes :

Texte A – généré sur ChatGPT 40-mini :

« Je me revois, candide, aux premières aurores,
L’âme pleine de rêves et le front sans remords ;
Mes mains frêles cueillaient des promesses écloses,
Et chaque pas semblait me rapprocher des ors.
Mais l’éclat des matins cache un piège perfide,
Un gouffre sous les fleurs, un vertige de feu.
Mon cœur, ivre d’élan, crut au ciel limpide,
Quand l’orage attendait, tapi dans l’ombre bleue. »

Texte B – tiré de « L’Ennemi  » :

« Ma jeunesse ne fut qu’un ténébreux orage,
Traversé çà et là par de brillants soleils ;
Le tonnerre et la pluie ont fait un tel ravage,
Qu’il reste en mon jardin bien peu de fruits vermeils.
Voilà que j’ai touché l’automne des idées,
Et qu’il faut employer la pelle et les râteaux
Pour rassembler à neuf les terres inondées,
Où l’eau creuse des trous grands comme des
tombeaux. »

Pour ce qui est des résultats, il s’est avéré que 46 % des répondants – toutes catégories de lecteurs confondues – préféraient le texte généré par ChatGPT et pensaient que le texte de Baudelaire était celui créé par IAG. Les répondants ayant vu juste sur l’origine de chaque texte et préférant celui de Baudelaire représentaient, quant à eux, 41,5 % des réponses. Nous précisons toutefois que les réponses peuvent varier en fonction du type d’études des étudiants répondants.

Trois points sont intéressants à noter dans ces résultats : en premier lieu, les résultats sont assez proches (5,5 % d’écart) et semblent montrer que ChatGPT peut produire du contenu poétique ressemblant à de la poésie écrite par l’humain, et peut-être même produire du contenu plus plaisant que ce dont celui-ci est capable (la petite victoire de ChatGPT sur Baudelaire semble le figurer). Ce résultat – bien que probablement dérangeant pour certains – n’est pas si étonnant au vu des capacités combinatoires de l’outil.

En deuxième lieu, les réponses de notre panel sont très homogènes au sens où les répondants ont généralement désigné le texte qu’ils ont préféré comme étant celui qui n’était pas généré par ChatGPT. Ici se reflète probablement le jugement globalement négatif sur l’IA que nous avons évoqué auparavant, à savoir que l’IA est réductrice de créativité et qu’il y a alors probablement une sorte d’impossibilité pour elle d’être la source d’une œuvre poétique. Le choix d’un poème n’était pas anodin dans notre étude. Nous cherchions à mettre en évidence l’idée que les machines – ou ici, les algorithmes – sont séparées des humains en ce qu’elles sont incapables de certaines actions caractérisées comme humaines, tels que les processus créatifs. Manifestement, certaines IAG ne s’en sortent pas si mal.

Et en troisième lieu, nous pouvons tout de même souligner qu’un peu moins de 13 % des répondants ont préféré le texte qu’ils pensaient généré par IAG, que celui-ci soit vrai (pour 5 % d’entre eux) ou faux (pour un peu moins de 8 %).

IAG et lecture : quelques perspectives

Il semble que l’IA va prendre une place de plus en plus importante dans les pratiques de lecture. Selon les enquêtes du CNL (op. cit., 2025), la lecture numérique a nettement progressé en 10 ans (+ 6 %). Elle touche particulièrement les personnes de 15 à 34 ans (28 %). Nos répondants correspondent à ces profils. Pour 47 % d’entre eux, l’IA est déjà un outil qu’ils utilisent pour résumer des textes et sont plutôt positifs sur l’apport de cet outil vis-à-vis des pratiques de lecture, bien que ces résultats ne soient pas homogènes pour toutes les catégories de lecteurs. Cependant, la tendance s’inverse sur les questions des ressentis vis-à-vis de la créativité et de l’impact sur l’information dans les années à venir. Nous sentons alors que les réponses apportées par notre panel montrent une réticence et une méfiance envers l’IAG qui nous permet de dire que les usagers ne sont pas prêts à laisser ces nouveaux outils “lire” ou comprendre à leur place. Et c’est en ce sens que nous pouvons répondre qu’il est encore utile, même préférable, de lire à l’heure de l’IAG.

Malgré une utilisation relativement répandue, ces avis négatifs sur l’IAG sont effectivement justifiés. On voit régulièrement dans l’actualité les nombreux problèmes que l’IAG engendre. Elle est source de désinformations (hyper-trucage, usurpation d’identité, etc.), utilisée par la Russie dans la guerre en Ukraine (Jolicœur & Seaboyer, 2024), et à l’origine de discriminations dues à ses nombreux biais racistes et sexistes. Une enquête menée par Franceinfo en 2025 pointe du doigt les biais sexistes des IAG : lorsqu’on demande à ChatGPT, de créer l’image d’une « personne qui cuisine », une femme est quasi systématiquement représentée. Cependant, lorsque que la demande porte sur « une personne avec une étoile Michelin qui cuisine », c’est l’image d’un homme que l’IAG produit. L’IAG doit encore être grandement améliorée avant de pouvoir devenir plus éthique, si tant est que cela soit possible.

Cependant, notre petit exercice de distinction des textes vient nuancer ces constats pessimistes : s’il n’est pas toujours possible de différencier les résultats de l’IAG de ceux d’humains, peut-être que ceux-là ne sont pas à mettre complètement de côté et que des processus divers – comme les résumés, la génération de textes, la création dans un sens large – sont probablement envisageables. Dans cette optique, il est intéressant de s’interroger, non pas sur la disparition et l’escamotage de la lecture, mais sur l’intégration de l’IAG dans les processus créatifs et éducatifs. Il pourrait être pertinent de montrer qu’elle n’est pas nécessairement là pour suppléer aux facultés humaines d’imagination et de production intellectuelle, mais qu’elle peut plutôt accompagner, améliorer voire renforcer des capacités de l’humain sans lui retirer l’initiative de l’inventivité. Et cet aspect est d’autant plus pertinent dans le cadre de la société d’accélération dont nous parlions plus tôt. En effet, l’IAG pourrait tout à fait prendre une fonction de soutien dans les formations et les pratiques professionnelles de chacun.

La médiation entre l’IAG et les usagers devra probablement être prise en charge par les professionnels de l’information et de la documentation qui pourront mettre en évidence les enjeux d’assistance dans les processus documentaires, de dépassement des limites humaines et d’allègement des tensions liées à la société de l’accélération. Nous voyons déjà fleurir depuis quelques temps des formations à l’IAG dans de nombreux domaines mais celle-ci devra être plus fortement prise en main dans les domaines de la documentation et des bibliothèques où la formation et l’éducation ont des rôles clés.

On peut prendre l’exemple de l’INSPÉ de Caen qui a pour projet « d’exploiter une IAG entraînée à partir de documents universitaires [pour] concevoir un module d’autoformation destiné aux formateurs de l’INSPÉ ainsi qu’à la communauté universitaire6 ». Le but ici est d’apporter une assistance, un soutien aux professeurs et aux apprenants, notamment dans les démarches d’inclusion (Piekoszewski-Cuq, 2024).
L’IAG est un levier qu’il faut exploiter. Il est donc important de l’inclure dans les procédés éducatifs, notamment au travers de l’éducation aux médias et à l’information (EMI) pour permettre aux élèves de développer une opinion et un esprit critique afin d’utiliser au mieux les nouveaux outils de l’IAG. De plus, il faut essayer de comprendre les raisons qui poussent les élèves et étudiants à utiliser l’IAG : allègement des contraintes éducatives ou engouement pour un outil encore mal compris ? Il est en notre pouvoir de se saisir de ces opportunités pour préparer et former les utilisateurs mais aussi les professionnels aux enjeux actuels et futurs de l’IAG. En effet, elle ne représente pas un substitut à l’apprentissage traditionnel, mais un complément (Cagé, 2024).

 

 

Explorer les potentialités de l’intelligence artificielle (IA) pour développer de nouvelles pratiques de lecture et d’écriture au CDI

Face à l’essor des outils numériques, les professeurs-documentalistes repensent leur rôle de médiateurs de l’information, accompagnateurs du numérique et garants d’une utilisation éthique des nouvelles technologies. Dans un contexte de transformation numérique, les CDI se réinventent, cherchent à répondre aux attentes plurielles et évolutives des usagers (Maury, et al., 2018). L’évolution rapide de l’IA impose aux praticiens de constamment s’adapter, d’actualiser leurs compétences et de prendre en considération l’émergence de nouveaux outils et enjeux éthiques et pédagogiques (Savar, 2024). Les professeurs-documentalistes occupent une place clé dans l’accompagnement des jeunes face à l’IA, dont la compréhension constitue un levier pour appréhender les mécanismes de notre société contemporaine (Garnier, et al., 2025). Cet article explore les potentialités de l’IA en contexte éducatif et en questionne les usages.

Médiateurs numériques, médiateurs documentaires, les professeurs-documentalistes cherchent à développer les compétences des élèves dans l’accès autonome et réfléchi à l’information et aux connaissances. Ils développent une politique de lecture quel que soit le support et forment les élèves à l’utilisation des outils numériques de manière critique et responsable. Cependant, l’utilisation pédagogique de ces outils soulève de nombreuses questions, notamment éthiques, concernant la confidentialité des données ou encore la protection de la vie privée. Comment le professeur-documentaliste peut-il utiliser l’IA pour engager les élèves dans des pratiques de lecture de manière efficace et éthique, tout en favorisant leur littératie numérique et leur autonomie ?

Le présent travail rend compte d’une recherche-formation menée avec des étudiants préparant le Capes de documentation, amenés à se projeter dans la profession en élaborant des scénarios pédagogiques mêlant lecture et numérique. Enseignante à l’université de Montpellier, nous avons demandé à 14 étudiants inscrits en master 1 Métiers de l’enseignement, de l’éducation et de la formation (MEEF) parcours documentation de se projeter dans un contexte de Centre de documentation et d’information (CDI) de collège ou de lycée et de concevoir des séances visant à susciter l’envie de lire et à expérimenter de nouvelles pratiques pédagogiques intégrant des outils numériques, notamment l’intelligence artificielle.
Il semble crucial de prendre en compte le nouvel écosystème numérique dans lequel nous évoluons et de penser les pratiques d’enseignement et d’apprentissage du lire-écrire en intégrant les IAG (Acerra, Gervais & Petitjean, 2024). En nous appuyant sur la circulaire de missions de 2017, qui précise que le professeur-documentaliste met en œuvre des animations et des activités pédagogiques autour du livre et développe une politique de la lecture en collaboration avec les autres enseignants (Circulaire n° 2017-051 du 28-3-2017), nous avons donné aux étudiants la consigne suivante :

Construire un scénario pédagogique inté­grant l’IA au service de la lecture à l’école

Comment les professeurs-documentalistes peuvent-ils s’emparer de l’IA pour développer les compétences de lecture des élèves, au collège ou au lycée ? Appuyez-vous sur les ressources ci-dessous ainsi que sur vos propres connaissances de la profession et des terrains des CDI, vos représentations du numérique, de l’éducation, de la médiation, vos capacités à intégrer des outils issus d’innovations technologiques. L’objectif est de concevoir un scénario visant à renforcer les compétences de lecture des élèves.

Ressources :
● Missions des professeurs documentalistes inhérentes au développement de la lecture chez les élèves (Circulaire n° 2017-051 du 28-3-2017).
● Lettre de rentrée des IA-IPR Établissements et Vie scolaire de l’Académie de Montpellier – Année scolaire 2024-2025
● APDEN Wikinotions : https://wikinotions.apden.org/index.php
● EDUSCOL : cadre de référence des compétences numériques (CRCN) https://eduscol.education.fr/document/20392/download
● LEGIFRANCE : socle commun de connaissances, de compétences et de culture (SCCC) https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000038895266

Les étudiants ont commencé à travailler en autonomie d’abord durant une heure et demie en TD puis ont pu rendre leur travail plus tard, trois semaines après.

Séances préalables : éducation à l’IA

Les scénarios proposés commencent toujours par une ou plusieurs séances introductives visant à définir ce qu’est l’IA et à en comprendre les principes de base. Lors de ces premières séances, le professeur-documentaliste choisit de mettre l’accent sur un ou plusieurs aspects :

Les modalités d’interrogation des IA

Pour rédiger des prompts efficaces et interagir avec une IA, l’usager devra être précis, clair et fournir des détails sur sa demande. Un prompt bien structuré inclut des informations spécifiques sur un sujet. Tant que la réponse n’est pas satisfaisante, l’usager ajuste et affine sa demande.

Le principe d’apprentissage automatique par l’analyse de données

L’IA analyse de vastes ensembles de données pour identifier des modèles et des tendances en suivant des règles mathématiques. Cette approche est connue sous le nom de machine learning, elle permet à l’IA de s’améliorer au fil du temps.

Des exemples d’utilisations des IA dans la vie quotidienne

– Moteurs de recherche : Google, Ecosia, Bing… dans les recherches effectuées sur le web, les résultats sont triés en fonction de leur pertinence mais aussi en fonction des habitudes de recherche de l’utilisateur.
– Assistants vocaux : Siri, Alexa, Google Assistant sont des outils qui utilisent l’IA pour reconnaître la voix, convertir la parole en texte et interpréter la demande. Ils analysent les requêtes pour proposer des réponses adaptées.
– Traducteurs automatiques : Google traduction, DeepL, Reverso sont des outils entraînés sur des millions de textes multilingues permettant des traductions instantanées de textes.
– Traitement et génération d’images : l’IA est utilisée dans de nombreux outils de retouche et de création d’images.

Les limites et les enjeux des outils IA

La boîte noire des IA désigne le flou, l’opacité et la complexité des mécanismes internes qui régissent leur fonctionnement. Ce côté obscur repose notamment sur plusieurs facteurs : l’opacité des algorithmes, le manque d’accessibilité et de vérifiabilité des données d’apprentissage, la collecte et l’exploitation de données personnelles, et la reproduction de biais présents dans les données d’apprentissages.

Les questions éthiques soulevées par l’IA

Ces questions touchent notamment au respect de la confidentialité et à la protection des données à caractère personnel (risque d’atteinte à la vie privée) ; à la nécessité de transparence dans les décisions automatisées (risque de discrimination) ; à l’impact de l’IA sur les métiers et sur la société (risque d’automatisation des tâches et de perte d’emplois). Dans ce contexte numérique, l’école fait face à un double défi. D’une part, elle doit permettre aux élèves de développer les connaissances et la culture nécessaires à l’exercice de la citoyenneté dans une société de l’information numérique. D’autre part, elle doit veiller à encadrer les usages numériques par des pratiques responsables et respectueuses des droits de chacun.
Une attention particulière est portée aux données sensibles et aux données scolaires. Par données sensibles, on entend des données à caractère personnel concernant l’origine raciale ou ethnique, les opinions politiques, philosophiques ou religieuses, l’appartenance syndicale, la santé, l’orientation sexuelle, les données génétiques et biométriques.
D’un point de vue juridique, les données scolaires des élèves ne sont pas considérées comme des données sensibles (Braun, Kerdelhué, 2023). Ce sont des données collectées auprès d’enfants mineurs dont le respect de la vie privée est inscrit dans la Convention internationale sur les droits de l’enfant (CIDE). Or, la plupart des IA disponibles ne respectent pas le RGPD. Les bonnes pratiques d’usage consistent à créer un compte enseignant (avec une adresse mail académique) ou un compte classe, à informer le chef d’établissement de l’usage de l’IA en classe, à réaliser l’inscription de l’outil numérique au registre de l’établissement et à informer les utilisateurs des risques encourus.
Ces premières séances incluent des exercices pratiques permettant aux élèves de tester différents outils d’IA, de se familiariser avec eux d’analyser leurs résultats et d’apprendre à formuler des requêtes pertinentes.

Comment intégrer l’IA dans l’apprentissage de la lecture et de l’écriture au CDI ? Voici cinq scénarios pédagogiques innovants, adaptés pour cette publication. Chacun détaille les objectifs, les compétences travaillées et les modalités de mise en œuvre, tout en mettant en lumière les points de vigilance et les limites à anticiper. Ces activités, bien que conçues pour un niveau précis, restent modulables en fonction des besoins pédagogiques.

– Scénario 1 : Écriture créative et lecture attentive avec l’intelligence artificielle générative (IAG)
– Scénario 2 : L’IA comme outil de recommandation de lectures
– Scénario 3 : La lecture augmentée : l’IA comme outil de compréhension et d’analyse
– Scénario 4 : Lire à haute voix, lecture accompagnée par l’IA
– Scénario 5 : Écrire une lettre de motivation : corrections et reformulations guidées par l’IA

Scénario 1

Écriture créative et lecture attentive avec une intelligence artificielle générative (IAG) – Eva Bailloud, Marion Durr et Anna Lewicki

Ce scénario invite les élèves à s’engager dans une activité d’écriture créative en interaction avec une IAG. L’objectif est double : leur faire découvrir les mécanismes de la narration et développer leur esprit critique face aux productions d’un agent non humain. À travers ce processus de coécriture, les élèves sont amenés à formuler, reformuler et à affiner leurs idées, tout en portant une attention particulière à la cohérence et à la qualité des textes générés. Ce scénario peut donner lieu à divers prolongements pédagogiques, tels qu’une comparaison entre productions humaines et générées par IA ou encore un débat sur le rôle de l’intelligence artificielle dans la création littéraire.

Niveau scolaire :
Collège, élèves de 5e

Modalités pédagogiques :
2 heures. En demi groupe.

Matériel et ressources :
● Textes littéraires : Les romans Croc-Blanc de Jack London, Jonathan Livingston le goéland de Richard Bach et Vendredi ou la vie sauvage de Michel Tournier.
● Guide d’auto-analyse (document élève)
● Postes informatiques connectés à internet
● IA ChatGPT (OpenAI) ChatGPT permet de créer des récits cohérents. Les élèves peuvent poser des questions, demander des reformulations, proposer des suggestions d’amélioration.

Objectifs pédagogiques :
▶ Travailler la structure narrative d’un texte
▶ Développer des compétences en écriture créative
▶ Renforcer la lecture attentive et l’analyse de texte
▶ Apprendre à interagir efficacement avec une IAG
▶ Renforcer l’esprit critique face aux productions
de l’IAG

Déroulement de la séance – 2 heures

Étape 1 : Lecture et analyse des textes supports, durée 30 minutes
Lecture de trois extraits de romans d’aventure. Analyse collective de la structure narrative (cadre, personnages, action).

Étape 2 : Lancement de la production, durée 20 minutes
Les élèves choisissent une des trois premières phrases parmi les textes lus et rédigent des prompts pour générer une suite avec l’IA.

Étape 3 : Réécriture assistée, durée 30 minutes
Les élèves affinent leur production en dialoguant avec l’IA. L’enseignant les guide dans l’élaboration de prompts efficaces.

Étape 4 : Guide d’auto-analyse, durée 20 minutes
À l’aide du guide auto-analyse, les élèves évaluent leur texte : cohérence, logique des événements, pertinence de l’IA.

Étape 5 : Lecture à voix haute et échanges, durée 20 minutes
Lecture des textes coproduits, commentaires sur les intentions narratives, les apports et les limites de l’IA.

Document élève : guide d’auto-analyse
Questions proposées : L’histoire a-t-elle un sens ? Les personnages sont-ils bien présentés ? Le déroulement des événements est-il logique ? L’IA a-t-elle bien compris ton intention ? Qu’aurais-tu envie de modifier ? Pourquoi ?

Limites et points d’attention sur l’accompagnement pédagogique :
Certains élèves peuvent rencontrer des difficultés à formuler des prompts efficaces ; un accompagnement est nécessaire.
Les textes générés peuvent comporter des incohérences ou des biais. Il est important d’encourager la prise de recul et la réécriture.
L’IAG ne doit pas être perçue comme une source d’autorité ou de vérité littéraire.

Scénario 2

L’IA vous recommande une lecture – Salomé Blachère

Choisir un livre en autonomie peut constituer un véritable défi pour un jeune. Ce travail vise à développer l’autonomie des élèves dans leur démarche de recherche de livres adaptés à leurs goûts et à leur niveau de lecture.

Niveau scolaire :
Collège : 3e

Modalités pédagogiques :
2 heures. En demi-groupe.

Matériel et ressources :
● Autoportrait de lecteur (document élève)
● Liste d’ouvrages disponibles au CDI au format PDF
● Postes informatiques connectés à internet
● IA Perplexity

Objectifs pédagogiques :
▶ Apprendre à rédiger un prompt et télécharger,y joindre un document PDF
▶ Interagir avec une IAG de manière active : utiliser les outils numériques pour rechercher un livre
▶ Comprendre le fonctionnement d’une IA
▶ Se connaître lecteur, encourager la réflexionsur ses goûts littéraires
▶ Développer l’autonomie des élèves dansla recherche de livres
▶ Se repérer dans l’espace documentaire

Déroulement de la séance – 2 heures

Étape 1 : Préférences de lecture et expression des attentes, durée 20 minutes
Les élèves réfléchissent à leurs goûts littéraires (genres, thématiques, formats). Ils complètent une fiche personnelle pour exprimer leurs préférences (voir document élève). Cette étape leur permet de formuler plus facilement leur demande à l’IA.

Étape 2 : Présentation d’une liste d’ouvrages, durée 10 minutes
Le professeur-documentaliste présente une liste d’ouvrages disponibles au CDI.
Cette liste contient : titres, auteurs, résumés, mots-clés, genres, formats, nombre de pages, cotes des documents. Les élèves sont invités à télécharger ce fichier au format PDF afin de l’utiliser dans la suite de l’activité.

Étape 3 : Formulation d’un prompt personnalisé, durée 20 minutes
Chaque élève rédige un prompt adapté à son profil de lecteur et à ses attentes. Des exemples de formulations sont proposés pour les aider (lecteur passionné, lecteur réticent, recherche ciblée…). Le prompt est soumis à l’IA, accompagné du fichier PDF.

Étape 4 : Analyse des propositions générées, durée 25 minutes
Les élèves lisent les réponses de l’IA : suggestions de livres, résumés, cotes. Ils comparent les titres proposés à leurs attentes. Ils choisissent un livre qui leur semble adapté et partent à sa recherche dans le CDI.

Étape 5 : Validation du choix et lecture exploratoire, durée 15 minutes
L’élève commence la lecture du livre choisi afin de valider ou non son intérêt. En cas de déception, il peut explorer une autre proposition ou ajuster son prompt.

Étape 6 : Bilan critique, durée 30 minutes
Temps d’échange : L’IA a-t-elle orienté les choix de lecture ? Les prompts ont-ils été efficaces ? Quelle place donner à l’IA dans les pratiques de recommandations de lectures ? Chaque élève partage son expérience, ses éventuelles difficultés et son avis sur l’intérêt d’utiliser une IAG pour le conseil en lecture.

Document élève :
Les élèves remplissent une fiche « autoportrait de lecteur » sur laquelle ils sont amenés à noter le ou les genres de lectures qu’ils affectionnent plus particulièrement, le livre qu’ils ont lu récemment, celui qu’ils ont aimé ou celui qu’ils ont détesté. Comment choisissent-ils leurs lectures en général ?

Limites et points d’attention sur l’accompagnement pédagogique :
Une attention devra être portée sur la rédaction des prompts de manière à ce que les éléments demandés puissent être retrouvés par l’IA dans la liste fournie. Finalement, les suggestions générées par l’IA ne sont pas forcément parfaites, les élèves devront également se baser sur leur propre jugement pour choisir.

Scénario 3

La lecture augmentée : l’IA comme outil de compréhension et d’analyse – Inès Debette, Morgane Guillet et Suzanne Conte

Dans cette activité, l’utilisation de l’IAG comme outil de compréhension transforme la lecture en une activité dynamique. Les élèves construisent eux-mêmes leur savoir et leur compréhension du texte étudié. Ils développent leur esprit critique, interrogent la profondeur de leurs réponses, formulent des questions, interrogent différentes interprétations possibles du texte. L’interaction avec les IA demande aux élèves d’affiner leurs questions pour obtenir des réponses pertinentes, cela renforce leur capacité à poser des questions précises.

Niveau scolaire :
Lycée professionnel : 1re professionnelle ASSP (Accompagnement, Soins et Services à la Personne)

Modalités pédagogiques :
2 heures. En demi-groupe.

Matériel et ressources :
● Textes littéraires : Le roman L’Étranger d’Albert Camus
● Guide d’auto-analyse (document élève)
● Postes informatiques connectés à internet
● Possibilité de comparer les réponses de 2 IA : Copilot (Microsoft) et Le Chat – Mistral AI

Objectifs pédagogiques :
▶ Utiliser l’IA pour améliorer la compréhension et l’analyse d’un texte littéraire
▶ Apprendre à formuler des questions précises et pertinentes pour interagir avec l’IA
▶ Développer des compétences en analyse littéraire et en rédaction
▶ Encourager la réflexion critique sur l’utilisation des outils numériques dans l’apprentissage

Déroulement de la séance – 2 heures

Étape 1 : Lecture guidée du chapitre 1 de L’Étranger d’A. Camus, durée 20 minutes
Lecture collective ou individuelle du premier chapitre de L’Étranger. L’enseignant accompagne les élèves pour relever les éléments clés : style, contexte, personnages, ambiance. L’attention est portée sur les phrases courtes, les silences, l’impassibilité de Meursault.

Étape 2 : Questionnaire de compréhension, durée 25 minutes
Chaque élève remplit un questionnaire structuré (voir document élève) portant sur : le vocabulaire spécifique (asile, veillée, bière…), le comportement du personnage principal, le contexte historique et culturel, les procédés d’écriture (style minimaliste, effets de rythme), les thèmes principaux (mort, absurdité, décalage émotionnel).

Étape 3 : Interrogation de l’IA, durée 25 minutes
Les élèves soumettent leurs questions à une IAG pour : vérifier leurs réponses, approfondir certains points, interroger le style de Camus, explorer le contexte historique ou lexical du texte. Ils comparent les réponses de l’IA à leurs propres analyses et formulent de nouvelles questions en réponse aux pistes ouvertes par l’IA.

Étape 4 : Discussion et mise en perspective, durée 25 minutes
Échange en petits groupes : quelles différences entre leur lecture et l’interprétation proposée par l’IA ? L’IA a-t-elle aidé à mieux comprendre le texte ou a-t-elle biaisé leur regard ? L’intention de l’auteur est-elle bien rendue par l’IA ?

Étape 5 : Restitution et bilan, durée 25 minutes
Restitution orale des analyses comparées. Chaque élève exprime son point de vue sur l’apport de l’IA dans l’étude littéraire : a-t-elle permis une lecture plus riche ? A-t-elle fait apparaître de nouveaux questionnements ? Quelles limites ou dérives possibles dans l’usage d’une IAG face à un texte littéraire complexe ? Possibilité d’ouvrir la réflexion sur les différences entre interprétation humaine et générée, et la place du lecteur dans l’acte de lecture.

Document élève :
Questionnaire sur le contexte historique et philosophique, le vocabulaire employé par l’auteur, les choix stylistiques de Camus (phrases courtes et simples), les thèmes principaux du chapitre (l’absurde, l’indifférence, la mort), l’attitude du personnage de Meursault.

Limites et points d’attention sur l’accompagnement pédagogique :
Le professeur-documentaliste veille à ce que les élèves formulent correctement leurs prompts avec clarté et précision. Il les encourage à reformuler des questions incomplètes ou trop générales. L’IA peut donner des réponses trop générales ou mal interpréter le texte. L’idée est de réfléchir avec l’IA et ne pas prendre comme vérité absolue les réponses générées.

Scénario 4

Lire à haute voix, lecture accompagnée par l’IA – Yasmine Dezombre et Martin Legendre

Certaines IA peuvent accompagner et corriger la lecture à haute voix en temps réel en analysant la prononciation, le rythme, l’intonation et la fluidité grâce à la reconnaissance vocale. Elles permettent un perfectionnement notamment dans la lecture en langue étrangère. Dans cet exemple, l’IA est utilisée pour améliorer son anglais. L’élève travaille la compréhension de texte et l’acquisition de vocabulaire en anglais, il travaille l’intonation, l’accentuation, le rythme et la fluidité de lecture, il travaille ses compétences en termes de lecture expressive et de prononciation. Ce travail lui permet d’identifier ses propres difficultés et progrès.

Niveau scolaire :
Lycée : 2de

Modalités pédagogiques :
2 heures. En demi-groupe.

Matériel et ressources :
● Tableau de progression (document élève)
● Tablettes numériques ou téléphones mobiles
● IA Google read along
Pour fonctionner correctement, l’application doit accéder au micro du lecteur.

Objectifs pédagogiques :
▶ Utiliser une IA pour s’entraîner à lire à haute voix
▶ Améliorer la prononciation et la fluidité en anglais
▶ Renforcer la compréhension écrite et orale
▶ Développer l’autonomie et la confiance en lecture
▶ Travailler l’écoute active et la collaboration entre pairs

Déroulement de la séance – 2 heures

Étape 1 : Présentation de l’application et démonstration, durée 15 minutes
Le professeur-documentaliste présente Google Read Along (fonctionnement, utilité, objectifs). Démonstration avec un extrait de texte lu à voix haute. Explication du système de reconnaissance vocale et de feedback immédiat (prononciation correcte, mots mal prononcés).

Étape 2 : Choix et lecture individuelle, durée 30 minutes
Chaque élève choisit une histoire adaptée à son niveau dans l’application. Lecture individuelle à voix haute via l’outil. L’élève note les mots difficiles rencontrés sur la fiche de suivi (voir document élève). Il peut réécouter la bonne prononciation et répéter autant que nécessaire.

Étape 3 : Travail sur les points de difficulté, durée 15 minutes
Les élèves repassent sur les phrases ou les mots compliqués. Ils s’entraînent à les répéter jusqu’à amélioration. L’application leur propose un accompagnement vocal (feedback, correction syllabique).

Étape 4 : Travail en binômes, durée 30 minutes
Formation de binômes d’écoute croisée : l’élève lit son texte à un camarade sans support visuel. Le camarade note les points à améliorer : hésitations, erreurs, fluidité. Retour oral et bienveillant du binôme.

Étape 5 : Partage des ressentis et lecture valorisante, durée 30 minutes
Échange collectif sur l’activité : qu’est-ce qui a été difficile ? Quel mot ou quelle phrase a posé problème, et comment l’ai-je surmonté ? Chaque élève lit une phrase difficile qu’il a réussi à mieux prononcer. Les plus confiants peuvent lire une courte histoire à toute la classe pour valoriser leurs progrès.

Document élève :
Dans un tableau, l’élève note les éléments suivants : le titre du texte travaillé, les éventuelles difficultés rencontrées lors des différentes lectures : difficultés de prononciation, mots ou expressions inconnus, erreurs récurrentes, les recherches effectuées pour comprendre le texte, le temps de lecture, les progrès et améliorations observés.

Limites et points d’attention sur l’accompagnement pédagogique :
Les enseignants veillent à ce que les élèves choisissent des textes adaptés à leur niveau. Certains élèves peuvent se sentir mal à l’aise avec la lecture à haute voix : prévoir un environnement calme, ou recourir à de petites salles peut être une solution. Les professeurs veilleront à compléter les retours effectués par l’IA sur la lecture par des conseils humains. Sensibiliser les élèves à ce que l’outil IA est un assistant qui peut faire des erreurs ou standardiser la langue anglaise en privilégiant une certaine prononciation.

Scénario 5

Écrire une lettre de motivation : corrections et reformulations guidées par l’IA – Cécile Heckel

L’IA générative de textes peut permettre aux élèves d’améliorer leurs compétences en termes de production écrite, de vocabulaire, de style, de grammaire, de précision du discours. Dans cet exemple, plusieurs IAG sont utilisées dans le but de corriger et d’améliorer un texte écrit par un élève. Le texte produit est une lettre de motivation dans le cas d’une recherche de stage. L’élève apprend à maîtriser et à respecter les normes et la structure d’une lettre de motivation. Il compare et analyse sa production écrite et les nouveaux textes proposés par les IA. Il affine son propre texte en s’appuyant sur les suggestions des IA.

Niveau scolaire :
Collège : 4e ou 3e

Modalités pédagogiques :
2 heures. En demi-groupe.

Matériel et ressources :
● Degré de prise en compte de l’IA dans la rédaction (document élève)
● Utilisation de postes informatiques
● Traitement de texte
● IA au choix : ChatGPT (OpenAI), Gemini, Copilot (Microsoft) ou Le Chat – Mistral AI

Objectifs pédagogiques :
▶ Développer l’esprit critique face aux productions de textes générés par l’IA
▶ Analyser les différences de style et de cohérence entre un texte rédigé par un humain et un ou plusieurs textes générés par des IA
▶ Comprendre les forces et les limites de l’IA dans la production écrite
▶ Travailler la production écrite et la reformulation
▶ Comparer les suggestions de deux IA différentes

Déroulement de la séance – 2 heures

Étape 1 : Présentation des attendus et exemples de lettres de motivation, durée 20 minutes
Le professeur-documentaliste rappelle le contexte du stage en entreprise. Présentation des éléments obligatoires à insérer dans une lettre de motivation : coordonnées, objet, accroche, connaissance de l’entreprise, valorisation du profil, formule de fin. Lecture et analyse collective de modèles de lettres (bonnes et mauvaises pratiques).

Étape 2 : Rédaction individuelle, durée 25 minutes
Les élèves rédigent leur propre lettre de motivation en s’appuyant sur la structure étudiée. L’enseignant fournit une fiche d’aide à la rédaction (voir document élève).

Étape 3 : Relecture anonyme entre pairs, durée 20 minutes
Les lettres sont échangées. Chaque élève lit la lettre d’un camarade et propose des commentaires de fond et de forme (formulations, clarté, logique, ton, orthographe). Restitution orale collective : mise en commun des remarques fréquentes et des difficultés rencontrées.

Étape 4 : Révision individuelle, durée 15 minutes
Les lettres sont rendues à leur auteur. Chacun les corrige ou complète à partir des retours de son pair et des échanges en groupe. Un temps de réflexion écrit permet d’identifier les difficultés personnelles rencontrées lors de la rédaction.

Étape 5 : Soumission à deux IA, durée 20 minutes
Les élèves soumettent leur lettre à deux IA génératives différentes au choix (ChatGPT, Mistral, Gemini, Copilot…). Ils comparent les suggestions faites par les deux IA. Ils choisissent les modifications pertinentes et justifient par écrit ce qu’ils conservent ou modifient, et pourquoi.

Étape 6 : Finalisation et auto-évaluation, durée 20 minutes
Chaque élève finalise sa version définitive de la lettre. Il répond ensuite à un questionnaire réflexif : Qu’ai-je modifié grâce aux IA ? Les IA ont-elles été utiles ? Quelles suggestions étaient peu pertinentes ? Mon texte est-il plus clair ou convaincant ? Pourquoi ?

Document élève :
Les élèves rendent visibles les différentes étapes de leur travail. Ils listent les différences entre leur texte initial et les versions améliorées. Ils précisent systématiquement le degré de prise en compte des IA : suggestions de correction, orthographe, grammaire, style, fluidité, clarté, reformulation, apport de précisions, réécriture complète…

Limites et points d’attention sur l’accompagnement pédagogique :
Le professeur-documentaliste insistera pour que les élèves justifient leurs choix de suivre ou non les indications d’une IA. Il s’assurera que les élèves comprennent les suggestions proposées et se les approprient. Il insistera pour que toutes les corrections proposées par les IA ne soient pas forcément intégrées car elles peuvent être inadaptées, non pertinentes ou peuvent mériter d’être discutées. Certains élèves pourraient être tentés de déléguer l’écriture à l’IA. L’enseignant questionne les élèves sur la place de la réflexion personnelle dans ce type d’exercice.

Ces scénarios proposent des approches pédagogiques actives et engageantes. Ils s’appuient sur des pratiques traditionnelles et intègrent l’IA de manière à montrer aux élèves comment utiliser et interroger ces outils. L’intégration de l’IA au CDI ne se résume pas à une simple modernisation des pratiques. Elle implique un changement profond dans l’approche pédagogique. Le professeur-documentaliste joue un rôle clé dans cette transition en aidant les élèves à développer leur esprit critique et leur autonomie face aux outils numériques. Des défis subsistent toutefois : Comment former les enseignants à ces nouvelles pratiques ? Quels cadres éthiques mettre en place ? Comment réfléchir avec les élèves au statut légal des textes générés par l’IA ? Qui en est l’auteur ? Quels outils privilégier pour minimiser l’exposition des données personnelles ? Pour aller plus loin, il nous paraît pertinent d’expérimenter ces scénarios et d’autres encore et d’évaluer leur impact sur les apprentissages.

 

 

La place de l’IA dans les bibliothèques

Introduction

La bibliothèque, définie par l’UNESCO comme « un centre d’information de proximité qui met à disposition de ses usagers toutes sortes de savoirs et d’informations » (IFLA-UNESCO, 2022)1 est un espace central dans l’accès à la connaissance dans nos sociétés contemporaines. Elle remplit une mission de service public en favorisant l’appropriation par tous du savoir. Toutefois, cette institution est confrontée à des antagonistes qui la mettent sous tension. Ainsi, le nombre d’ouvrages ne cesse de croître ; le périmètre des bibliothèques s’étend avec l’inclusion de nouveaux documents comme le dépôt légal du numérique2, alors que le nombre de personnels de ces institutions reste, au mieux, constant, voire, diminue ce qui a un impact sur leur capacité à offrir des services de qualité.
Pour gagner en productivité, les bibliothèques nationales investissent de plus en plus dans des solutions technologiques qui sont aujourd’hui regroupées sous le terme d’« intelligence artificielle ». Cette dernière est considérée comme une solution pour améliorer la gestion des données, la recherche et la formation.

Les promesses d’un accès simple à la connaissance via des outils comme ChatGPT (InterCDI, janvier-février 2024, n° 307) s’emparent du monde des bibliothèques où l’algorithme semble devenir une solution pour les aider à mener à bien leurs missions. Qu’en est-il réellement ? Est-ce une tendance aussi récente que cela ? Quels sont les usages qui sont explorés par les grandes bibliothèques en Europe ? Quels enjeux et défis doivent-elles surmonter ?

Pour répondre à ces questions, il est important de comprendre les enjeux et les défis auxquels sont confrontées les bibliothèques dans le contexte de l’évolution des technologies et du changement sociétal. Dans un premier temps, nous remettrons en perspective la nouveauté de l’IA, en lien avec les besoins des bibliothèques, avant de nous centrer plus précisément sur des initiatives récentes avec un focus particulier sur le cas de Gallica. Cela nous permettra d’élargir aux transformations en cours au sein des bibliothèques.

Des systèmes experts à l’IA

L’actualité technologique remet au premier plan des thèmes déjà présents il y a plus de trente ans. À l’époque, si le terme d’intelligence artificielle est présent, c’est plus le concept de système expert que les articles scientifiques traitent. Ces derniers visent à reproduire des mécanismes cognitifs d’experts d’un domaine particulier. Le système se compose d’une base de données, d’une base de règles et d’un moteur d’inférence. Dans les années 1980-90, nous observons déjà un intérêt dans les articles scientifiques pour la classification automatique, l’indexation, mais aussi le traitement des images. Les systèmes experts n’ayant pas donné satisfaction, le terme d’IA a pris le relais ces dernières années avec l’arrivée de l’apprentissage profond (deep learning). La figure 13 illustre le glissement qui s’est progressivement opéré.
Nous avons réalisé une recherche sur le nombre d’articles présents sur la base de données Web of Science. Nous avons utilisé les requêtes « expert systems AND libraries » et « artificial intelligence AND libraries » avec une recherche dans le titre des articles indexés.

Figure 1 : Évolution de l’usage des termes système expert et IA dans le contexte d’articles scientifiques concernant les bibliothèques

Les résultats mettent en évidence une décroissance nette des systèmes experts à partir du début des années 2000 et un intérêt grandissant pour l’IA à partir de 2019. Les thématiques associées – notamment l’amélioration de la recherche, l’indexation et le catalogage automatiques et, plus généralement, la transformation de la bibliothèque – restent toutefois les mêmes.

Sous l’appellation IA règne un flou artistique comme nous le verrons dans notre tour d’horizon des projets au sein des bibliothèques nationales en Europe. Dans les projets étudiés, nous retrouvons régulièrement l’usage de la reconnaissance optique de caractères (ROC ou Optical Caracter Recognition – OCR- en anglais), la reconnaissance de textes manuscrits (Handwritten Text Recognition ou HTR), la fouille de données ou d’images, mais aussi la génération de métadonnées ou l’aide au catalogage/indexation.

Tour d’horizon des projets d’IA

Dans cet article, nous nous appuyons sur le projet LibrarIn4 en cours (2022-2025), pour appréhender la ou les manière(s) dont les bibliothèques nationales déploient actuellement des solutions dites d’intelligence artificielle pour répondre à leurs besoins. LibrarIn se concentre sur la co-création de valeur entre usagers et bibliothèques, par l’intermédiaire notamment des services proposés. Trois dimensions de la valeur sont analysées dans ce cadre : sa nature et ses caractéristiques, ses modes d’organisation et d’implémentation et ses impacts.
Au sein du consortium de recherche, une tâche spécifique s’intéresse à la transformation numérique des bibliothèques. Pour répondre à nos questions de recherche, nous avons identifié les bibliothèques et les expérimentations suivantes (organisées par date de lancement) :

Tableau 1 : Présentation des terrains étudiés dans le cadre de LibrarIn

Pour chaque bibliothèque, une étude de cas est en cours avec des entretiens qualitatifs et une analyse documentaire. Ainsi, 70 entretiens ont été réalisés en 2024. Nous avons pu échanger aussi bien avec les chefs de projets qu’avec des acteurs plus politiques, mais aussi des représentants d’usagers. Nous nous sommes intéressés à l’impact de la transformation numérique, en particulier à la vague dite d’intelligence artificielle, le tout dans une perspective de co-création entre l’établissement public et ses usagers. Notre objectif étant de mettre en lumière les processus à l’œuvre et ses effets sur les services rendus.
Il est intéressant de noter que la BnF ou la bibliothèque nationale de Finlande ont lancé depuis de nombreuses années des expérimentations. Elles sont alors en mesure de diffuser le résultat de leurs travaux de recherche et développement (R&D) qui répondent à des besoins spécifiques. C’est dans cette logique que la BnF pilote le groupe de travail sur l’IA en bibliothèque au sein de la Conference of European National Librarians (CENL)5. Consciente des enjeux, la BnF a d’ailleurs déployé une feuille de route de l’IA qui couvre la période 2021 à 20266. Au sein de celle-ci, nous retrouvons les mêmes besoins (aide au catalogage et signalement ; gestion des collections ; exploration, analyse des collections et amélioration de l’accès ; médiation, valorisation et éditorialisation des collections et aide à la décision et au pilotage) que ceux auxquels les autres bibliothèques souhaitent répondre :

Figure 2 : Feuille de route IA de la BnF, pour en savoir plus, vous pouvez contacter ia@bnf.fr

Ces cinq grands domaines se retrouvent dans le tableau 1. Les projets présentés soulignent les besoins des bibliothèques pour mener à bien des missions relatives à :
• L’accessibilité des collections. Pour cela, elles mettent en place des dispositifs visant à rendre accessibles des documents non exploitables informatiquement préalablement (en particulier des fichiers numérisés dans un format image) ou des documents manuscrits qui sont difficiles à traiter par ordinateur.
• L’évolution des processus internes, en particulier des solutions sont déployées à la fois pour mettre en place de la maintenance prédictive (l’objectif étant de savoir quel ouvrage a besoin d’être entretenu/réparé pour assurer sa préservation) ou pour aider à optimiser le rangement et l’organisation des magasins.
La feuille de route évoque à plusieurs reprises Gallica sur lequel nous allons nous attarder plus précisément.

Le cas de Gallica à la BnF

Fer de lance de la BnF pour les questions de l’IA, la bibliothèque numérique Gallica, lancée en 1997 a pour mission de rendre accessibles les ressources patrimoniales de la BnF. Les défis technologiques ont fait prendre à Gallica une importance croissante et en font un terrain d’expérimentation. Ainsi, Jean-Philippe Moreux, expert IA à la BnF, a schématisé de la façon suivante l’évolution de Gallica :

Figure 3 : Historique du projet Gallica, J.P. Moreux (2022)

Nous pouvons observer l’importance des collaborations avec des acteurs externes, en particulier dans des contextes de projets européens. Ces échanges sont cruciaux pour la BnF, à la fois pour bénéficier de fonds nécessaires à ses travaux de R&D, mais aussi pour obtenir les compétences clés afin de les mettre en œuvre. Dans son schéma, Jean-Philippe Moreux distingue les projets : ceux centrés sur l’analyse/fouille d’images et ceux consacrés à l’enrichissement des documents (pour favoriser la fouille de données). Les innovations sont progressives même si une difficulté majeure reste l’intégration des prototypes développés (comme GallicaPix) dans le système opérationnel (ici Gallica) et la gestion de la mise à l’échelle de l’outil7. L’objectif de toutes ces expérimentations est de renforcer l’accessibilité des collections nationales et les usages associés.

En parallèle, un travail conjoint est réalisé avec des bibliothèques partenaires qui coopèrent avec la BnF pour mettre en ligne leurs collections à la fois dans leurs espaces et dans Gallica. Ce sont quasiment 300 bibliothèques qui utilisent Gallica en marque blanche à l’image de la Bibliothèque nationale et universitaire (BNU) de Strasbourg qui propose un accès à une bibliothèque numérique Numistral8 basée sur Gallica.

Transformations en cours, quel(s) avenir(s) pour l’IA dans les bibliothèques ?

Les bibliothèques font face à de nombreux défis dans ce contexte. Si l’usage de ces technologies est de plus en plus accepté en interne, les besoins en compétences de pointe explosent. Pour y répondre, ces institutions qui, certes, accueillent de nouveaux métiers en se dotant de structures (comme le dataLab9 de la BnF) en leur sein, reposent principalement sur des partenariats avec des laboratoires de recherche (l’INRIA par exemple) ou des contrats de prestations auprès de sociétés de services ou de conseils.
Dans un contexte de restriction budgétaire, les projets relatifs à l’IA en bibliothèque demandent d’importants financements pour être menés à bien. Si des institutions, comme la BnF, arrivent encore à mobiliser des budgets propres pour certaines expérimentations, pour les industrialiser, les bibliothèques répondent de plus en plus à des appels à projets (notamment européens) ou à des partenariats avec des acteurs privés. Une difficulté rencontrée est celle de l’évaluation des projets d’IA. Peu d’entre elles mettent en œuvre une évaluation des impacts de leurs projets et donc sont capables de justifier les retombées concrètes associées.

Les bibliothèques, dont les missions fondamentales sont de plus en plus concurrencées par des acteurs privés s’inscrivant dans une logique d’extraction de la connaissance et d’accessibilité à celle-ci sont dans le même temps une source précieuse pour les acteurs du numérique. Nous pouvons noter un appétit croissant des géants du numérique pour les données structurées qu’elles produisent10. Leurs grandes quantités de données font de celles-ci une source intéressante pour un acteur qui souhaite entraîner un modèle informatique aussi bien sur du texte que sur des images. Elles sont alors de plus en plus sollicitées – parfois prédatées de manière sauvage lors de la phase d’entraînement des algorithmes11– par des entreprises pour mettre à disposition leurs collections pour l’entraînement d’algorithmes.

Avec la pression croissante des grandes entreprises du numérique, des États, mais aussi des contextes budgétaires contraints, se pose in fine la question de la place des bibliothèques et de leur positionnement dans le monde qui se dessine. De nouveaux espaces se construisent, ainsi la CENL permet à ses membres d’échanger dans un contexte européen. Une série de webinaires est actuellement proposée par l’organisation afin de diffuser le plus largement possible leurs avancées12. En parallèle, des collectifs se construisent comme AI4LAM (intelligence artificielle pour les bibliothèques, archives et musées) qui visent à mettre en relation les acteurs du secteur et à partager les bonnes pratiques, les projets en cours et toutes les questions que peuvent se poser les parties prenantes.
Nous pouvons noter aussi de plus en plus de ressources partagées par les bibliothèques pour s’aider mutuellement dans cet environnement mouvant. Ainsi, par rapport à un enjeu de taille qu’est l’évaluation de la sécurité du dispositif mis en place, la Library of Congress met à disposition sa grille d’évaluation des projets.

Pour résumer, à travers cet article, nous avons pu souligner des usages de technologies « intelligentes » que ce soit par la mise en place d’outils pour de la reconnaissance de caractères, dactylographiés ou manuscrits, de l’aide à l’indexation ou au catalogage, ou plus largement à l’accessibilité des collections. Des utilisations moins visibles sont aussi présentes, comme la maintenance prédictive, pour anticiper quel ouvrage restaurer, mais aussi pour optimiser l’organisation ou le stockage des collections. Ces usages croissants sont favorisés par les injonctions des tutelles politiques de réduire les coûts de fonctionnement de ces administrations publiques. Les bibliothèques se trouvent alors sur une ligne de crête où elles doivent trouver un équilibre entre leur mission fondamentale et les besoins des utilisateurs tout en tenant compte des logiques inhérentes à l’activité commerciale de certains partenaires privés.
Il nous semble alors que les réponses qui sont en train de se construire auront des conséquences importantes pour l’ensemble de l’écosystème (que ce soit les bibliothèques municipales ou associatives, ou encore les CDI) aussi bien en termes de financement qu’en termes de compétences tant pour les professionnels que pour les usagers. En effet, les nouveaux usages qui se développent s’accompagnent d’un besoin de formation et surtout du renforcement d’une littératie informationnelle afin d’avoir une réflexion sur les outils dits d’intelligence artificielle et sur leurs usages.

 

 

Au cœur de l’intelligence artificielle. Des algorithmes à l’IA Forte d’Axel Cypel

Le livre d’Axel Cypel Au cœur de l’intelligence artificielle. Des algorithmes à l’IA forte offre, en 480 pages, une exploration du monde complexe et en constante évolution de l’intelligence artificielle (IA). Axel Cypel est ingénieur diplômé de l’École des Mines de Paris, spécialiste de la gestion de projets et de Data science. Auteur et conférencier, il est aussi enseignant à l’École Aivancity1. Il exerce actuellement au sein d’un groupe bancaire différentes fonctions de transformations techniques et organisationnelles axées sur les projets d’IA.

Au cœur de l’intelligence artificielle n’est pas un ouvrage de vulgarisation scientifique à proprement parler, il s’agit d’un ouvrage repère qui présente de manière critique l’IA, son fonctionnement, ses forces et ses dangers, en appui sur des arguments scientifiques. Comme le sous-titre l’indique, Des algorithmes à l’IA forte, Axel Cypel commence par introduire les bases des algorithmes, de manière à permettre une compréhension optimale de la façon dont l’IA émerge à partir de ces éléments fondamentaux. L’auteur s’attache à détailler les différences entre la science (informatique et mathématique) et ce que la presse ou certains auteurs nous expliquent de l’IA.

Quatre parties, très progressives, structurent la réflexion.

La première partie « Expliquer l’IA » (p. 11-136) est organisée autour d’une présentation générale de différents concepts : l’IA, le Machine Learning, la Data science, la pensée computationnelle et l’apprentissage machine.
L’IA, selon l’auteur, vise à donner des « capacités cognitives à la machine, résoudre des problèmes complexes » et plus précisément à lui conférer « des facultés de perception, d’apprentissage, de raisonnement, de décision et de dialogue » (p. 14). Ainsi dotées de fonctions cognitives, les machines pourront se substituer, dans certains cas, aux prises de décisions des individus. Pour son fonctionnement, l’IA (combinaison entre les mathématiques et l’informatique) nécessite une grande masse de données (data).
Les algorithmes, terme largement utilisé par les médias sans être systématiquement explicité, sont définis comme une séquence d’instruction implémentée sur un ordinateur : ils transcrivent « informatiquement des méthodes mathématiques pour parvenir à créer une modélisation d’un phénomène à partir de données ». Quant à l’IA « forte », elle est présentée comme un modèle prédictif, supervisé, souvent décrit à l’aide de formules mathématiques, qui a pour caractéristiques de déléguer à des machines une partie des capacités humaines pour prendre des décisions, pour se substituer aux choix humains.
L’auteur préfère la rigueur mathématique aux envolées journalistiques. Il désapprouve les rapprochements que l’on peut faire entre l’IA et l’intelligence humaine. On en revient toujours, selon lui, à l’expertise humaine ; il n’y a pas d’autonomie des machines. Et il pointe « un discours largement plus pervers et bien plus commun : celui qui consiste à proclamer la neutralité des machines, sous couvert de froide application de la mathématique, leur conférant l’absence de sentiments. On voit clairement qu’il n’en est rien. La machine est aussi neutre que son concepteur, à savoir celui qui a déterminé le critère à appliquer. » (p. 132).
L’intelligence artificielle, comme tout algorithme d’apprentissage machine, est une technique d’optimisation. La nouveauté ne vient, en fait, précise-t-il « que de la capacité de calcul informatique qui de nos jours permet de traiter des problèmes d’optimisation en peu de temps, autorisant des applications concrètes ». Et il conclut qu’il n’y a pas d’outil magique pour capturer un réseau de neurones : « On en revient donc toujours plus ou moins à l’expertise humaine qui va indiquer les bons descripteurs à utiliser et, à tout le moins, labelliser une base d’apprentissage. Et cela porte un nom : l’artisanat… Il ne sera pas possible d’automatiser la recherche des réponses aux problèmes. » (p. 135)

Dans la deuxième partie (p. 137-236), l’auteur développe les « Limites techniques des approches ». L’expression « infirmités de l’IA » est utilisée pour caractériser ces limites qui sont déclinées en petits et grands théorèmes de limitation : à savoir les biais, les boîtes noires, les rêves d’une machine auto-apprenante…
Dans le chapitre sur les petits théorèmes de limitation, l’auteur explique notamment la notion de corrélation (« deux séries de données sont apparemment corrélées sans qu’il y ait de raison logique »). Il souligne, entre autres, que beaucoup de corrélations n’ont aucun sens et qu’il ne suffit pas de disposer d’une grande quantité d’informations pour avoir une grande quantité de connaissances, il existe des corrélations fallacieuses. La Data science reste « une affaire de spécialistes ». Le problème n’est pas de traiter toutes les informations, ce qui serait illusoire, mais de faire « ressortir la bonne » : « Or la bonne, comme la vraie, est une notion sémantique et nécessite donc une interprétation.» (p. 204)
Dans le chapitre sur les grands théorèmes de limitation – un atout de cet ouvrage savant – l’auteur, sans trop rentrer dans des développements et formulations mathématiques, présente comment un modèle peut s’écarter de la réalité par la représentation qu’il propose. Il n’est pas possible, avance-t-il en conclusion, « d’éliminer le doute, de remplacer la confiance » : « La certitude n’existe pas plus en mathématiques qu’en tout autre activité humaine. »

La troisième partie (p. 237-310) est consacrée à la dimension socio-économique du numérique et notamment à l’école. L’auteur traite de sujets variés « autour de l’IA », comme le transhumanisme, les GAFAM, le Bitcoin, la Blockchain. Il propose une réflexion scientifique sur de nombreux thèmes d’actualité, avec des critiques virulentes de certains ouvrages abordant ces mêmes sujets.
« Le transhumanisme est un obscurantisme » selon lui, et à l’occasion il procède à une critique appuyée du livre La guerre des intelligences de Laurent Alexandre, pour sa vision animiste « de l’intelligence artificielle et […] les craintes qui en découlent », lui reprochant de « se complaire dans l’approximation et la simplification à outrance [faisant] d’un discours potentiellement profond un modèle de raisonnement spécieux ». Et il développe des arguments en faveur d’une intelligence artificielle « outil », dénuée de conscience, au service des utilisateurs.
Le chapitre suivant aborde l’omniprésent sujet du monopole des GAFAM, qualifiées de « technologies numériques de désintermédiation ». Les GAFAM se positionnent « comme une fine couche sur les producteurs (où sont les coûts) pour toucher la multitude des gens (où est l’argent)2 ». Ce qui illustre fort à propos le monde contemporain où Airbnb, Amazon, et Google, pour n’en citer que quelques-uns, prospèrent à la faveur, selon lui « de la nullité de leurs concurrents » alors que la réalité est bien plus compliquée. Et d’ajouter que l’efficacité des GAFAM « provient d’une sorte de fantasmagorie selon laquelle une requête sur Internet donne l’ensemble des actions possibles pour un souhait donné » (p. 271).
Un chapitre sur « l’argent technologique », Bitcoin et autres monnaies scripturales complète la réflexion en développant les usages de l’IA dans ces domaines. La technologie Blockchain est alors présentée qui suscite l’intérêt des entreprises et des chercheurs.

Dans la dernière partie (p. 311-445), Axel Cypel ouvre le débat sur « L’IA et le sens du progrès » : danger, éthique et conscience d’une IA forte.
Il revient alors sur l’intelligence artificielle, avec le traitement automatique du langage et notamment la génération de textes (Natural Language Generation) à partir d’une grande masse de données. Il développe ce thème à partir d’exemples précis, comme la catégorisation des mails, ou la création d’un moteur de recherche. Cette partie, assez technique, peut intéresser les professeurs documentalistes par les thématiques traitées, comme l’indexation d’un corpus documentaire, ou la réalisation d’un chatbot, défini comme « un programme informatique donnant l’illusion de comprendre vos requêtes et de pouvoir dialoguer avec vous pour y répondre ». Ce qui l’amène à s’interroger sur la place de l’intelligence artificielle dans ce cadre : « L’intelligence artificielle se situe uniquement dans le moteur de langage naturel, et encore, seulement s’il est construit à partir de Machine Learning. »
L’ouvrage se termine sur les dangers de l’intelligence artificielle, mettant en garde contre tous les thuriféraires du progrès. Il cite en particulier des passages du livre de Luc Ferry La révolution transhumaniste : « On n’y peut rien, nous autres pauvres humains ça se fait à notre insu et c’est gouverné par une force supérieure qui s’appelle la compétition internationale ». L’auteur liste alors toutes les menaces possibles (reconnaissance faciale, résurgence de la guerre froide entre États-Unis et Chine pour financer les meilleurs logiciels, normes européennes et mondiales, réglementations…), sans vraiment développer l’une d’entre elles, mais en s’appuyant sur des ouvrages qui vont traiter le problème, et finalement sans conclure à ce niveau sur un véritable danger de l’IA (mais qui peut savoir ?). Le propos n’est pas inintéressant, c’est l’honnête citoyen qui s’interroge : « La science doit servir et non pas asservir. Son usage à grande échelle, via la transmission radio les algorithmes de Big Data, tend à assigner aux personnes une place prédéterminée » (p. 418).
La question est ensuite posée du bon usage de l’intelligence artificielle, et de l’importance d’une « réflexion éthique » portant « naturellement » sur la définition de ce « bon usage » : une question à laquelle il n’est pas simple d’apporter une réponse car plus le modèle est complexe, plus il est difficile de comprendre la complexité algorithmique.
Le dernier chapitre se termine sur la « Conscience (artificielle), intelligence artificielle forte ». L’intelligence artificielle y est définie de manière plus littéraire que technique, et plusieurs arguments sont développés, concluant sur l’impossibilité d’une intelligence artificielle consciente.

En conclusion avec Au cœur de l’intelligence artificielle, Axel Cypel réussit à rendre des concepts souvent abstraits accessibles même pour les lecteurs peu avertis. L’utilisation d’exemples concrets et d’analogies pertinentes contribue à rendre le sujet moins intimidant et l’approche critique retenue à captiver l’intérêt du lecteur.
L’ouvrage est intéressant, notamment dans ses (premières) parties à dominante technique, et sans trop de formules mathématiques. Les chapitres qui ouvrent des perspectives sur des questions de société pourront être approfondis par la lecture de son dernier ouvrage Voyage au bout de l’IA : ce qu’il faut savoir sur l’intelligence artificielle, récemment publié chez De Boeck supérieur (octobre 2023).
La force du livre est que l’auteur ne se limite pas aux algorithmes de base mais qu’il explore également le concept d’IA forte. Cette extension vers des sujets plus avancés offre une perspective sur le sujet. Il est important de noter cependant que la complexité de certains concepts peut nécessiter une concentration plus approfondie et des prérequis de la part du lecteur.
Un autre intérêt du livre réside dans sa capacité à aborder les implications éthiques de l’IA. Axel Cypel soulève des questions cruciales sur l’éthique et la responsabilité dans le développement de cette technologie. Cela ajoute une dimension critique à la discussion et invite à réfléchir sur les implications à long terme de l’IA.
Au cœur de l’intelligence artificielle d’Axel Cypel constitue ainsi une introduction solide à l’IA, tout en suscitant une réflexion sur les enjeux éthiques et sociaux liés à cette technologie en rapide évolution. Il a, à ce titre, toute sa place dans un CDI, en tant qu’ouvrage ressource pour les enseignants.

 

 

 

Cypel, Axel. Au cœur de l’intelligence artificielle. Des algorithmes à l’IA Forte. Bruxelles : De Boeck Supérieur, 2020. 480 pages. 24,90 euros.

 

ChatGPT : l’IA qui fascine mais qui inquiète tout autant

La version gratuite de ChatGPT 3 défraie la chronique depuis près d’un an. Cette IA conversationnelle interroge et interpelle toute personne qui essaie de communiquer avec elle. Il est important de la tester car cela permet de constater qu’elle répond aux questions de manière relativement claire et rapide. De prime abord, les capacités de l’IA semblent impressionnantes. 

 

Vous pouvez tester la version gratuite de cette intelligence artificielle conversationnelle, en vous connectant et en vous inscrivant sur le site d’OpenAI https://chat.openai.com/auth/login. Vous pouvez tout d’abord commencer par discuter avec elle, l’interroger sur un sujet que vous connaissez bien, comme par exemple « la vérification des sources », pour constater la pertinence et la cohérence de ses réponses et de sa manière de communiquer. Si vous prenez ensuite un peu de recul, vous pouvez réfléchir à l’usage pertinent que vous pouvez faire de cet outil. Peut-être aurez-vous envie de vous améliorer en anglais et donc de pouvoir discuter en anglais avec ChatGPT et d’être corrigé par ce dernier si vous faites des erreurs. Vous pouvez dès lors créer un « prompt1 » (commande en langage naturel), et faire de ChatGPT votre « professeur d’anglais personnalisé ». Ainsi, lorsque vous lui parlerez en anglais, il corrigera d’abord vos erreurs, puis vous donnera la règle grammaticale associée et enfin vous proposera un « trick » (aide-mémoire) pour que vous ne fassiez plus la même erreur. Les capacités de cette IA sont surprenantes, oui, mais aussi inquiétantes car l’on peut aisément se questionner sur les conséquences de cette invention technologique, surtout quand elle est accessible à tous.

ChatGPT un modèle de langage développé par OpenAI

GPT (Generative Pre-trained Transformer) est une famille de modèles de langage développé par OpenAI, une entreprise spécialisée en intelligence artificielle (IA) basée à San Francisco. ChatGPT s’appuie sur GPT 3.5 dans sa version gratuite et accessible à tous et sur le dernier modèle GPT 4 pour sa version payante aux performances encore plus remarquables. Les modèles de la famille GPT utilisent l’apprentissage automatique pour générer du texte en se basant sur des milliards de séquences de mots provenant de différentes sources en ligne. Ils sont entraînés sur de vastes ensembles de données textuelles, ce qui leur permet de générer des réponses cohérentes et pertinentes aux requêtes de l’utilisateur. Ces modèles sont ensuite entraînés spécifiquement pour suivre des instructions et produire du texte au contenu acceptable, ce qui leur permet d’être utilisés par le plus grand nombre dans la version conversationnelle de ChatGPT. ChatGPT est donc un chatbot dont le moteur est un modèle GPT.

ChatGPT est souvent utilisé dans des chatbots et des applications de messagerie instantanée, fournissant ainsi une meilleure expérience utilisateur, plus personnalisée et plus efficace. Il peut également être utilisé pour traduire automatiquement des textes dans différentes langues, rédiger des contenus pour des sites web, blogs et autres. Enfin, il est utilisé aussi pour générer des textes à partir de quelques mots-clés donnés en entrée.

Si cette IA plait autant aux utilisateurs (entreprises et internautes), c’est qu’elle permet d’améliorer l’efficacité et l’expérience utilisateur en s’adaptant aux préférences et au langage de celui-ci, tout en répondant de manière instantanée et précise à ses questions.

 

ChatGPT, un modèle de langage basé sur la prédiction

Il faut rappeler, tout d’abord, que ChatGPT est un « large langage model » (grand modèle de langage) qui a été entraîné sur des données ne dépassant pas 2021 et qu’il n’est pas connecté à Internet.

Le modèle qui sert de fondement à ChatGPT est similaire à celui utilisé par le correcteur automatique dans les smartphones pour compléter les messages. Ce correcteur y parvient grâce à un algorithme qui essaie de prédire, à partir des mots écrits, quels sont les prochains mots les plus probables dans la phrase. Les modèles de langage comme ChatGPT ont le même objectif : prédire la suite logique mais de manière beaucoup plus efficace parce qu’ils ont été entraînés sur beaucoup plus de données. De plus, le modèle de ChatGPT dispose de 175 milliards de paramètres pour la version ChatGPT 3.52 (cent fois plus que la version précédente GPT 2), qui lui permettent d’ajuster ses performances pour fournir des résultats plus précis. Il est important de noter que les textes générés par ChatGPT ressembleront à ceux que les ingénieurs lui ont donné en apprentissage lors de son entraînement.

Pour améliorer davantage les performances de ChatGPT, les ingénieurs ont ensuite « fine-tuné » leur modèle, c’est-à-dire affiné ses paramètres. Pour cela, ils ont utilisé des « feed-back » humains, autrement dit des retours d’utilisateurs, pour trier et organiser les réponses en fonction de leur pertinence. Ce processus a permis à ChatGPT de proposer des réponses plus pertinentes, en conformité avec les consensus scientifiques et moraux. Pour transformer ce modèle en chatbot, il a ensuite fallu lui donner une mise en scène lui permettant de répondre aux questions de manière plus « humaine ».

Toutefois, il n’est pas toujours fiable car son objectif est de produire des textes crédibles et non pas véridiques. Il peut donc lui arriver d’avoir une « hallucination » et d’aller jusqu’à inventer des réponses, des références d’articles ou d’auteurs. Les hallucinations sont définies par Keivan Farzaneth, conseiller pédagogique principal en intelligence artificielle au collège Sainte-Anne, comme étant le moment où l’IA « interprète ou génère des informations qui ne sont pas exactes. Par exemple, une IA pourrait générer une réponse qui n’a pas de sens ou qui est complètement hors contexte, ou alors, elle pourrait penser qu’elle a identifié un chat dans une image alors qu’il n’y en a pas ». (Farzaneh, Glossaire, dernière modification 14 août 20233.) Attention donc, ChatGPT ne peut pas remplacer les recherches sur les moteurs de recherche classiques car il n’effectue aucune recherche dans une base de données lorsqu’il répond à une question : ChatGPT produit uniquement le texte le plus cohérent possible à partir du texte qu’il a obtenu en entrée, pas le plus fiable. C’est ce que souligne également Laure Soulier, maîtresse de conférences en informatique dans l’équipe Machine learning for information access de l’Institut des Systèmes Intelligents et de Robotique (ISIR) :

« Il écrit des réponses plausibles qui nous semblent cohérentes, mais qui peuvent en réalité se révéler inexactes ou trompeuses. L’entraînement basé sur l’apprentissage par renforcement ne contraint pas le modèle à générer des informations véridiques et sa connaissance du monde est limitée aux données qu’on lui a fournies lors de l’entraînement. N’étant pas pour le moment connecté au web, le ChatGPT n’a pas accès aux nouvelles informations publiées4. »

Il faut alors vérifier systématiquement les informations qu’il donne car, s’il fournit des réponses très vraisemblables, celles-ci ne sont fondées sur aucune source concrète.

En effet, certains de ses usages aujourd’hui répandus, notamment la republication directe sur d’autres supports de textes issus de ChatGPT, remettent en question la possibilité de vérifier les sources et les informations, soulevant ainsi des interrogations sur la fiabilité et l’authenticité des informations, ainsi que sur l’impact de l’IA sur la capacité à distinguer la vérité de la fiction. Même si certains outils ont été développés pour tenter de pallier ce problème, il est évident que l’une des clés essentielles pour résoudre ce défi sera la formation et l’éducation des utilisateurs aux bonnes pratiques d’utilisation de cette nouvelle technologie.

 

L’intelligence artificielle et l’information

Comment, dans ce contexte d’incertitude autour des sources et d’instabilité du document, le professeur documentaliste peut-il permettre à tous les élèves d’acquérir une culture de l’information et des médias, sachant qu’avec l’avènement de l’IA, il devient de plus en plus difficile de vérifier la véracité des informations que l’on peut trouver sur Internet ?

L’un des exemples les plus flagrants et actuels concernant la vérification des informations générées par l’IA est celui des images, créées par l’IA Midjourney, représentant Emmanuel Macron assis sur des poubelles près de la Tour Eiffel ou fuyant des policiers en pleine rue ou encore portant le gilet orange des éboueurs. Ces images sont des exemples frappants de ce phénomène car elles ne sont pas des montages mais bien des créations d’intelligence artificielle qui s’inspirent du style vestimentaire d’Emmanuel Macron, de ses expressions et de ses bijoux. Elles sont si réalistes qu’elles remettent en question la capacité à distinguer la vérité de la fiction ou à repérer les fausses informations. Les deep fakes ont déjà posé la question de la véracité des vidéos, car elles permettent de remplacer le visage d’une personne par un autre et de changer ses propos de manière très réaliste. Avec l’IA, il sera de plus en plus difficile de vérifier l’authenticité d’une information, même s’il s’agit d’une photographie ou d’une vidéo.
Concernant la création de contenus textuels, ChatGPT 3 et sa version plus récente ChatGPT 4 ne sont pas en reste dans l’élaboration de fausses informations ! En effet, ces deux IA sont incapables, pour le moment, de garantir la fiabilité des informations qu’elles donnent et d’en donner les sources.

D’une part, lorsque ChatGPT est utilisé comme moteur de recherche, alors que ce n’est pas sa vocation, il n’est pas possible de garantir la véracité des informations fournies. À aucun moment cette IA n’effectue une recherche d’informations. Si, par exemple, on lui demande de rédiger la biographie de Descartes, le contenu qu’elle fournira sera vraisemblable et une partie sera probablement juste, mais il est possible que des erreurs ou des inexactitudes se glissent dans ses propos. Ainsi, ChatGPT pourrait affirmer que Descartes a effectué un séjour en Amérique du Sud, alors que cette information est fausse. Le problème est que ce genre d’erreur n’est perceptible que par des personnes qui connaissent déjà bien le sujet et ici, en l’occurrence, la vie de Descartes. Il est donc essentiel d’expliquer le fonctionnement de cette IA à tous les utilisateurs pour ne pas tomber dans l’illusion que nous avons affaire à une incroyable encyclopédie capable de répondre à toutes nos questions en un clin d’œil.
D’autre part, ChatGPT peut être utilisé de manière malveillante pour créer sciemment de fausses informations ou pour influencer et manipuler des utilisateurs. Un générateur de texte qui semble très vraisemblable et convaincant peut être utilisé à mauvais escient et malheureusement les garde-fous d’OpenAI ne sont pas infaillibles. Des personnes malintentionnées peuvent ainsi utiliser ce chatbot pour produire des codes malveillants, créer de faux profils de rencontre, réaliser des arnaques plus crédibles ou mener des campagnes d’hameçonnage. Lorsqu’on essaie par exemple de demander à ChatGPT de créer un mail de phishing, l’IA s’excusera d’abord de ne pas pouvoir satisfaire notre requête :

« Je suis désolé, mais en tant qu’agent d’IA, je ne peux pas écrire un email de phishing. La création et la distribution de courriels de phishing sont des actes malveillants et illégaux, qui peuvent causer des dommages importants aux victimes.
Au lieu de cela, je vous recommande de rester vigilant et de ne jamais divulguer vos informations personnelles […].
Il est important de signaler tout courriel de phishing suspect aux autorités compétentes […]5. »

Cependant, en insistant un peu, il est malheureusement possible de contourner les restrictions de ChatGPT afin d’obtenir le résultat demandé. Il est également possible de simuler une conversation avec un ChatGPT « nazi » ou « raciste » en lui donnant des instructions différentes ou en lui demandant de jouer un rôle spécifique dans un « jeu de rôle » ou dans un scénario de film.
Selon une étude menée par NewsGuard, une start-up fondée en 2018 aux États-Unis lors de l’explosion des fake news partagées sur les réseaux sociaux au moment de l’élection présidentielle de 2016 et spécialisée dans l’évaluation de la crédibilité des sites web d’actualités et de médias, la dernière version de ChatGPT, ChatGPT 4, est moins fiable que sa version précédente dès lors qu’on le questionne sur des thèses complotistes. NewsGuard a effectué des tests sur les propos de l’IA qui pouvaient alimenter des sujets complotistes. Ainsi dans « 80 % des cas, le robot d’intelligence artificielle (IA) ChatGPT a relayé des affirmations fausses et trompeuses lorsque nous lui avons posé des questions orientées sur des sujets d’actualité importants » (Brewster, Arvanitis & Sadeghi, 20236). Cette capacité de l’IA à produire des textes vraisemblables mais non véridiques souligne la nécessité d’être vigilant quant à l’utilisation de ChatGPT. En effet, le chatbot peut être utilisé pour désinformer ou alimenter des récits complotistes de manière très convaincante, surtout si on lui demande de prendre le point de vue de quelqu’un qui adhère à des théories du complot.

Dès lors, comment lutter contre les fausses informations créées par les intelligences artificielles et relayées sur Internet ? Comment s’assurer que chacun dispose des clefs pour détecter le vrai du faux ?
Des outils numériques commencent à être développés pour répondre à ces problématiques. Par exemple, en 2020, Microsoft a créé une IA appelée Video Authenticator, capable de détecter les fausses vidéos ou images. Une autre solution serait de mettre en place un système de certification des contenus publiés, par l’ajout d’un patch ou d’un élément visible pour authentifier leur véracité. Cependant, ces solutions ne sont pas encore généralisées et présentent encore des failles car elles ne permettent pas de détecter toutes les fausses informations. La question de la véracité de l’information est plus que jamais d’actualité et les professionnels de l’information et des médias doivent s’adapter à ces nouvelles réalités. Les cours d’EMI dispensés par les professeurs documentalistes sont donc essentiels pour agir contre les fake news, en formant les élèves à un usage réfléchi de ces outils.

 

ChatGPT dans l’enseignement

Au premier abord, les usages de chatGPT questionnent beaucoup et inquiètent de nombreux enseignants. En effet, il est assez facile de trouver sur Internet, à la radio ou autour de nous, des témoignages d’étudiants et d’élèves confiant qu’ils utilisent ChatGPT pour gagner du temps. L’IA leur permet par exemple de résumer un livre, formuler un plan de dissertation ou traduire un texte en quelques instants. La démocratisation de l’utilisation de ce genre d’IA interroge dès lors les méthodes d’enseignements et d’apprentissages.
ChatGPT 3 peut notamment remettre en question les devoirs à la maison car rien n’empêche les élèves d’utiliser ce chatbot pour réaliser une dissertation ou un écrit d’invention, les intelligences artificielles conversationnelles générant des textes dans un français presque parfait. Les élèves peuvent très facilement poser une question à l’IA et copier-coller l’information ou le texte donné sans citer leur source (ici ChatGPT 3). Un tel usage s’apparente non seulement à du plagiat, comme l’indique Keivan Farzaneh sur son site L’intelligence artificielle en éducation (rubrique Introduction au plagiat, 2023), mais, plus encore, les élèves utilisant ainsi cet outil ne font pas eux-mêmes le travail demandé et par conséquent n’apprendront rien de cet exercice. Il ne paraît donc plus possible de donner ce genre de devoir sauf si le sujet est d’actualité (dépassant 2021) ou s’il est suffisamment complexe pour que l’IA ne sache pas le traiter correctement. Pour minimiser les risques de plagiat (copier-coller d’un texte généré par une IA conversationnelle), les exercices de rédaction de textes devront sans doute se faire en classe plutôt qu’à la maison. Keivan Farzaneh ajoute également : « Si la rédaction se fait sur un support numérique, il est important de se promener régulièrement en classe, et lorsque possible, d’orienter les appareils des élèves dans une même direction afin d’avoir une vue d’ensemble de la classe plus facilement. » (rubrique Minimiser les risques de plagiat, 20237) Les enseignants vont devoir repenser les sujets, privilégier des études de cas ou des analyses de documents par exemple. L’arrivée de cette nouvelle technologie les encouragera peut-être à se tourner davantage vers l’expression orale, obligeant ainsi les élèves à réfléchir par eux-mêmes. Il faudra également insister sur l’illégalité et les conséquences du plagiat, même si le texte a été généré par un robot et que les élèves ne se rendent pas toujours compte que ce robot en est la source.
Reconsidérer l’ensemble de l’enseignement et des méthodes d’apprentissage à cause de ChatGPT n’est vraiment pas nécessaire. L’inquiétude ressentie aujourd’hui peut rappeler celle qu’a suscitée Wikipédia à ses débuts. Depuis, l’usage de cette encyclopédie a été encadré et étudié à l’école, menant à une utilisation plus réfléchie par tout un chacun. Tout comme Wikipédia, les chatbots peuvent être très efficaces dans certains cas mais il faut rester prudent quant à leur utilisation.

Il s’agit également de former les élèves à un usage raisonné de ChatGPT car, comme nous l’avons vu précédemment, l’IA peut produire des erreurs. Il faut donc que les élèves soient conscients des biais que peuvent générer les chatbots et qu’ils comprennent le concept d’hallucination.
D’autre part, il peut être facile de repérer les textes générés par l’IA, notamment lorsqu’il n’est pas habituel pour les élèves de s’exprimer sans faire d’erreur, dans une syntaxe parfaite. ChatGPT a également tendance à générer des répétitions et à produire des phrases courtes. Pour pouvoir vérifier si les élèves ont copié-collé ChatGPT, il est possible d’utiliser des outils permettant de vérifier si un texte a été écrit par un humain ou par une IA. Plusieurs outils (GPTZéro, AI Text Classifier, etc.) sont disponibles sur Internet ; toutefois, tous ne sont pas extrêmement fiables et il faut garder à l’esprit qu’ils peuvent également faire des erreurs. Malgré tout, ils restent des outils intéressants pour confirmer ou infirmer une suspicion de triche et éventuellement interroger l’élève concerné.
GPTZero (2022-20238) a été développé par un étudiant en informatique américain Edward Tian. Compliqué à comprendre de prime abord, l’outil est en réalité simple d’utilisation : une fois le texte à évaluer copié-collé dans l’encadré prévu à cet effet, l’algorithme analyse le texte. Un premier score est ensuite donné, portant sur la « perplexité9 » du texte considéré dans son ensemble, puis un second score, portant sur la perplexité des phrases du texte. Plus le score de perplexité est grand, plus le texte est susceptible d’avoir été écrit par un humain. Le score de perplexité correspond en quelque sorte à la complexité des phrases et au taux de probabilité des mots utilisés. En bas de la page, un bouton « Get GPTZero Result » permet l’accès aux résultats. Lorsque le score dépasse 100, le texte est détecté comme celui d’un humain. Le site annonce alors “Your Text is likely human generated!” (Votre texte a été probablement écrit par un humain !). Si le score est en dessous de 100, il est plus probable qu’il ait été généré par une IA.
Un autre outil que vous pouvez tester est celui développé par OpenAI et qui se nomme AI Text Classifier10. Il fonctionne comme l’outil précédent et détecte assez bien les textes générés par des IA. En revanche, il ne détecte pas encore très bien ceux qui sont écrits par des humains ! Il va sans doute être amélioré avec le temps.
Draft & Gold (202311) propose également son propre détecteur, plus simple d’utilisation et de prise en main. Une fois le texte entré dans l’encadré de détection, il suffit d’activer « Analyser », ce qui permet d’obtenir le résultat de l’analyse du texte en pourcentage et de savoir si l’extrait a été rédigé en partie ou entièrement par une IA. Le site annonce directement le résultat : « Sur la base de notre analyse, votre texte a très probablement été écrit par un humain ». Plus le texte est long et plus l’algorithme semble mieux l’analyser et détecter s’il a été généré par une IA. Sa version gratuite limite malheureusement son utilisation à une quarantaine de tests par jour, mais il reste malgré tout un très bon outil de détection, simple et efficace.

Il faut cependant souligner que certains professeurs, comme Keivan Farzaneh, déconseillent l’utilisation des détecteurs de textes générés par l’IA « car ils produisent régulièrement des faux positifs ou des faux négatifs » (rubrique Détecter le plagiat, 202312). Pour lui, la meilleure façon reste d’analyser le texte de l’élève pour « détecter toute forme d’anomalie dans la structure des phrases (enchaînements douteux, changement soudain de la qualité de la langue, etc.)13 ». Il conseille de faire rédiger un petit écrit à chaque élève, en classe, en début d’année, et de le garder comme comparatif en cas de doute durant l’année : ainsi l’enseignant s’assure de connaître le style d’écriture de l’élève.

 

Des pistes pour former les élèves à l’usage de ChatGPT

ChatGPT n’est donc ni un outil de recherche documentaire, ni une encyclopédie, notamment parce qu’il ne permet ni de citer ni de vérifier les sources utilisées pour fournir les réponses aux questions posées par les internautes. Il convient donc d’être prudent, car de nombreuses erreurs peuvent se glisser dans les contenus qu’il délivre.

À titre d’exemple voici ce qu’il est possible de faire lors d’une séance pédagogique :

1. Introduction : expliquer ce qu’est ChatGPT et faire le rapprochement entre l’IA et les algorithmes de prédiction présents dans les smartphones. Il est possible également de dire aux élèves, dès l’introduction, que l’objectif du cours est de mettre en lumière les effets de biais et d’hallucination du chatbot.

2. Utilisation : il est possible de consacrer plusieurs séances à la démonstration des erreurs de ChatGPT en demandant aux élèves de poser une question spécifique à ChatGPT, puis de vérifier les informations fournies pour valider ou non les informations données.
Une autre option consiste à demander aux élèves de poser plusieurs fois la même question à ChatGPT via de nouvelles conversations et de comparer les réponses. En constatant que les réponses obtenues ne sont pas identiques, les élèves pourront en arriver eux-mêmes à la conclusion que les réponses données par l’IA ne sont pas toujours fiables.
Bien entendu, cette vérification doit s’accompagner d’un travail sur les sources d’information pour sensibiliser les élèves à l’importance de la vérification des informations et à la fiabilité de celles-ci.

3. Limitations et risques : un brainstorming peut ensuite permettre de mettre en évidence les risques liés à un mauvais usage de ce chatbot. Les élèves prendront alors conscience du concept d’hallucination et des biais que peuvent engendrer les IA.

4. En conclusion, l’enseignant pourrait insister sur l’importance de contre-vérifier les informations. Il peut s’agir ici de demander aux élèves d’utiliser un autre chatbot, fournissant des informations plus fiables et sourcées, contrairement à ChatGPT 3. Par exemple le chatbot de Bing « Bingchat ».

Il est également possible d’explorer l’un des domaines d’utilisation les plus intéressants de ChatGPT, à savoir celui de la langue, de la reformulation et potentiellement de la traduction. Une séance de correction de dissertation, ou d’un autre devoir, peut ainsi être envisagée à l’aide de cet outil. Par exemple, après avoir identifié les phrases qui leur posent problème (sur le plan lexical ou syntaxique), les élèves peuvent demander à ChatGPT de corriger leurs erreurs et de fournir la règle grammaticale correspondante. Avec le temps, cet exercice, supervisé par l’enseignant qui vérifierait les corrections proposées, peut aider les élèves à améliorer leurs compétences.

Exemple de requête : « Voici un texte sur [concept]. Améliore et corrige l’orthographe, la grammaire, la syntaxe et le vocabulaire. Mets en caractères gras les erreurs corrigées et explique tes corrections. »

Autre exemple de requête : « Voici un texte sur [concept]. Vérifie les arguments pour voir s’ils sont pertinents. Au besoin, corrige les arguments et explique ton raisonnement. Mets les arguments corrigés en caractères gras14. »

Sur son site (rubrique Elèves : pourquoi utiliser les robots conversationnels ?), Keivan Farzaneh mentionne un autre usage possible de l’IA pour les élèves : expliquer un concept en termes simples ou différents et donc vulgariser ou reformuler certaines notions15.

Exemple de requête : « Adresse-toi à un élève de [âge] ans. Explique pourquoi les protéines adoptent une structure tridimensionnelle. Fournis ta réponse en moins de 10 lignes. »

 

Quels usages les enseignants peuvent-ils faire de ChatGPT ?

Coté enseignants, ChatGPT peut être utilisé pour produire des contenus pédagogiques innovants : par exemple, pour générer de nouveaux exercices à proposer aux élèves, pour créer des listes et les ordonner de manière efficace et pertinente ou encore pour produire les trames de nouveaux cours, ce qui constitue un gain de temps pour l’enseignant. En cas de doute, les professeurs ont suffisamment de recul et de connaissances pour pouvoir vérifier les informations données par ChatGPT.
Keivan Farzaneh propose, sur son site, toute une série d’exemples de ce que l’on peut demander à ChatGPT pour agrémenter les cours : générer des exemples en lien avec les concepts enseignés, générer des définitions adaptées au niveau des élèves, générer tous types d’activités permettant de faire de la différenciation, des plans de cours, des exercices mais aussi des grilles d’évaluations, etc.
À ce propos, il conseille la lecture du Guide de l’enseignant. L’usage de ChatGPT “ce qui marche le mieux”, écrit par Andrew Herft, conseiller pédagogique au NSW Department of Education en Australie, traduit et adapté par Alexandre Gagné. Le guide donne une liste de « prompts » (questions ou commandes) à poser pour obtenir des résultats fiables et efficaces, dont voici deux exemples :

« Utilisez une évaluation formative régulière pour comprendre les points forts et les points à améliorer des élèves. »

« Utilisez ChatGPT pour créer des quiz et des évaluations qui testent la compréhension de la matière par les élèves. »
« Vous pouvez saisir cette commande : “Créez un quiz avec 5 questions à choix multiple pour évaluer la compréhension des élèves sur [concept enseigné].” (Herft & Gagné, 2023) »

Simon Dugay, enseignant d’informatique au secondaire et chargé de cours en didactique des sciences propose lui aussi quelques pistes d’usage de l’IA sous la forme d’une infographie (Dugay, 2022) :

Image créée par Duguay S. @SimonDuguay3. 20/12/2022. Piste pour l’utilisation de #ChatGPT dans le but de faciliter la tâche des enseignants.

Pour intégrer ChatGPT 3 dans la création de cours, de nombreuses ressources, très riches, peuvent ainsi être utilisées, comme le Guide de l’enseignant (Herft & Gagné, 2023) ou le site de Keivan Farzaneh (2023), déjà cités et qui sont tous les deux très clairs et pratiques. Le site de Keivan Farzaneh met ainsi à disposition la liste des IA (ou “générateur de”) et des informations sur ces IA en fonction de leurs compétences ; il propose également un comparatif des robots conversationnels très utile pour choisir celui le plus adapté aux besoins.

Pour conclure

L’arrivée de ChatGPT dans les pratiques a suscité un engouement dû à sa manière, quasi humaine et extrêmement cohérente, de converser avec les utilisateurs, faisant presque oublier sa nature artificielle. Cependant, cette IA est également source d’inquiétude dans le domaine de l’enseignement, interrogeant les pratiques pédagogiques et les méthodes d’apprentissage des élèves et montrant ainsi qu’il est important de rester conscient des limites et des risques de ce genre d’outil. C’est pourquoi il est urgent d’engager avec les élèves une réflexion sur les enjeux sociétaux liés aux IA et de les former à une utilisation responsable de chatGPT, en soulignant que ces IA ne peuvent se substituer aux efforts personnels, au risque de commettre des erreurs. Les élèves doivent être encouragés, plus que jamais, à vérifier les informations auprès de sources fiables, à se cultiver et ne pas se laisser séduire par l’illusion de facilité qu’offre ChatGPT.

Cependant ChatGPT peut être utilisé de manière bénéfique pour aborder en classe le fonctionnement d’une IA, mais aussi pour des tâches telles que la reformulation, la traduction ainsi que pour des exercices de correction. Il est alors important de bien encadrer ces cours sur l’intelligence artificielle et cela nécessite des connaissances et des formations supplémentaires pour les enseignants. ChatGPT et l’intelligence artificielle de manière générale peut devenir un atout pour les professeurs, les aidant dans la création de contenus, de leçons, d’exercices et bien d’autres tâches.

Enfin, ChatGPT, à l’instar de l’ensemble des intelligences artificielles, connaît des évolutions technologiques rapides et multiformes et est l’objet de nombreuses recherches universitaires. Il convient, en outre, de souligner que les dernières avancées, notamment ChatGPT 4, semblent s’orienter vers un modèle payant et donc un accès restreint aux internautes.

 

 

Demain les IA génératives

Novembre 2022, ChatGPT, l’intelligence artificielle conversationnelle de l’entreprise américaine OpenAI conquiert la planète web en répondant instantanément à toute question des internautes de façon directe, synthétique et ordonnée. Cette IA s‘appuie sur un corpus textuel déterminé entièrement constitué de données issues du web mais non connecté à celui-ci en temps réel. Néanmoins, depuis 2019, la plateforme payante Playground d’OpenAI permettait déjà aux développeurs et à tout internaute féru d’algorithmes de tester les différentes versions de Cha­tGPT, grâce à de multiples réglages, et de générer du texte ou du code afin de les intégrer dans des applications. En 2023, tout s’accélère, avec le développement de versions toujours plus performantes, dont ­ChatGPT 4 (version payante), qui, grâce à l’un de ses plugins, peut désormais chercher des informations sur le web (actualité, sources, etc.). En mars 2023, OpenAI s’associe avec Microsoft qui intègre ChatGPT 4 au moteur de recherche Bing (application Copilot), rendant cette version accessible gratuitement au grand public. Enfin, en décembre 2023, OpenAI signe le premier accord de partenariat avec un important groupe de presse européen, Axel Springer, offrant ainsi l’accès à une base de données d’articles aux utilisateurs de ChatGPT 4.
La concurrence n’est pas en reste. Une course mondiale est engagée, de nombreuses autres IA conversationnelles performantes sont développées, parmi lesquelles on peut citer : Mistral AI (France), Perplexity AI (USA), Meta AI de Facebook (USA), Ernie Bot de Baidu (Chine) et, particulièrement, Bard de Google, sortie en 2023, dont la version multimodale1, Gemini, prétend rivaliser avec ChatGPT 4.
Les IA génératives2, dont font partie les IA conversationnelles, évoluent donc constamment et proposent également la création d’image à partir d’un texte (DALL.E d’OpenAI, Bing créateur d’image de Microsoft, Text to image de Canva, Midjourney avec Discord) ou la transcription vocale (Speech-to-Text de Google, Whisper d’OpenAI…). Elles se diversifient avec l’émergence d’autres options telles que la génération de vidéo, de musique, de traduction vocale, de diaporama à partir d’un prompt3. Il est également possible de faire une traduction vocale en langue étrangère d’un audio ou d’une vidéo (HeyGen). Une tendance vers les intelligences artificielles génératives multimodales semble donc se dessiner. Dans un avenir très proche, les IA génératives feront probablement partie de notre quotidien, exécutant de nombreuses tâches basiques ou complexes.

Face aux enjeux sociétaux liés au déploiement et à l’utilisation de ces nouvelles technologies, notamment les multiples plaintes en violation des droits d’auteur, les atteintes à la protection des données personnelles (RGPD), la CNIL a publié le 16 mai 2023 « un plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus ». En outre, le 9 décembre 2023, l’Union européenne est parvenue à un accord entre les différents États membres sur un texte qui encadre les intelligences artificielles, l’AI Act : « Ce règlement vise à garantir que les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale sont protégés contre les risques liés à l’IA, tout en encourageant l’innovation […]. Les règles établissent des obligations relatives au niveau de risque et d’impact que l’IA peut générer. »

À la suite de l’annonce, par le ministre de l’Éducation nationale, de l’introduction de l’IA dans l’apprentissage du français et des mathématiques en seconde (application MIA), dès la rentrée 2024, il est urgent de réfléchir à l’usage de ces outils, comme le signale Manon Lefebvre, dans son article sur ChatGPT, en nous présentant son fonctionnement, ses limites, et en suggérant des pistes de réflexion, d’apprentissage et de production de contenus pédagogiques.