L'IA et les apprentissages #1
Je ne pensais pas écrire pour ce blog un billet sur l’intelligence artificielle. Je ne regardais pas très positivement l’idée d’utiliser l’IA dans l’éducation et je ne m’y serais pas forcément intéressée de moi-même sans un petit événement sans conséquence : en fin d’année dernière quelques élèves de Clonlara se sont aidés de ChatGPT pour rendre compte de leur travail. C’est un exercice demandé par l’école à la fin de chaque semestre afin de valider le travail accompli. Quand on tombe sur un texte passé à la moulinette d’une IA c’est souvent assez évidement, et je n’avais aucun doute en ce qui concernait ces quelques élèves. Je ne voulais pas les prendre à défaut, ni les gronder, mais comprendre leur objectif : pourquoi avoir utilisé de l’IA ? Dans quel but ? Ils m’ont répondu qu’ils l’avaient fait car ça leur semblait mieux écrit ainsi, et m’ont assuré que les idées et contenus étaient bien les leurs. Je n’en ai pas douté et je n’ai jamais pensé qu’ils voulaient tricher. Leur intention était bonne (avoir un texte final “mieux écrit”), et le résultat n’était pas mauvais en soi, cependant ce n’était pas le leur. Et ce qui m’a le plus chagrinée est cette idée que ça serait “mieux fait” par une IA. C’est ce qui m’a conduite à m’y intéresser, à mener quelques recherches sur ces outils de texte génératif (qu’on appelle LLM : Large Language Models), qui posent de nombreuses questions — de même que les autres outils d’IA évidement, mais une chose à la fois.
J’ai d’abord suivi un cycle de conférences organisées par la bibliothèque de Lyon ; ce qui m’a permis de comprendre entre-autre comment fonctionne un réseau de neurones et d’aborder la question éthique inhérente à l’utilisation de l’IA. Une chose qui m’a marquée est le vocabulaire anthropomorphique employé (intelligence, neurones, apprentissage...), alors que le cela n’a rien à voir et n’a rien d’humain. Ce sont des technologies de calcul, et ces termes ne sont pas fondés scientifiquement. Ils ont cependant un impact fort : ils permettent de masquer un fonctionnement très technique et froid ; de masquer les dépenses énergétiques, la pollution, le travail humain ; ils nous empêchent de penser à ce que les machines font à nos capacités à nous. Pourtant depuis toujours, les technologies transforment la manière dont nous pensons.
Dans les textes transmis par mes élèves, je ne retrouvais plus leur personnalité. Ils étaient banalisés par le filtre de l’IA. Je ne pouvais pas les accepter tels quels car ces comptes-rendus sont sensés refléter leurs cheminements, leurs réflexions, leurs doutes, leurs joies, leurs choix d’apprentissages... Je n’ai pas retrouvé leur humour, leurs hésitations, leurs phrases parfois maladroites mais qui montrent un esprit en recherche, en évolution. Leurs textes polis par l’IA sont ressortis lissés et conformes à un style calibré, et le contenu, s’il était intéressant au départ, s’est retrouvé sans identité. Alors que je prends très généralement plaisir à lire les comptes-rendus de mes élèves, là je me suis ennuyée.
Puis très récemment encore, un élève m’a posé la question « Puis-je réécrire mes textes avec une IA ? » Mais pour quoi faire ? Que penses-tu que cela va t’apporter ? C’est ce que j’ai envie de savoir.
Suite à cette question, je me suis remise à ce billet en friche depuis juin. Après les conférences à la bibliothèque, j’ai suivi en juillet un cycle de webinars au sujet de l’IA dans les apprentissages organisé par The Learning Revolution et je me suis replongée dans ce sujet.
C’est difficile de prendre du recul et de regarder cette technologie de l’extérieur, nous sommes dedans, elle conditionne déjà notre expérience. Il y a de plus en plus d’IA partout. Nous sommes dans le milieu technique comme des poissons dans l’eau et nos enfants encore plus que nous.
Mais cela ne veut pas dire tout accepter sans se questionner. Je ne veux pas faire ma rabat-joie et me positionner contre de façon systématique, j’ai d’abord besoin de comprendre avant de juger ; besoin de sauter hors de l’eau, comme les poissons-volants et de prendre un instant de recul pour tenter de saisir comment ce milieu technique conditionne notre existence et surtout notre cerveau et nos apprentissages.
Nous avons une forte tendance à intégrer des nouvelles technologies à toute allure sans se questionner sur leurs effets secondaires. Je pense par exemple au scroll infini, qui permet à l’utilisateur de ne jamais changer, décider ou cliquer ailleurs : il est captif le plus longtemps possible. Son inventeur, Azar Raskin, a regretté cette création. Il est co-fondateur d’un centre (Center for Human Technology) qui travaille à développer des technologies qui renforcent notre bien-être et qui veut alerter sur l'impact des technologies sur les individus et la société. Avec son collègue Tristan Harris, il est à l’origine du film Social Dilemma.
Toutes ces réflexions sont nécessaires, car les jeunes utilisent de plus en plus les outils d’IA qui sont, au premier abord, faciles d’accès, et donnent des résultats “poudre aux yeux” en quelques clics. Il convient donc de se poser la question de ce qu’ils peuvent apporter aux apprentissages et comment développer une approche consciente, éthique et saine.
Plutôt que de crier au loup et d’en interdire l’usage, prenons le temps de comprendre le fonctionnement d’une l’IA générative, d’en analyser les possibilités, les avantages et les inconvénients.
On peut faire une analogie avec l’invention de l’écriture. Dans Phèdre, Platon présente l’avènement de l’écriture comme un remède mais aussi un “poison”. Écrire est à la fois bénéfique et maléfique car notre mémoire serait reléguée aux livres ; car l’écriture détruirait la mémoire à force de compter sur une ressource externe ; l’écriture affaiblirait l’esprit. Les réflexions de Platon sont applicables à l’IA, qui présente une nouvelle forme d’écrit (je re-précise que je parle des LLM dans cet article), avec nos facultés d’expression déléguées à un outil qui s’exprime pour nous.
Le malheur est que ces outils ne prennent en compte (pour l’instant) que les types de phrases le plus courantes. Ils suppriment la singularité, la nouveauté, le renouvellement culturel qui arrive quand on ose s’écarter de la norme. Il y a un réel risque de lissage du language, d’appauvrissement de l’imaginaire des élèves qui se reposeraient trop sur ces outils.
Alors comment les utiliser pour apprendre, tout en étant acteur, en ayant une maitrise du résultat final ? Comment ne pas les laisser court-circuiter nos capacités d’imagination ? Comment développer une litéracie propre à ces outils ? Comment prendre du recul et analyser ce qui est produit ? Comment ne pas se perdre, ni prendre sa voix ? En quoi ces outils peuvent soutenir les apprentissages ? Et quels sont leurs biais ?
C’est dans l’objectif de répondre à ces questions que j’ai démarré mes recherches et mes essais avec différents outils de texte génératif. Je vous préviens, je n’ai pas encore les réponses. Mais j’ai envie de comprendre comment les jeunes pourraient les utiliser à leur avantage, pour développer leurs apprentissages et aller plus loin au lieu de s’effacer et de perdre petit à petit en capacité d’écriture, d’expression et d’esprit critique.
Pour démarrer de façon saine avec ces outils, il est essentiel de sortir de l’idée que l’on va obtenir un résultat final utilisable tel quel. Malheureusement c’est justement ce qui est attirant : c’est facile et le résultat semble abouti. Pourtant comme je l’ai déjà mentionné, ces outils sont très généralistes. L’IA apprend à généraliser ; avec des exemples, elle crée une “loi”. L’IA n’est pas capable de prendre en compte nos particularités. Elle supprime la surprise, les accidents heureux. Le résultat généré n’est pas une production entièrement personnelle. C’est à mon sens le risque le plus important : celui de perdre notre voix et notre singularité.
L’outil n’a pas votre finesse d’esprit, votre sensibilité, votre humour, votre façon toute personnelle d’utiliser le langage... En testant ces outils, on se rend vite compte qu’il est difficile de dévier des clichés et de conserver sa propre expression. Le style des LLM est très peu original, et à moins de savoir parfaitement rédiger des prompts, il est très difficile d’en sortir.
Le second risque est de se laisse berner par les résultats générés, en pensant trop que l’IA est meilleure que nous. Les jeunes (et moins jeunes) peuvent rapidement perdre confiance en eux, en leur capacité de création, avec le sentiment que l’outil fera toujours mieux. On peut devenir dépendant, et avoir besoin de tout systématiquement vérifier, réécrire... au risque de ne plus savoir faire sans, puisque c’est mieux avec.
La beauté d’une production réside aussi parfois dans ses erreurs, dans ses petites maladresses, qui apportent une couche sensible, personnelle et touchante... Avec l’IA il manque cela, il manque la vie, notre vie. Et la vie n’est jamais parfaite et tirée à quatre épingles. Quand on écrit, il y a une épaisseur (notre expérience) des réflexions, des essais-erreurs, des imprévus.... Cela donne une âme à nos textes dont le résultat est parfois imprévisible. Avec une IA, il n’y a pas de vie, c’est juste un outil, comme une calculatrice, qui permet d’aller plus vite, parfois plus loin, et qui peut être intégré dans un processus d’apprentissage, mais pas en tant que finalité en soit. Il convient de se placer au-dessus de l’IA et de faire “mieux qu’elle“ en ajoutant une valeur humaine aux résultats générés, et en la voyant comme ce qu’elle est : un outil de recherche dans un processus de création.
Quand la photographie est arrivée, les peintres se sont offusqués. “Mais, c’est juste appuyer sur un bouton, où est le travail de l’artiste ? Ce n’est pas de l’art”. Ingres lance même une pétition. Mais le regard sur la photo change dès qu’elle devient capable de capturer le mouvement et qu’il n’est plus nécessaire de rester sans bouger pour se faire tirer le portrait. La photographie se distingue alors de la peinture. Avec l’IA aujourd’hui c’est pareil, ces outils doivent trouver leur propre language qui se doit d’être différent de l’imitation.
En se posant la question de pourquoi on l’utilise, dans quel but, pour quel résultat, on peut arriver à l’utiliser de manière critique. Je vous invite donc à vous renseigner, à comprendre comment ça fonctionne, comment ça a été créé. Il convient de trouver le bon curseur, de ne pas tomber dans un usage excessif, de trouver de la valeur pour nous, dans ce que nous pouvons produire et surtout ne pas laisser l’IA gommer notre personnalité.
Pour terminer avec les aspects négatifs, n’oublions pas que les questions d’éthique et d’écologie sont aussi cruciales. Derrière cette technologie qui semble magique il y a l’exploitation humaine, la consommation d’énergie, la pollution des données en semant tant d’informations fausses ou biaisées, le problème des modèles de langages formés sur eux-mêmes et qui deviennent rapidement englués.
La question du plagiat et des sources est également un problème, ainsi que celui des biais véhiculés par les IA. Encore une fois, garder un esprit critique est de mise.
Mais dans tout cela, il y a quand même des aspects positifs et ces outils peuvent nous aider à apprendre et progresser. Les LLM peuvent faire partie d’un processus d’apprentissage (et pas simplement éviter d’avoir à faire travail difficile). Mais pour cela il convient de développer une “AI literacy” (une sorte d’alphabétisation en matière d’IA) afin de l’utiliser astucieusement, à bon escient, de manière intelligente et éthique. Et surtout ne pas oublier de se demander : en ai-je besoin ? Dans quel but vais-je l’utiliser ? Pour quel résultat ? ...
Comme car article est déjà très long, je vais m’arrêter ici je reviens très vite avec la suite, les points positifs pour les apprentissages. Je ne parle pas ici des enseignants et ce qu’ils peuvent faire de leur côté, car ça c’est encore une autre question, mais bien des jeunes qui veulent être actifs dans leurs apprentissages.
Merci de me lire ♥️
Eve
Ps: la photographie qui illustre cet article et l’article lui-même sont AI free ;-)