L'IA n'est pas une pandémie
Certains pensent que ChatGPT pourrait saper le système éducatif, et des appels se font entendre pour réglementer l'utilisation de l'IA dans l'enseignement. Gerd Kortemeyer préconise de ne le faire qu'avec mesure. Car tout le reste pourrait s'avérer contre-productif au final.
- Lire à haute voix
- Nombre de commentaires
Lorsque Covid-19 a frappé pour la première fois, nous avons immédiatement réagi en élaborant, promulguant et retirant des règles et des restrictions. Nous avons édicté des règles sur les masques, les tests, les voyages et les vaccins qui étaient parfois contradictoires. Rétrospectivement, certaines mesures peuvent nous sembler ridicules, inefficaces ou tout simplement exagérées - mais à l'époque, l'imperfection était bien préférable à l'inaction : nous devions faire quelque chose pour endiguer une pandémie mortelle.
L'IA n'est pas une pandémie mortelle, mais là encore, nous risquons d'édicter par anticipation des règles et des réglementations contraignantes et excessives pour empêcher sa propagation. Il est vrai que, par rapport à d'autres technologies disruptives, des outils comme ChatGPT sont apparus assez brusquement sur la scène publique. Pendant ce temps, les critiques et les détracteurs demandent de geler complètement le développement de nouveaux modèles d'IA. Des pays entiers tentent d'interdire ChatGPT et les éditeurs étendent leurs accords avec les auteurs. Les universités s'empressent également d'édicter de nouvelles règles. La plupart du temps, il ne s'agit pas de réglementer à quoi l'IA peut être utilisée, mais seulement de déterminer où elle doit être interdite. Je suppose que dans quelques mois, nous considérerons également nombre de ces mesures comme ridicules, inefficaces ou tout simplement exagérées.
Après le premier choc...
L'IA n'est pas une pandémie, c'est un outil - mais un outil impressionnant. Pour les experts en éducation, ce fut un choc de réaliser que ChatGPT pouvait ma?triser un examen d'entrée à l'université. Et ce n'est pas tout : l'outil a passé avec succès des cours d'introduction aux sciences naturelles et peut créer des essais et des présentations au contenu remarquablement plausible, bien que fictif. Je parle volontairement de fiction, car même si ces textes peuvent para?tre objectifs, il s'agit finalement d'un assemblage statistiquement probable de bouts de textes, qui ne peut pas être étayé par des sources - le corpus de textes utilisé pour l'entra?nement est propriétaire, l'algorithme fait tout valser, et si l'on demande à ChatGPT de fournir des références, celles-ci sont une fiction complète.
Il n'empêche : il est étonnant de voir à quel point ChatGPT est capable de programmer, de traduire des langues et de résumer des textes. Il nous faudra du temps pour découvrir ce que cela dit de l'IA, mais aussi ce que cela dit de notre système éducatif.
"Utiliser le texte non modifié d'un outil d'IA n'est certes pas du plagiat, mais dire "j'ai écrit cela" serait clairement un mensonge."Gerd Kortemeyer
Dans les tournois d'échecs, l'IA a été interdite afin de préserver le plaisir des humains à jouer à ce jeu artistique. Cependant, dans le domaine scientifique, on attend toujours de nous que nous utilisions les outils disponibles les plus performants pour repousser les limites de la connaissance. Dans l'enseignement supérieur, il ne peut donc pas s'agir de discuter de l'interdiction complète d'un outil, mais plut?t des conséquences de cette disruption sur ce que nous enseignons et comment nous l'enseignons - et probablement seulement de quelques limites strictes contre l'utilisation abusive de l'outil.
Pas "juste" un plagiat
Pour fixer des limites à l'IA, nos règles pour éviter le plagiat ne sont malheureusement pas très utiles. Elles ont été établies avant que l'IA ne devienne une réalité quotidienne et se concentrent généralement sur le fait de ne pas faire passer la propriété intellectuelle d'autrui pour la sienne. Au sens strict, cela ne s'applique pas à l'IA, à moins que nous ne lui accordions une personnalité propre. Au lieu de nous concentrer sur le travail "de quelqu'un d'autre", nous devrions nous focaliser sur ce que signifie "travail personnel" : utiliser le texte d'un outil d'IA n'est certes pas du plagiat, mais dire "c'est moi qui ai écrit cela" serait clairement un mensonge.
D'un autre c?té, les outils d'IA peuvent légitimement être utilisés pour surmonter les blocages de l'écriture et obtenir un aper?u rapide de "the good, the bad, and the ugly" de ce qui se trouve dans son immense corpus de textes sur un sujet donné. Mais ensuite, les auteurs humains doivent en faire leur propre travail, en séparant le bon grain de l'ivraie et en vérifiant et validant les informations provenant de sources scientifiques réelles. Il faut discuter de l'endroit exact où commence "le travail personnel" dans le processus, au sens d'une prestation scientifique. Mais je pense qu'une règle interdisant l'utilisation de mots ou de formulations générés par l'IA va trop loin. Prenons le temps d'élaborer des règles sensées. Ou sommes-nous pressés parce que nous avons honte de donner de bonnes notes à ChatGPT ?
Mieux vaut se vacciner contre les fake news
Quoi qu'il en soit, les discussions sur la fraude à l'IA sont probablement peu constructives. Les étudiants viennent chez nous parce qu'ils veulent apprendre et parce qu'ils apprécient la pensée critique, indépendante et, en fin de compte, la créativité. Il est de notre responsabilité de leur transmettre les aptitudes, les concepts, les méthodes et les compétences qui leur permettront d'exister et de s'affirmer dans un monde où l'IA sera omniprésente. Si nous continuons à poser des bases solides en mathématiques et en sciences naturelles, nous devons repenser certains plans d'études. Par exemple, de simples exercices de programmation pourraient être dépassés. Nous devons peut-être nous concentrer sur la calculabilité, les algorithmes et la théorie de l'information. Peut-être arriverons-nous à la conclusion que, par exemple, le résumé manuel de textes et d'autres objets des cours sont peut-être obsolètes. En revanche, nous devrons peut-être vacciner nos étudiants contre la pandémie de fausses nouvelles virales, de fausses sciences et de fausses informations.