ChatGPT ou CheatGPT : des pistes pour gérer les devoirs et les examens
Publié le 13/02/2023
Thématiques :
Publié le 13/02/2023
Depuis quelques semaines l’IA générative ChatGPT génère de nombreuses prises de parole oscillant entre fascination et inquiétude, notamment concernant les devoirs et examens. De l’interdiction à l’utilisation de ChatGPT, Alain Goudey, DGA Digital, avances plusieurs pistes sur les actions possibles.
D’un point de vue technique, il existe la possibilité d’interdire l’accès réseau au domaine OpenAI.com (et à tous les autres domaines proposant des IA génératives basées sur GPT-3). Cette démarche est peu efficiente car très facilement contournable et surtout quasi ingérable tant le phénomène va se répandre et donc les points d’entrée vont être multiples. Ainsi, le jour où cet outil est intégré dans Office 365 par Microsoft, il sera complètement vain d’envisager cette approche. Il est aussi possible d’utiliser une approche de type proctoring où on va « fixer » l’étudiant sur des fenêtres autorisées sur son ordinateur. Mais là aussi l’outil devenant accessible via téléphone portable, cela présente une efficacité toute relative.
La deuxième possibilité est de rebasculer les devoirs ou examens en salle et de les faire écrire à la main pour surveiller l’usage réalisé des appareils connectés (et ainsi éviter toute triche à l’examen). Cette technique, bien que toute simple, sera très efficace pour limiter l’usage de ChatGPT.
Il faut définir une position claire sur l’usage des IA génératives : ce qui est autorisé, ce qui ne l’est pas et dans quel contexte.
Toutefois, il me semble plus important encore de définir une position claire sur l’usage des IA génératives comme ChatGPT dans l’établissement ou dans les examens : ce qui est autorisé, ce qui ne l’est pas et dans quel contexte. Il convient donc de donner une véritable définition de ce qui est autorisé ou non avec cet outil afin d’éviter tout plagIAt (plagiat assisté par IA, les anglo-saxons parlent de AIgiarism) et sous quelles conditions. Cela nécessite ainsi d’indiquer clairement aux étudiants la politique sur le sujet et de détailler les sanctions encourues (généralement les mêmes que pour tricherie avérée).
Il est tout aussi important, si l’usage est autorisé, de proposer un cadre clair à cet usage en demandant d’indiquer explicitement les passages ayant mobilisé l’IA, et évidemment de ne pas mettre simplement « ChatGPT » dans la bibliographie car c’est à peu près aussi précis que d’indiquer « Internet » comme source bibliographique ! Il pourrait être pertinent de faire indiquer à l’étudiant le ou les prompts utilisés par rapport au passage de texte concerné et de faire ajouter en annexe le résultat fourni par l’outil, c’est le minimum pour citer correctement ChatGPT.
Faire indiquer le prompt utilisé et le résultat fourni par ChatGPT relève du minimum à demander aux étudiants.
Quand on interroge ChatGPT sur une politique claire (et restrictive) d’usage aux examens universitaires, cela donne ceci :
Et quand on demande une politique autorisée et pertinente de l’utilisation de ChatGPT, les propositions sont :
Je suis sûr que chaque établissement saura écrire sa propre politique afin d’assurer et de garantir l’intégrité académique, mais surtout, la bonne formation des étudiants au monde d’aujourd’hui.
Par ailleurs, dans les recommandations, il est clair qu’il faut travailler sur l’examen lui-même.
Bien qu’il fasse peur, il y a un certain nombre de choses que ChatGPT ne sait pas manipuler. Travailler la forme de la restitution est donc important car l’outil sera bien en peine pour répondre. Ainsi, nous avons listé quelques possibilités ici :
Comme indiqué ci-dessus, dans de nombreux cas, ChatGPT va être très en difficulté pour répondre de manière pertinente. En effet, ChatGPT fonctionne en « prédiction du mot suivant » pour construire le texte, à nouveau, sans compréhension de ce qui est écrit. Ainsi, quand une information manque, il va inventer la plus plausible en utilisant une « ungraceful degradation » : ce phénomène n’est pas gênant dans une démarche créative, mais le devient beaucoup plus quand il s’agit de répondre à une question ou de réaliser une synthèse. Merci à Yves Caseau pour l’exemple assez tordant autour des médecins et de leur durée de travail déraisonnable de 24 minutes (car l’outil confond minutes et heures dans cet exemple) :
On voit donc bien ici que dans les usages non créatifs il est utile d’être compétent pour utiliser ChatGPT comme aide cognitive ou alors rester sur des questions très larges de sorte à ce que les data d’apprentissage soit forcément pertinentes. Ainsi toute questions précises (avec peu de data dessus) ou toutes les questions demandant de la logique ou une analyse originale vont mettre l’outil hors service. Dès lors de nombreuses pistes s’ouvrent à nous :
Il existe aujourd’hui de nombreux outils « anti-ChatGPT » comme GPTZero, AI Content Detector, Giant Language Model Test Room, Opportunity ou encore Open AI GPT-2 Output detector. Toutefois, cela reste encore très complexe et les outils de détection sont facilement dans le faux… Le mieux placé risque toutefois d’être celui de OpenAI qui ainsi va pouvoir vendre l’outil et son antidote… en effet, seuls eux ont une connaissance profonde des structures de texte et de vocabulaire les plus courants de ChatGPT et seuls eux pourraient apposer une sorte de « watermarking », véritable signature d’authentification du contenu généré par leur IA.
Toutefois, un cerveau humain peut assez facilement identifier un contenu généré par ChatGPT : les structures de phrase, l’assertivité, la structure de réponse est plutôt très régulière et récurrente (surtout si le prompt initial est basique). Il n’y ainsi aucun ton, aucune emphase, c’est une écriture « mécanique » . Par ailleurs, un autre élément doit susciter le questionnement : l’absence de fautes d’orthographe, une très grande constance grammaticale, une régularité trop grande dans le style d’écriture et une similarité d’une copie à une autre sont des signaux d’alerte.
L’autre possibilité après le devoir est aussi de relever le niveau d’exigence de ce qu’est une copie « moyenne », de donner un bonus à toute expression d’un point de vue original, contrasté, critique… ou encore de favoriser « la prise de risque », l’« innovation » ou la vraie « créativité » dans la réponse et la forme de la réponse. Concernant l’évaluation, il est à nouveau nécessaire d’avoir été très clair sur le cadre autorisé ou non d’utilisation de l’outil.
ChatGPT peut aussi largement être l’allié des pédagogues. Il sera par exemple aisé de créer des quiz, des QCM, des dictées en utilisant l’outil d’OpenAI. Au-delà, j’aimerais ici proposer d’inverser les rôles et de placer l’étudiant en « correcteur » des réponses de ChatGPT afin de le faire réfléchir sur les prompts et les éléments, voire arguments, amenés par ChatGPT :
Comme tout outil, les IA génératives, comme tous les progrès technologiques, vont avoir un impact sur la pensée, notre manière de voir le monde et notre cerveau.
Il est possible que l’utilisation de ChatGPT puisse avoir des effets sur la liberté de penser. D’un côté, ChatGPT peut faciliter l’accès à de l’information et à des idées en générant des textes rapidement et efficacement. Cela peut aider les utilisateurs à explorer de nouvelles idées et à découvrir de nouvelles perspectives.
D’un autre côté, l’utilisation de ChatGPT peut également entraîner un certain degré de dépendance à l’égard de la génération automatique de textes (il n’y a qu’à voir le niveau d’utilisation actuel où les serveurs sont régulièrement hors service), et peut réduire la capacité des utilisateurs à penser par eux-mêmes et à formuler leurs propres idées. En outre, ChatGPT est entraîné sur un grand corpus de données textuelles, il est donc certain qu’il reproduit les biais et les stéréotypes présents dans ces données, ce qui pourrait limiter les perspectives et les idées proposées par le modèle. En fait c’est plutôt un excellent outil de mise au jour de la pensée dominante (dans le corpus ingéré, dont on ignore tout à ce stade).
Il est donc important d’utiliser ces outils d’IA génératives de manière consciente et critique, en sachant que ces outils peuvent aider à explorer de nouvelles idées, mais ne doivent pas remplacer la pensée indépendante et la réflexion personnelle. Il est donc important d’être conscient des limites de ces outils pour éviter de tomber dans un schéma statistiquement dominant !
À l’heure des intelligences artificielles, cultivons donc l’intelligence humaine (et collective) ! N’hésitez pas à rejoindre le groupe LinkedIn « IA Génératives & enseignement » si ces sujets vous intéressent.
Si vous êtes salarié.e, cadre, entrepreuneur.e et que vous voulez en savoir plus sur le ChatGPT, participez à notre Masterclass intitulé : « ChatGPT pour votre organisation – Une révolution ? » Cliquez pour vous inscrire.