Avec l’essor fulgurant des outils d’intelligence artificielle générative et le rythme bien plus lent d’élaboration de nouvelles politiques par les établissements scolaires et universitaires, il était inévitable qu’une affaire liée à l’utilisation de l’IA et à la tricherie finisse par atterrir devant un tribunal.
Ce moment est arrivé mardi lorsque l’avocat d’un étudiant a demandé à un juge fédéral d’ordonner à l’école secondaire de Hingham, dans le Massachusetts, d’augmenter la note en AP Histoire des États-Unis d’un élève qui avait été pénalisé pour avoir prétendument utilisé l’IA pour rechercher et structurer un projet de classe. L’avocat a soutenu que, puisque l’établissement ne disposait d’aucune politique relative à l’IA dans le manuel de l’élève, l’utilisation de l’IA ne pouvait être considérée comme de la tricherie et que la note basse obtenue dans ce cours empêcherait injustement l’élève de postuler dans des collèges sélectifs. Les représentants de l’école de Hingham ont argué que l’utilisation de l’IA était clairement prohibée par les politiques établies en classe et par les règlements existants contre le plagiat.
L’affaire opposant l’élève au système scolaire de Hingham soulève la question de savoir si les actes de l’élève peuvent être considérés comme de la tricherie au regard des politiques scolaires existantes : les élèves étaient-ils autorisés à utiliser les outils d’IA comme l’ont fait ces étudiants, ou pas ? Est-il réellement question de plagiat lorsque l’on utilise une recherche et un plan fournis par un chatbot ? Cependant, le jugement dans cette affaire ne changera pas la réalité délicate concernant les outils d’IA, qui est que, dans la plupart des cas, les enseignants ne savent pas ou ne peuvent pas prouver que les élèves utilisent ces outils alors qu’on leur a dit de ne pas le faire.
Les outils de détection de l’IA, comme Turnitin, utilisés par le professeur dans cette affaire (ainsi que ChatZero et le plugin Chrome Draftback), sont jugés suffisamment imprécis qu’OpenAI a effectivement retiré son propre outil du marché. Lors de son témoignage, l’enseignante a également expliqué que plusieurs ouvrages mentionnés dans le projet de l’étudiant n’existaient pas, un signe évident qu’ils avaient probablement été inventés par l’IA. Mais de tels indices disparaîtront rapidement à mesure que des outils « d’humanisation » de la prose générée par l’IA et de vérification des sources fictives seront généralisés. De plus, étant donné que les outils d’IA sont intégrés à des plateformes existantes comme Grammarly pour « aider » les étudiants à rédiger, il sera difficile pour les enseignants et parfois même pour les élèves eux-mêmes de déterminer quel rôle l’IA a joué dans leur travail.
Une manière d’apaiser les inquiétudes concernant la tricherie serait de permettre aux étudiants d’utiliser l’IA en classe, et certains éducateurs prennent déjà cette direction. Cependant, il reste encore beaucoup à clarifier sur la manière dont nous pourrions réellement intégrer l’IA en classe pour promouvoir l’apprentissage plutôt que de le diminuer. Il y a deux ans, si vous aviez demandé à cinq enseignants s’il serait considéré comme de la tricherie pour un élève de demander à un autre élève de faire ses recherches ou son plan, il y aurait probablement eu un large consensus sur le fait que cela constituait effectivement de la tricherie. Mais avec l’IA, ces mêmes enseignants ne s’accordent pas toujours sur l’utilisation appropriée de ces outils en classe. Est-il pertinent de solliciter un chatbot pour générer un premier brouillon, que vous réviserez ensuite ? Que dire d’obtenir un retour sur votre brouillon ? La réponse semble incertaine. Bien que l’intégration généralisée de l’IA en classe pourrait résoudre le problème de la tricherie, il est moins clair de comprendre ce que cela impliquerait pour l’apprentissage.
Et même si l’apprentissage n’est pas le point central de la plainte de Hingham, c’est la principale préoccupation des enseignants avec qui j’ai discuté. Leurs appréhensions concernant l’utilisation des outils d’IA par les élèves sont soutenues par les données. Lors de son récent forum OpenEducation, OpenAI a rapporté que la majorité des utilisateurs de ChatGPT sont désormais des étudiants. Même si nous ne savons pas exactement comment ces élèves utilisent ces outils, il est clairement établi qu’ils sont majoritairement promus sur les réseaux sociaux comme des outils de productivité, visant à faire gagner du temps, plutôt que comme des outils éducatifs. Dans ma propre expérience de classe récente, des outils de recherche actuellement promotionnés, tels que Perplexity et Consensus, peuvent potentiellement apporter une valeur éducative en aidant les étudiants à trouver des sources intéressantes. Cependant, ces mêmes outils agissent également comme des agents de service à la clientèle, fournissant d’abord une réponse à une question de recherche, puis les sources, et enfin le brouillon du devoir lui-même. En d’autres termes, les outils qui pourraient servir l’apprentissage sont également d’excellents outils de tricherie.
Bien que l’affaire de Hingham n’apporte pas de solutions aux problèmes posés par l’IA générative en salle de classe, toute discussion sur la manière de naviguer à travers ces défis devrait aborder les facteurs qui ont conduit à la plainte, qui relèvent moins de l’IA et davantage de la conviction d’une famille que qu’une note faible exclura leur enfant de l’avenir qu’ils envisagent pour lui, commençant par l’admission à un collège prestigieux. Le système d’admission sélective a existé bien avant que ChatGPT ne soit mis sur le marché en 2022. Cependant, l’affaire de Hingham en dit moins sur les politiques de tricherie des districts scolaires et davantage sur les conséquences d’un système éducatif qui privilégie souvent les notes au détriment de l’apprentissage, se heurtant à une technologie qui permet aux élèves de contourner l’apprentissage au profit de leurs notes.
Notre Point de vue
Il est essentiel d’engager une réflexion approfondie sur l’intégration des outils d’intelligence artificielle dans le milieu éducatif. Au-delà des préoccupations liées à la tricherie, il est crucial d’explorer comment ces technologies peuvent, ou non, enrichir réellement l’apprentissage. L’absence de politiques claires et d’outils de détection fiables peine à créer un cadre qui permette aux enseignants d’enseigner efficacement tout en s’adaptant à un paysage technologique en rapide évolution. Pour naviguer ces défis, il est impératif de développer une compréhension mutuelle entre éducateurs, élèves et technologies. Une collaboration proactive pourrait potentiellement transformer une menace perçue en une opportunité d’innovation pédagogique.
- Source image(s) : slate.com
- Source : https://slate.com/life/2024/10/ai-chat-gpt-students-cheating-detection.html