ChatGPT et la crise existentielle de l’université
ans The End of Education, l’enseignant et critique américain des technologies Neil Postman affirme que l’école est confrontée à deux problèmes qui doivent être résolus : « l’un est un problème d’ingénierie, l’autre est métaphysique ». Cette dualité oppose les moyens aux fins. L’enseignement porte-t-il sur les processus techniques par lesquels les élèves peuvent devenir des travailleurs, des exécutants et des « leaders » plus efficaces ? Ou bien s’agit-il d’en apprendre davantage sur quel type de vie l’on devrait mener, plutôt que de chercher à savoir comment on devrait la gagner ?
C’est dans ce contexte que ChatGPT a fait irruption dans les salles de classe du monde entier. Il est rapidement adopté — souvent sans que les élèves ne le comprennent vraiment — comme outil de recherche et d’écriture. Sa grande promesse est de stimuler la productivité et l’efficacité, deux concepts d’une importance quasi mystique dans l’université néolibérale moderne ; mais son adoption rapide pose une myriade de problèmes aux professeurs, dont le moindre n’est pas la confiance que l’on peut accorder aux devoirs rendus par les étudiants. S’attaquer à ChatGPT et à son rôle dans la salle de classe, c’est aussi s’attaquer à la question de l’objectif de l’éducation : quels sont ses moyens et quelles sont ses fins ?
Il y a deux façons évidentes de traiter cette question : 1) essayer de l’interdire complètement, ou 2) essayer de l’intégrer dans le programme d’études de manière responsable. J’ai d’abord essayé de l’interdire, mais cela n’a pas fonctionné. J’ai donc improvisé en créant un devoir destiné à enseigner aux élèves comment utiliser (et ne pas utiliser) ChatGPT. Mais l’une ou l’autre de ces réponses soulève des questions essentielles, non seulement sur la manière d’utiliser l’IA en classe, mais aussi sur la finalité de l’université.
Bannir ChatGPT de la salle de classe
Mon premier réflexe a été de bannir purement et simplement ChatGPT de la salle de classe, persuadé qu’un recours excessif à cette technologie nuirait au développement cognitif de mes élèves en les acclimatant à une technologie dont ils ignorent qu’elle peut être inexacte et trompeuse. Je pensais, et je pense toujours, que cela pourrait interférer avec l’objectif de l’éducation, en particulier des sciences humaines, qui est de cultiver et d’étudier l’humanité. C’est la raison pour laquelle nous lisons des livres difficiles, écrivons des essais sur des sujets obscurs et examinons des questions abstraites et difficiles sur l’éthique et la société. Pour ceux d’entre nous qui croient vraiment à la valeur d’une formation en sciences humaines tout au long de la vie, interdire les technologies qui entravent ce développement critique est une évidence.
Le problème se pose lorsque les étudiants essaient de contourner les règles et d’utiliser l’IA pour rédiger leurs travaux. Le semestre dernier, dans le cadre de mes cours d’études religieuses à l’université Elon, une université privée de Caroline du Nord, j’ai surpris plusieurs étudiants en train de faire cela1. Ignorant apparemment que ChatGPT pouvait se tromper, quelques étudiants ont rendu des travaux contenant des informations fabulées et de fausses sources. Il a été assez facile de les attraper, mais ce sera probablement de plus en plus difficile à l’avenir, d’autant plus que les détecteurs d’IA ne sont pas toujours fiables2.
Alors, comment affronter cette situation ? Les professeurs ne pourraient demander que des devoirs en classe, écrits à la main ; les ordinateurs portables ou les téléphones ne seraient pas autorisés. Les examens oraux pourraient faire leur retour pour les évaluations de fin d’année. Une méthode plus créative pourrait consister à imposer l’utilisation de Google Docs avec l’autorisation de consulter l’historique des fichiers, afin que les professeurs puissent voir si les étudiants ont simplement copié et collé un texte généré par l’IA.
Mais ces approches posent de nombreux problèmes. L’un d’eux est le temps considérable que cela représente pour chaque enseignant. Vérifier les sources prend déjà beaucoup de temps, mais imaginez qu’il faille en plus vérifier l’historique des versions de chaque essai ! Ajoutez à cela la difficulté de lire des rédactions manuscrites à une époque numérique où la calligraphie est moribonde, et la charge de travail, même pour un simple devoir, devient incontrôlable. En outre, la plupart des professeurs ont trop d’étudiants pour organiser des examens oraux de manière raisonnable. Cela pourrait fonctionner dans le cadre du système de tutorat de l’université d’Oxford, mais cela ne fonctionnerait pas dans une université d’État américaine de type Big Tech ; sans parler du fait qu’avec le recours croissant à des professeurs précaires dans l’enseignement supérieur3, la charge de ce contrôle supplémentaire pèsera de manière disproportionnée sur des employés déjà sous-payés et surchargés de travail (je ne le sais que trop bien — étant moi-même professeur associé).
Les clefs d’un monde cassé.
Du centre du globe à ses frontières les plus lointaines, la guerre est là. L’invasion de l’Ukraine par la Russie de Poutine nous a frappés, mais comprendre cet affrontement crucial n’est pas assez.
Notre ère est traversée par un phénomène occulte et structurant, nous proposons de l’appeler : guerre étendue.
Au-delà de tout cela, il y a la question plus importante de l’objectif de l’éducation. Après tout, pourquoi devrions-nous interdire ChatGPT ? Certains ont affirmé qu’il s’agissait simplement d’un outil — quelque chose comme une calculatrice, « mais pour l’écriture »4. L’interdire, selon ce point de vue, ne ferait qu’entraver les étudiants qui ont besoin de comprendre le fonctionnement de cette technologie pour être compétitifs sur le marché du travail. Si l’objectif de l’école est de « gagner sa vie », l’interdiction des technologies extérieures pénaliserait injustement les élèves qui ont besoin d’apprendre à les utiliser pour trouver un emploi et rembourser les dettes que leur éducation leur a noblement léguées. C’est du moins ce que croient la plupart des étudiants et la plupart des administrateurs. Et, pour revenir à l’argument de Postman, il est possible que le simple fait de restreindre les moyens utilisés par les étudiants pour apprendre ne règle pas la question plus importante des fins. Si les étudiants pensent que l’éducation est destinée à la formation professionnelle, l’interdiction des nouvelles technologies ne fera qu’engendrer du ressentiment et de la frustration. Nous devons réfléchir à la situation dans son ensemble, et ce n’est qu’alors que la question des objectifs sera suffisamment traitée — ce qui nous permettra ensuite de revenir à la question des moyens, et à ce que la technologie devrait ou ne devrait pas faire en classe.
*L’interdiction de la technologie ne s’étant pas avérée utile, j’ai tenté une approche différente plus tard dans le semestre. Ironiquement, ce faisant, j’ai mieux réussi à convaincre mes étudiants de l’importance des sciences humaines.
LIRE LA SUITE ICI
https://legrandcontinent.eu/fr/2023/06/23/chatgpt-et-la-crise-existentielle-de-luniversite/