Overblog
Follow this blog Administration + Create my blog
VudeJerusalem.over-blog.com

intelligence artificielle

ChatGPT et la crise existentielle de l’université

June 27 2023, 18:32pm

Posted by C.W. Howell

ChatGPT et la crise existentielle de l’université

ans The End of Education, l’enseignant et critique américain des technologies Neil Postman affirme que l’école est confrontée à deux problèmes qui doivent être résolus : « l’un est un problème d’ingénierie, l’autre est métaphysique ». Cette dualité oppose les moyens aux fins. L’enseignement porte-t-il sur les processus techniques par lesquels les élèves peuvent devenir des travailleurs, des exécutants et des « leaders » plus efficaces ? Ou bien s’agit-il d’en apprendre davantage sur quel type de vie l’on devrait mener, plutôt que de chercher à savoir comment on devrait la gagner ?

C’est dans ce contexte que ChatGPT a fait irruption dans les salles de classe du monde entier. Il est rapidement adopté — souvent sans que les élèves ne le comprennent vraiment — comme outil de recherche et d’écriture. Sa grande promesse est de stimuler la productivité et l’efficacité, deux concepts d’une importance quasi mystique dans l’université néolibérale moderne ; mais son adoption rapide pose une myriade de problèmes aux professeurs, dont le moindre n’est pas la confiance que l’on peut accorder aux devoirs rendus par les étudiants. S’attaquer à ChatGPT et à son rôle dans la salle de classe, c’est aussi s’attaquer à la question de l’objectif de l’éducation : quels sont ses moyens et quelles sont ses fins ?

S’attaquer à ChatGPT et à son rôle dans la salle de classe, c’est aussi s’attaquer à la question de l’objectif de l’éducation : quels sont ses moyens et quelles sont ses fins ?

C.W. howell

Il y a deux façons évidentes de traiter cette question : 1) essayer de l’interdire complètement, ou 2) essayer de l’intégrer dans le programme d’études de manière responsable. J’ai d’abord essayé de l’interdire, mais cela n’a pas fonctionné. J’ai donc improvisé en créant un devoir destiné à enseigner aux élèves comment utiliser (et ne pas utiliser) ChatGPT. Mais l’une ou l’autre de ces réponses soulève des questions essentielles, non seulement sur la manière d’utiliser l’IA en classe, mais aussi sur la finalité de l’université.

Bannir ChatGPT de la salle de classe

Mon premier réflexe a été de bannir purement et simplement ChatGPT de la salle de classe, persuadé qu’un recours excessif à cette technologie nuirait au développement cognitif de mes élèves en les acclimatant à une technologie dont ils ignorent qu’elle peut être inexacte et trompeuse. Je pensais, et je pense toujours, que cela pourrait interférer avec l’objectif de l’éducation, en particulier des sciences humaines, qui est de cultiver et d’étudier l’humanité. C’est la raison pour laquelle nous lisons des livres difficiles, écrivons des essais sur des sujets obscurs et examinons des questions abstraites et difficiles sur l’éthique et la société. Pour ceux d’entre nous qui croient vraiment à la valeur d’une formation en sciences humaines tout au long de la vie, interdire les technologies qui entravent ce développement critique est une évidence.

Le problème se pose lorsque les étudiants essaient de contourner les règles et d’utiliser l’IA pour rédiger leurs travaux. Le semestre dernier, dans le cadre de mes cours d’études religieuses à l’université Elon, une université privée de Caroline du Nord, j’ai surpris plusieurs étudiants en train de faire cela1. Ignorant apparemment que ChatGPT pouvait se tromper, quelques étudiants ont rendu des travaux contenant des informations fabulées et de fausses sources. Il a été assez facile de les attraper, mais ce sera probablement de plus en plus difficile à l’avenir, d’autant plus que les détecteurs d’IA ne sont pas toujours fiables2.

Alors, comment affronter cette situation ? Les professeurs ne pourraient demander que des devoirs en classe, écrits à la main ; les ordinateurs portables ou les téléphones ne seraient pas autorisés. Les examens oraux pourraient faire leur retour pour les évaluations de fin d’année. Une méthode plus créative pourrait consister à imposer l’utilisation de Google Docs avec l’autorisation de consulter l’historique des fichiers, afin que les professeurs puissent voir si les étudiants ont simplement copié et collé un texte généré par l’IA.

Après tout, pourquoi devrions-nous interdire ChatGPT ? Certains ont affirmé qu’il s’agissait simplement d’un outil — quelque chose comme une calculatrice, « mais pour l’écriture ».

C.W. howell

Mais ces approches posent de nombreux problèmes. L’un d’eux est le temps considérable que cela représente pour chaque enseignant. Vérifier les sources prend déjà beaucoup de temps, mais imaginez qu’il faille en plus vérifier l’historique des versions de chaque essai ! Ajoutez à cela la difficulté de lire des rédactions manuscrites à une époque numérique où la calligraphie est moribonde, et la charge de travail, même pour un simple devoir, devient incontrôlable. En outre, la plupart des professeurs ont trop d’étudiants pour organiser des examens oraux de manière raisonnable. Cela pourrait fonctionner dans le cadre du système de tutorat de l’université d’Oxford, mais cela ne fonctionnerait pas dans une université d’État américaine de type Big Tech ; sans parler du fait qu’avec le recours croissant à des professeurs précaires dans l’enseignement supérieur3, la charge de ce contrôle supplémentaire pèsera de manière disproportionnée sur des employés déjà sous-payés et surchargés de travail (je ne le sais que trop bien — étant moi-même professeur associé).

Au-delà de tout cela, il y a la question plus importante de l’objectif de l’éducation. Après tout, pourquoi devrions-nous interdire ChatGPT ? Certains ont affirmé qu’il s’agissait simplement d’un outil — quelque chose comme une calculatrice, « mais pour l’écriture »4. L’interdire, selon ce point de vue, ne ferait qu’entraver les étudiants qui ont besoin de comprendre le fonctionnement de cette technologie pour être compétitifs sur le marché du travail. Si l’objectif de l’école est de « gagner sa vie », l’interdiction des technologies extérieures pénaliserait injustement les élèves qui ont besoin d’apprendre à les utiliser pour trouver un emploi et rembourser les dettes que leur éducation leur a noblement léguées. C’est du moins ce que croient la plupart des étudiants et la plupart des administrateurs. Et, pour revenir à l’argument de Postman, il est possible que le simple fait de restreindre les moyens utilisés par les étudiants pour apprendre ne règle pas la question plus importante des fins. Si les étudiants pensent que l’éducation est destinée à la formation professionnelle, l’interdiction des nouvelles technologies ne fera qu’engendrer du ressentiment et de la frustration. Nous devons réfléchir à la situation dans son ensemble, et ce n’est qu’alors que la question des objectifs sera suffisamment traitée — ce qui nous permettra ensuite de revenir à la question des moyens, et à ce que la technologie devrait ou ne devrait pas faire en classe.

*L’interdiction de la technologie ne s’étant pas avérée utile, j’ai tenté une approche différente plus tard dans le semestre. Ironiquement, ce faisant, j’ai mieux réussi à convaincre mes étudiants de l’importance des sciences humaines.

LIRE LA SUITE ICI

https://legrandcontinent.eu/fr/2023/06/23/chatgpt-et-la-crise-existentielle-de-luniversite/

See comments

Le mythe de “l’intelligence artificielle” (I) : La métaphore et la tentation

August 1 2021, 09:37am

Posted by Pierre Lurçat

 

Cet article est le second volet d’un nouveau “feuilleton philosophique”, dans lequel je poursuis la réflexion entamée dans mon livre Seuls dans l’Arche, en analysant les conséquences de la révolution technologique et numérique sur la vie et sur la pensée humaine. P.L

 

Les utopies apparaissent comme bien plus réalisables qu’on ne le croyait autrefois. Et nous nous trouvons actuellement devant une question bien autrement angoissante : comment éviter leur réalisation définitive? Peut-être un siècle nouveau commence-t-il, un siècle où les intellectuels rêveront aux moyens d’éviter les utopies et de retourner à une société non utopique, moins “parfaite” et plus libre.

Nicolas Berdiaeff

 

L’intelligence artificielle, avant d’être un projet économique, technologique, voire philosophique, est avant tout une métaphore. A ce titre, elle n’a rien de foncièrement nouveau. Ce que l’écrivain Éric Sadin décrit comme le “”Veau d’or de notre temps” n’est en effet qu’une remise au goût du jour d’un mythe aussi ancien que l’humanité. De tous temps, l’homme a rêvé d’accéder à une condition surhumaine, de devenir l’égal des Dieux, ou d’être immortel… Et de tous temps, il a aussi imaginé de confier à des créatures non humaines - démons ou robots - une partie de ses attributs, croyant échapper ainsi à sa condition humaine. Le robot est certes une invention récente, qui a tout juste un siècle, mais le concept auquel il renvoie est bien plus ancien. 

 

D’où vient l’engouement actuel pour l’idée d’intelligence artificielle, et quelle est la signification profonde du projet sur lequel elle se fonde? Pour le comprendre; revenons à l’idée de métaphore d’où nous sommes partis, en gardant à l’esprit la notion de l’humain. La philosophie occidentale a longtemps hésité entre deux définitions de l’homme : celle d’être pensant, et celle d’être moral. Même lorsqu’elle a choisi la première - devenue prédominante au moins depuis Descartes - elle n’a jamais oublié la seconde. Ou pour dire les choses autrement : elle a toujours su que le savoir qui donne à l’homme son caractère spécial et éminent n’est pas seulement celui de la pensée calculante, mais aussi celui de la pensée capable de choisir entre le bien et le mal. Celui qui a le mieux exprimé cette complémentarité était le grand humaniste de la Renaissance, Rabelais, par sa fameuse maxime, “science sans conscience n’est que ruine de l’âme”.

 

Rabelais

 

Mais l’histoire de la philosophie occidentale est aussi celle de l’oubli progressif de cette vérité fondamentale et de la tentation permanente de définir l’homme uniquement comme “être pensant”, en oubliant qu’il est aussi (et peut-être surtout) “être agissant”, sommé à chaque instant de faire des choix, et donc de recourir à sa conscience morale. En quoi cela concerne-t-il la question de l’intelligence artificielle? Celle-ci, nous l’avons dit, est essentiellement une métaphore. Dire qu’un robot ou qu’un ordinateur est “intelligent” n’est pas plus exact que de qualifier un appareil photo ou un instrument de musique de “sensible”. L’intelligence et la sensibilité sont des qualités de l’homme et non des choses.

 

Nul ne prétendra sérieusement qu’un appareil photo ou qu’un piano possède une sensibilité au même titre qu’un être humain. Dire qu’il est “sensible” est  un anthropomorphisme et une pure métaphore, qu’on peut filer à l’avenant, sans être dupe de son caractère de figure de style. Un musicien pourra ainsi parler avec amour de son violon et des qualités qu’il lui attribue, en sachant parfaitement qu’il ne s’agit en fin de compte que d’un outil en bois savamment construit. En quoi l’ordinateur “intelligent” est-il différent du violon “sensible”? Il l’est précisément parce que nous avons tendance à oublier, dans son cas seulement, qu’il s’agit d’une métaphore. A force d’entendre parler jour après jour de l’intelligence artificielle et de ses avancées phénoménales, nous avons fini par oublier qu’il s’agissait d’une simple métaphore et que l’ordinateur ne deviendrait jamais “intelligent”, au même titre qu’un appareil photo - aussi sensible fut-il - n’aura jamais de sentiments.

 

Un “violon sensible” : Ivry Gitlis

 

 

Mais la question essentielle - et souvent éludée, y compris parmi les critiques les plus lucides de “l’intelligence artificielle” - est celle de comprendre comment nous avons pu prendre au sérieux cette métaphore. La réponse, explique Éric Sadin, tient largement au “tour de passe-passe” et à “l’appareillage verbal enjoliveur” dont se sont parés les thuriféraires de l’AI, pour mieux promouvoir leur projet technologique et idéologique, en  empruntant pour décrire les mécanismes de celle-ci le vocabulaire des sciences cognitives. Plus encore qu’un abus de langage et qu’une entreprise de marketing idéologique, il y a ici une confusion logique, dont on peut facilement démonter l’erreur de départ. Si, en effet, on définit le cerveau et l’intelligence humaine uniquement comme une machine à calculer, alors effectivement, un ordinateur est intelligent…

 

La notion “d’intelligence artificielle” repose entièrement sur cette erreur volontaire de définition, qui nous fait prendre pour leur quintessence ce qui n’est qu’un aspect étroit et très parcellaire de l’intelligence et de l’esprit humain. L’histoire récente de l’informatique - et en particulier celle de la cybernétique, discipline considérée comme l’ancêtre de l’IA - illustre bien cette erreur de vocabulaire. Dans un article publié en 1943, deux chercheurs américains affirmaient que le “cerveau représente une belle machine” dont ils entreprenaient de décrire le fonctionnement, en posant les jalons de la “science générale du fonctionnement de l’esprit” qui allait être développée lors des fameuses “conférences Macy” de New-York, entre 1946 et 1953.

 

 

Toute l’histoire de l’IA est celle d’une tentative de copier l’humain à travers des machines dites “intelligentes”, dotée d’organes effecteurs et d’organes sensoriels censés reproduire la morphologie humaine, correspondant ainsi à un “être vivant dans sa totalité”, selon l’affirmation du fondateur de la cybernétique, Norbert Wiener. Mais prétendre qu’une machine, aussi perfectionnée fut-elle, reproduise la “totalité de l’être vivant” est aussi chimérique que de construire un avion volant comme un oiseau, ou de transformer un robot en être humain. (à suivre...)

Pierre Lurçat

 

_____________________________________________________________________

”Un formidable parcours philosophique… Une méditation sur le sens de nos vies”. 

Marc Brzustowski, Menorah.info

“Une réflexion profonde sur des questions essentielles, comme celle du rapport de l'homme au monde et la place de la parole d'Israël”.

Emmanuelle Adda, KAN / RCJ

“Une analyse claire et percutante  de la définition de l’humain dans le monde actuel”

Maryline Médioni, Lemondejuif.info

 

 

En vente dans les librairies françaises d’Israël et sur Amazon.

 

See comments