«L’intelligence artificielle est un projet néolibéral pour l’enseignement»

15/02/2024 (2024-02-15)

[Source : reporterre.net]

[Illustration : Le gouvernement a prévu de généraliser l’usage de l’IA pour personnaliser les exercices en classe de 2de.
Flickr / CC BY-SA 2.0 Deed / Ecole polytechnique]

La généralisation de l’intelligence artificielle à l’école entraîne un appauvrissement de l’enseignement, en plus d’une empreinte écologique considérable, dénonce l’ancien ingénieur Olivier Lefebvre.

Olivier Lefebvre est chargé de mission transition écologique et sociale à l’Institut national polytechnique de Toulouse, et enseignant, auteur de Lettre aux ingénieurs qui doutent (L’Échappée, 2023).


Par Olivier Lefebvre

À peine plus d’un an après la sortie de ChatGPT, son utilisation s’est déjà largement répandue dans le monde de l’enseignement. Il est devenu banal pour certains enseignants de consulter le chatbot pour produire des sujets d’examens, des syllabus, des rapports d’activité et même des cours. D’innombrables sites internet expliquent déjà comment ChatGPT peut améliorer l’efficacité de la pédagogie. Son interdiction à Sciences Po Paris stipule d’ailleurs expressément qu’elle s’applique, « à l’exception d’un usage pédagogique encadré par une enseignante ou un enseignant ».

Depuis la secousse provoquée par l’explosion des technologies d’intelligence artificielle (IA) génératives, de nombreuses voix se sont élevées pour rappeler les conditions de travail des « travailleurs du clic », alerter sur la disparition de certains métiers pourtant porteurs de sens, s’inquiéter ici ou que la délégation des facultés de juger, de décider et de créer n’engendre une diminution de ces capacités typiquement humaines, critiquer des biais de ces systèmes, qui reflètent les idéologies de leurs concepteurs, questionner l’empreinte environnementale de ces technologies, qui contribuent vraisemblablement à la croissance exponentielle de celle du numérique.

L’IA pour « personnaliser les exercices »

Dans l’enseignement, on a spécifiquement parlé des nouvelles possibilités de triche qui s’offrent aux étudiants et certains ont également critiqué un rapport à la connaissance et à l’apprentissage dégradé par ces technologies.

Comment expliquer alors que le monde de l’enseignement offre si peu de résistance à cette sourde colonisation ? L’une des raisons est que la numérisation de l’enseignement n’est pas un fait nouveau. L’introduction des technologies d’IA s’inscrit en effet dans un vaste mouvement qui a vu au cours des dix dernières années les « plateformes de gestion d’enseignements » (gestion des notes, emplois du temps, devoirs…) se généraliser et un système comme Parcoursup être adopté. Le plan de « choc des savoirs » présenté par Gabriel Attal, alors ministre de l’Éducation, le 5 octobre, va plus loin et prévoit de « généraliser à tous les élèves de 2de l’usage de l’intelligence artificielle pour personnaliser les exercices à la maison en mathématiques et en français » dès la rentrée 2024.

« Un emballement indissociable d’un projet de privatisation de l’enseignement »

Il existe à l’évidence dans les cabinets ministériels un véritable engouement pour ces technologies numériques et d’IA, un techno-enthousiasme qui résonne avec l’esprit de « start-up nation » insufflé par le président de la République.

Cet emballement ministériel pour l’IA et ses promesses d’individualisation des apprentissages est en outre indissociable d’un projet de privatisation de l’enseignement. Il existe une relation entre la dégradation des conditions d’enseignement dans l’éducation nationale et le supérieur, et la promotion enthousiaste des technologies pour l’apprentissage par les ministères. Les technologies d’IA représentent un moyen particulièrement efficace de mettre en œuvre un projet d’inspiration néolibérale dans l’enseignement, dont la réduction des effectifs enseignants n’est que la partie la plus visible. La personnalisation par des algorithmes comme panacée de la pédagogie prolonge le fantasme d’une individualisation totale de l’existence.

Alors qu’on entend parfois ces technologies être qualifiées « d’outils », qu’il s’agirait d’apprendre à utiliser correctement pour se prémunir de leurs éventuels effets indésirables, tout montre au contraire que les effets de la numérisation de l’éducation et de l’intégration de systèmes d’IA au cœur des moyens pédagogiques débordent largement des usages qui en sont faits, fussent-ils bons ou mauvais.

La technologie pilote de manière voilée une transformation sociale profonde et la culture est sommée de s’adapter. Il est par exemple évident que la généralisation de l’utilisation de ChatGPT produit une uniformisation des productions textuelles. Ses arguments consensuels, son style aseptisé et parfaitement « moyen » — jamais brillant mais jamais complètement mauvais pour autant — sont amenés à devenir un standard d’écriture. À chaque fois qu’un enseignant utilise ChatGPT, il contribue à cette standardisation — paradoxe savoureux quand on se rappelle des promesses d’individualisation des contenus. Un texte moyen et insipide devient ainsi progressivement une norme à laquelle tout le monde est tenu de se conformer.

« Une posture de résistance serait sans aucun doute la plus appropriée »

Quelle posture le corps enseignant pourrait-il adopter face à ce que l’on peut incontestablement qualifier, sans risquer d’être taxé de technophobe hystérique, de déferlante ? Une posture de résistance serait sans aucun doute la plus appropriée.

Demander à ce qu’un moratoire soit mis en place, afin de s’interroger sur les transformations que ces technologies produisent sur leur métier, sur la pédagogie, sur les notions même de savoirs et de connaissances.

S’accorder une pause, le temps de résoudre cette forme de dissonance cognitive généralisée qu’on observe entre des analyses globalement sceptiques et des pratiques totalement débridées.

Résister à l’idéologie de l’inéluctabilité qui voudrait que la seule attitude raisonnable soit de s’adapter à ces technologies sous peine de devenir obsolète.

Sortir du « somnambulisme technologique »

Rappeler constamment les problématiques environnementales majeures soulevées par ces technologies. Même si cela reste invisible pour les utilisateurs, leur production et leur usage nécessitent de très grandes quantités d’énergie et de métaux spécifiques, l’extraction de ceux-ci étant extrêmement polluante. Par ailleurs, les effets rebonds font que les gains d’efficacité escomptés ne l’emportent jamais sur la croissance des usages. Il est frappant de constater que les enjeux environnementaux de ces technologies sont totalement absents de la communication ministérielle.

Enfin, même s’il faut se garder de faire peser la responsabilité sur les seuls utilisateurs, la résistance commence sans doute par le fait de refuser d’utiliser ChatGPT et d’autres IA dans son activité professionnelle. Elle consiste également à sortir de cette forme de « somnambulisme technologique » (([1] Expression du philosophe Langdon Winner proposée dans son ouvrage La Baleine et le réacteur paru en 1986.])) et pour cela à ouvrir des espaces de réflexion et de discussion dans les établissements.

Notes

image_pdfPDF A4image_printImprimer

⚠ Les points de vue exprimés dans l’article ne sont pas nécessairement partagés par les (autres) auteurs et contributeurs du site Nouveau Monde.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *