Tribune rédigée par Olaf Avenati, Pierre-Antoine Chardel, Elsa Godart, Eric Guichard, Mara Magda Maftei. Reprise depuis la revue Esprit.

Le fait d’écrire et d’engranger des connaissances est consubstantiel au fait humain. Mais voilà désormais que tout le monde se prend de passion pour l’outil conversationnel ChatGPT, avec le désir et l’angoisse que les « intelligences artificielles » puissent en savoir plus que les humains. Comme s’il était inéluctable que nous allions massivement basculer dans l’univers de l’automatisation généralisée de notre vie cognitive, politique ou sociale. Ce que permet ce système d’IA est, en effet, très séduisant dans une société où l’impatience tend à devenir la norme : sa principale fonction étant de générer du texte pour répondre aux requêtes de tout un chacun, les plus sérieuses comme les plus saugrenues.

Cette machine textuelle repose sur un pouvoir essentiellement quantitatif, un peu comme une pêche industrielle et massive, les eaux profondes étant désormais celles du web, avec des algorithmes agissant de manière tout aussi profonde qu’indistincte. En traitant une somme considérable de données et de connaissances disponibles sur la toile, cet instrument aboutit à une forme textuelle assez convaincante. Mais le débat à l’égard d’un tel outil pose plus de questions sur notre humanité, sur ce qui la définit, et moins sur la perspective d’un grand remplacement de l’humain par des machines.

En cédant trop vite à cette peur, on s’inquiète par exemple de ne plus pouvoir distinguer le produit d’une IA de la rédaction d’un élève. On évoque ainsi la possibilité de plagiat dans l’univers de l’apprentissage. L’enjeu n’est toutefois sans doute pas vraiment celui-ci : on apprend et on suit des enseignements, non pas pour accumuler des connaissances à l’infini, mais pour se les approprier subjectivement et s’ouvrir à des mondes nouveaux, des horizons de sens ; non pas dans le but d’être plus performant en répondant à des exigences purement utilitaires et informationnelles, mais pour élargir nos modes de perception, ceci dans un dialogue suivi avec un enseignant détenteur d’un savoir certes, mais surtout à même de faire accoucher ses élèves de leurs idées. Qu’aurait pensé Socrate d’un tel outil, lui qui allait jusqu’à refuser d’écrire car un livre quand on l’interroge, ne peut répondre ? Il y préférait l’incertitude du dialogue oral, vivant, imparfait, créateur, élévateur parce que terriblement humain.

Les innovations technologiques nous invitent tout d’abord à penser les problèmes liés au déferlement des modèles d’innovation et des monopoles industriels et financiers qui les alimentent souvent (celui de l’entreprise OpenAI en l’occurrence). Ensuite, en devenant des sources potentielles de textes rédigés comme une dissertation, elles nous mettent au défi de créer des modes d’appréhension analytiques de ces sources, tout en nous invitant à repenser les formes culturelles de l’évaluation de nos élèves. Elles nous incitent aussi à rappeler la dimension collective des savoirs, la place conférée à la complexité et à la subtilité des points de vue, à l’art de la controverse et de l’interprétation. Nos compétences humaines reposant sur une capacité à situer des connaissances dans un contexte donné, à pouvoir créer, commenter, interpréter. À cet égard, si ChatGPT est rarement pris en défaut sur sa maîtrise de la langue et si l’IA fait preuve de capacités étonnantes d’adaptation au fil des conversations, le générateur de texte peine à décrire son processus d’écriture en rendant visibles ses sources. Dans le cadre décontracté d’une conversation instantanée, le « non-dit » que constitue l’absence des sources, est le fait le plus problématique car il induit que ces dernières sont dispensables ou qu’elles sont à la charge du lecteur.

Or, la capacité à observer en soi -même la formation et la pondération des arguments (notre faculté de méta-cognition), est essentielle à la production et l’appropriation des connaissances. En se soustrayant à cette nécessité – par choix de ses concepteurs ou par difficulté à naviguer dans sa propre boîte noire algorithmique –, ChatGPT nous renvoie à notre propre éthique de lecteur. Il nous revient la tâche de questionner et de vérifier la véracité des propos tenus par la machine, avant d’en faire usage. Puis, il ne faudrait pas oublier qu’au fond, l’usage même de ce robot conversationnel d’avant-garde, pourrait devenir le reflet de notre solitude interactive. On l’interroge, on attend une réponse, gourmand tout autant que curieux des mots qu’il va produire, mais cela ne reste qu’un artifice, une sorte d’autre mais sans altérité. On crée l’illusion d’une conversation, on finit par y croire, mais on reste seul dans un vide de la pensée sur lequel on plaque du sens. Pour autant, cela reste un « outil » qui n’a pas encore livré tous ses secrets dont il nous appartient de préciser les usages.

Redoublons donc d’efforts pour interagir en connaissance de cause avec ChatGPT, en apprenant à ouvrir les boîtes noires que sont encore trop nos outils numériques, en les comprenant comme des enjeux de culture à part entière, fruits d’une histoire longue qui déborde celle de l’IA. C’est une telle exigence d’historicisation et d’interprétation qui nous permettra de ne pas céder au fantasme selon lequel les technologies seraient capables de tout, en particulier de remplacer l’humain dans sa complexité.

Olaf Avenati, Designer graphique & numérique – École supérieure d’art et de design de Reims
Pierre-Antoine Chardel, Philosophe et sociologue – Institut Mines-Télécom Business School
Elsa Godart, Philosophe et psychanalyste – Université Gustave Eiffel
Eric Guichard, Philosophe et anthropologue du numérique – École nationale supérieure des sciences de l’information et des bibliothèques
Mara Magda Maftei, Critique littéraire et essayiste – Université de Bucarest

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *