Do not follow this hidden link or you will be blocked from this website !

DR
DR
Flux d'actualités

ChatGPT, Socrate et moi

Le robot conversationnel ChatGPT suscite autant de fantasmes que d'inquiétudes légitimes. Qu’aurait pensé Socrate de cette intelligence artificielle, lui qui refusait d’écrire ? 

Le fait d’écrire et d’engranger des connaissances est consubstantiel à l’humain. Mais voilà désormais que tout le monde se prend de passion pour l’outil conversationnel ChatGPT (Generative Pre-trained Transformer), avec le désir et l’angoisse que les « intelligences artificielles » (IA) puissent en savoir plus que les humains. Comme s’il était inéluctable que nous allions massivement basculer dans l’univers de l’automatisation généralisée de notre vie cognitive, politique ou sociale. Ce que permet ce système d’IA est en effet très séduisant, dans une société où l’impatience tend à devenir la norme : sa principale fonction étant de générer du texte pour répondre aux requêtes de tout un chacun, les plus sérieuses comme les plus saugrenues.

Cette machine textuelle repose sur un pouvoir essentiellement quantitatif, un peu comme une pêche industrielle, les eaux profondes étant désormais celles d’Internet, avec des algorithmes agissant de manière tout aussi massive qu’indistincte. En traitant une somme considérable de données et de connaissances disponibles sur la toile, cet instrument aboutit à une forme textuelle assez convaincante. Mais le débat à l’égard d’un tel outil pose plus de questions sur ce qui définit notre humanité que sur la perspective d’un grand remplacement de l’humain par des machines.

En cédant trop vite à cette peur, on s’inquiète par exemple de ne plus pouvoir distinguer le produit d’une IA de la rédaction d’un élève. On évoque ainsi la possibilité de plagiat dans l’univers de l’apprentissage. L’enjeu n’est toutefois sans doute pas vraiment celui-ci : on apprend et on suit des enseignements, non pour accumuler des connaissances à l’infini, mais pour se les approprier subjectivement et s’ouvrir à de nouveaux horizons de sens ; non dans le but d’être plus performant d’un point de vue utilitaire et informationnel, mais pour élargir nos modes de perception, dans un dialogue suivi avec un enseignant, certes détenteur d’un savoir, mais surtout à même de faire accoucher ses élèves de leurs idées. Qu’aurait pensé Socrate d’un tel outil, lui qui allait jusqu’à refuser d’écrire, car un livre ne peut répondre quand on l’interroge ? Il y préférait l’incertitude du dialogue oral, vivant, imparfait et créateur, parce que terriblement humain.

Les innovations technologiques nous invitent tout d’abord à réfléchir aux problèmes liés au déferlement des modèles d’innovation et des monopoles industriels et financiers qui les alimentent souvent (celui de l’entreprise OpenAI, en l’occurrence). Ensuite, en devenant des sources potentielles de textes rédigés comme une dissertation, elles nous mettent au défi de créer des modes d’appréhension analytiques de ces sources, tout en nous invitant à repenser les formes culturelles de l’évaluation de nos élèves. Elles nous incitent aussi à rappeler la dimension collective des savoirs, la place conférée à la complexité et à la subtilité des points de vue, à l’art de la controverse et de l’interprétation. Nos compétences humaines reposent sur une capacité à situer des connaissances dans un contexte donné, à créer, commenter et interpréter. À cet égard, si ChatGPT est rarement pris en défaut sur sa maîtrise de la langue et si l’intelligence artificielle fait preuve de capacités étonnantes d’adaptation au fil des conversations, le générateur de texte peine à décrire son processus d’écriture en rendant visibles ses sources. Dans le cadre décontracté d’une conversation instantanée, le « non-dit » que constitue l’absence des sources est le fait le plus problématique, car il induit que ces dernières sont dispensables ou qu’elles sont à la charge du lecteur. Or la capacité à observer en soi-même la formation et la pondération des arguments (notre faculté de métacognition), est essentielle à la production et l’appropriation des connaissances. En se soustrayant à cette nécessité – par choix de ses concepteurs ou par difficulté à naviguer dans sa propre boîte noire algorithmique –, ChatGPT nous renvoie à notre propre éthique de lecteur. Il nous revient ainsi la tâche de questionner et de vérifier la véracité des propos tenus par la machine avant d’en faire usage. Puis, il ne faudrait pas oublier qu’au fond, l’usage même de ce robot conversationnel d’avant-garde pourrait devenir le reflet de notre solitude dans le monde numérique. On l’interroge, on attend une réponse, curieux des mots qu’il va produire, mais cela ne reste qu’un artifice, un autre sans altérité. On crée l’illusion d’une conversation, on finit par y croire, mais on reste seul dans un vide de la pensée sur lequel on plaque du sens. Pour autant, cela reste un « outil », qui n’a pas encore livré tous ses secrets et dont il nous appartient de préciser les usages.

Redoublons donc d’efforts pour interagir en connaissance de cause avec ChatGPT, en apprenant à ouvrir les boîtes noires que sont encore trop nos outils numériques, en les comprenant comme des enjeux de culture à part entière, fruits d’une histoire longue qui déborde celle de l’intelligence artificielle. C’est une telle exigence d’historicisation et d’interprétation qui nous permettra de ne pas céder au fantasme selon lequel les technologies seraient capables de tout, en particulier de remplacer l’humain dans sa complexité.

Olaf Avenati

Designer graphique et numérique, enseignant à l’École supérieure d’art et de design de Reims et chercheur associé au Cluster of Excellence Matters of Activity. Image Space Material (université Humboldt, Berlin), il a notamment dirigé, avec Pierre-Antoine Chardel, Datalogie. Formes et imaginaires du numérique (Loco, 2016) et, avec Armen Khatchatourov, Pierre-Antoine Chardel et Isabelle Queval, Corp

Pierre-Antoine Chardel

Philosophe et sociologue, professeur à l’école de management de l’Institut Mines-Télécom (IMT-BS) et à Télécom Sud-Paris – Institut polytechnique de Paris, chercheur au Laboratoire d’anthropologie politique (UMR 8177, CNRS/EHESS), il a notamment publié L’empire du signal. De l’écrit aux écrans (CNRS Éditions, 2020) et Socio-philosophie des technologies numériques (Presses des Mines, 2022).…

Elsa Godart

Philosophe et psychanalyste, habilitée à diriger des recherches et responsable du diplôme universitaire « Éthique & numérique » de l’université Gustave Eiffel, elle a notamment publié Éthique de la sincérité. Survivre à l’ère du mensonge (Armand Colin, 2020) et Métamorphoses des subjectivités (Hermann, 2020).…

Éric Guichard

Philosophe et anthropologue du numérique, maître de conférences à l’École nationale supérieure des sciences de l’information et des bibliothèques, chercheur au laboratoire Triangle (UMR 5206, CNRS/ENS de Lyon/université de Lyon 2/ Sciences Po Lyon), il a notamment dirigé Écritures. Sur les traces de Jack Goody (Presses de l’Enssib, 2012) et « Cartographie et visualisation » (Études digitales, n°…

Mara Magda Maftei

Critique littéraire et essayiste, professeure à l’université de Bucarest, chercheure associée du Laboratoire d’anthropologie politique (UMR 8177, CNRS/EHESS), où elle co-anime les rencontres « Formes de vie post-humaine. Perspectives critiques et socio-philosophiques », elle a notamment publié Fictions posthumanistes. Représentations littéraires et critiques du transhumanisme (Hermann, 2022). …