Utiliser l'IA pour ressusciter Socrate ? Entretien avec Marion Carré
Face à l’essor des intelligences artificielles génératives, nombre de penseurs prennent position, les uns pour, les autres contre. Dans Le paradoxe du tapis roulant (Éditions JC Lattès, en librairie le 10 septembre), un essai où se croisent réflexion technique, approche pédagogique, références critiques et expériences personnelles, Marion Carré ne propose pas une réponse définitive à cette question schématique mais analyse les usages de cette technologie qu’elle compare à un tapis roulant : s’il est possible de se laisser porter par l’IA, aux côtés de tous ceux qui ont renoncé à penser par eux-mêmes, il est également possible de le prendre comme un tapis de course, un moyen de soumettre notre esprit à des exercices exigeants et salvateurs. Entretien.
Marion Carré, vous êtes entrepreneure, enseignante, conférencière, auteure et artiste. Vous avez co-fondé en 2017 Ask Mona, une entreprise qui mobilise l'IA pour améliorer l'accès à la culture et qui collabore notamment avec le Louvre, le Centre Pompidou et le Colisée. Vous avez été nommé en 2023 partie du Comité Stratégique de l'IA Générative pour le secteur culturel nommé par la Ministre et donnez depuis 2019 un cours sur l’art et l’IA à Science Po Paris.
Vous mobilisez la métaphore du tapis roulant pour interroger notre rapport à l’effort intellectuel : tout comme les machines ont allégé notre travail physique, l’IA pourrait nous dispenser d’un effort mental, au risque de créer une dépendance intellectuelle et d’uniformiser nos raisonnements. Toutefois, et c’est, il me semble, le premier point d’importance du livre, les machines ne nous ont pas dispensé de pratiquer une activité physique pour des questions d’hygiène. À une époque où la plupart des adultes travaillent assis derrière un bureau, l’effort physique est valorisé et intégré comme contribuant à la qualité de vie. Votre livre repose sur un parallèle entre l’essor de l’IA et l’essor des machines ; bien que l’IA nous soulage d’un certain nombre de tâches cognitives, nous avons besoin d’exercice mental au même titre que nous avons besoin d’exercice physique, pour notre hygiène et notre qualité de vie.
Comment transmettre cette idée d’une hygiène intellectuelle ? D’un exercice volontaire de la pensée qui ne soit pas purement utilitaire, mais perçu comme une nécessité vitale, esthétique, voire joyeuse ? Peut-on faire aimer l’idée de réfléchir comme on apprend à aimer transpirer ?
Marion Carré - J’ai choisi la métaphore du tapis roulant parce qu’elle condense une tension centrale de notre époque. Je crois que nous sommes à la croisée des chemins : allons-nous nous laisser porter par la technologie, ou allons-nous la mettre au service de notre propre vitalité intellectuelle ? Il ne s’agit pas de juger la technologie en soi, mais de comprendre les usages qu’on en fait. Le paradoxe, c’est que plus une technologie devient performante, plus elle rend tentante la délégation – y compris pour des tâches qui, bien qu’ingrates, sont souvent formatrices.
Ce que je propose, ce n’est pas une posture de refus mais une forme de discernement : il faut apprendre à identifier les tâches que l’on peut confier à l’IA sans s’appauvrir, et celles que l’on devrait précisément conserver parce qu’elles sont source d’apprentissage, même si elles sont laborieuses ou répétitives. C’est d’autant plus vrai dans le monde professionnel, où les juniors sont souvent assignés à des tâches fastidieuses mais qui sont également formatrices. Remettre cela entre les mains d’une IA, ce serait peut-être gagner en efficacité, mais perdre en transmission.
J’aime bien parler d’un “ping-pong de la pensée”. L’IA, si on s’en sert bien, peut nous renvoyer la balle, nous forcer à clarifier, à reformuler, à nuancer. Elle peut être plus exigeante qu’un collègue qui n’ose pas nous contredire. Mais pour cela, il faut qu’on reste aux commandes. Il faut conserver ce que j’appelle le premier et le dernier kilomètre : c’est à nous de formuler la question, de cadrer le problème, et c’est à nous d’assumer, in fine, la réponse. Ce que produit l’IA ne peut jamais être dissocié de notre propre responsabilité intellectuelle.
Ce goût de l’effort ne se joue pas seulement dans nos vies personnelles, il concerne aussi le cadre éducatif. Jean-Gabriel Ganascia, un des plus grands spécialistes européens de l’IA, avance, dans un entretien pour PageÉduc’ (https://www.page-educ.fr/article/pour-une-education-aux-humanites-numeriques-entretien-avec-jean-gabriel-ganascia) que notre système scolaire fondé sur la performance — et le contrôle continu — incite rationnellement les élèves à l’usage des IA génératives. Il suffirait, selon lui, de remettre l’apprentissage au centre pour en marginaliser les usages opportunistes.
Dans la continuité de votre réflexion sur l’effort, comment transmettre le goût de l’apprentissage, du tâtonnement, de l’inconfort intellectuel — plutôt que celui de la réussite de l’exercice ?
M.C. - Là où je rejoins Jean-Gabriel Ganascia, c’est qu’il y a un enjeu de changement de paradigme dans l’évaluation mais également dans les modalités d’apprentissage. Les élèves sont mécaniquement poussés à chercher des raccourcis pour avoir de meilleures notes, et l’IA devient alors l’outil idéal pour “optimiser” le résultat, même si cela se fait au détriment du cheminement. Pour redonner sens à l’apprentissage, il faut revoir nos méthodes d’évaluation et notre relation à la connaissance ; valoriser le cheminement plutôt que le résultat.
Beaucoup d’enseignants me confient leur désarroi : ils se retrouvent face à des copies impeccables, parfois rédigées par IA, mais lorsqu’ils interrogent ces mêmes élèves à l’oral, ils constatent que les connaissances n’ont pas été assimilées. L’illusion de la réussite est là, mais l’apprentissage n’a pas eu lieu. C’est exactement ce paradoxe que nous devons affronter. Dans mon cours à Science Po, nous avons complètement changé de perspective ces dernières années. Nous n’évaluons plus un essai final - le fameux devoir sur table - mais la conversation avec l’outil. Je ne demande pas aux étudiants de produire un texte parfait mais de dialoguer avec l’outil, de lui soumettre leurs idées. Je les évalue non sur le produit fini, mais sur la manière dont ils ont mené ce dialogue : comment ont-ils enrichi l’IA de leurs propres connaissances, comment ont-ils accueilli et critiqué ses suggestions ? C’est là que se joue aujourd’hui la véritable compétence : dans la capacité à garder un cap dans un raisonnement, à s’approprier ce que propose la machine au lieu de s’y dissoudre.
Par exemple, avec Ask Mona, nous avons conçu un outil qui accompagne un manuel parascolaire. L’idée n’était pas de remplacer le livre ou l’enseignant, mais d’offrir à l’élève un “compagnon de révision” capable de poser des questions, de reformuler, de pointer les passages à relire. Autrement dit, d’installer une dynamique d’interaction qui stimule plutôt qu’elle n’assiste passivement. Ce genre d’outils ne doit pas prendre l’élève par la main en lui donnant directement les réponses, mais au contraire l’inciter à penser, à reformuler, à tester sa compréhension.
En réalité, l’enjeu dépasse l’école : c’est une question d’autonomie intellectuelle. Plus nous confions à l’IA des tâches cognitives, plus nous risquons de perdre l’habitude – et donc la capacité – de les exercer nous-mêmes. Plutôt que de rejeter ces outils, il s’agit de les utiliser de façon à préserver notre autonomie intellectuelle. Si nous n’apprenons pas à cultiver cette autonomie dès maintenant, nous risquons de créer une génération parfaitement performante sur le papier, mais profondément fragile dès qu’il s’agit de réfléchir sans assistance.
Vous évoquez justement vos cours à Sciences Po, dans lesquels vous formez au prompt - c’est-à-dire au dialogue avec l’interface d’une IA générative. Vous expliquez que ces interfaces, codées pour toujours faire un peu plus que satisfaire la demande de l’utilisateur, influencent et transforment les demandes jusqu’à dévier le propos original. Vous écrivez qu’une part importante de vos étudiants se laissent influencer par les suggestions de l’IA et privilégient les idées qu’elle propose aux leurs propres. Vous identifiez deux raisons à cette tendance à se laisser influencer, la paresse et la présomption d’infériorité de l’homme face aux machines, ce que Gunther Anders appellerait honte prométhéenne. Pouvez-vous détailler ces deux raisons et donner les astuces que vous donnez à vos étudiants pour ne pas se laisser mal influencer par l’outil ?
M.C. - Il faut d’abord rappeler que ces biais sont doubles : il y a les biais des machines et les biais des humains. Du côté humain, on retrouve le biais d’automatisation : nous avons tendance à présumer qu’une machine sait mieux que nous, simplement parce qu’elle est rapide, qu’elle a accès à une masse de données. Cette croyance est puissante, et plus on doute de soi, plus on a tendance à survaloriser ce que dit l’IA.
Mais l’excès inverse existe aussi. Certains refusent systématiquement toute réponse de l’IA, même quand elle est pertinente : c’est ce qu’on appelle l’aversion algorithmique. Entre la paresse algorithmique et l’aversion algorithmique, il y a une voie médiane qu’il faut apprendre à tenir.
Du côté des IA, les biais sont tout aussi réels : tendance à la flagornerie (« vous avez raison » ont tendance à nous dire les agents conversationnels), production de consensus, alignement sur des formulations polies ou rassurantes. Cela encourage nos propres travers. Si l’on n’en est pas conscient, on risque de se laisser porter et de perdre progressivement l’habitude d’interroger, de nuancer.
C’est un véritable enjeu. Il ne faut pas céder à la paresse ou aux reformulations proposées par l’outil si elles ne nous conviennent pas tout à fait. Cela s’applique aussi à la rédaction de ce livre : quand je demandais à l’IA de corriger mon texte, elle pouvait reformuler et pousser certaines idées, en abandonner d’autres. Il fallait que je sois constamment vigilante.
Pour continuer à creuser cette question de la dépendance, je voudrais m’arrêter sur une référence que vous sollicitez dans le livre, La Convivialité d’Ivan Illich. Dans cet ouvrage, Illich montre comment certaines infrastructures technologiques – comme la voiture – façonnent nos villes, nos usages, nos rythmes de vie, jusqu’à se rendre indispensables. Depuis que nous pouvons parcourir de grandes distances extrêmement rapidement, nous avons étendu nos villes, au point de nous rendre dépendant de la voiture pour circuler. À Houston au Texas, écrivez-vous, la marche, qui est pourtant le mode de déplacement le plus naturel, est totalement marginalisée.
À quoi ressemblerait une société où l’IA serait devenue structurellement incontournable pour s’informer, produire, apprendre ? Quels seraient les effets concrets d’une telle dépendance généralisée, à la fois dans les institutions et dans les gestes les plus quotidiens ?
Vous évoquez aussi la notion de monopole radical d’Illich, lorsqu’une technologie élimine ou rend obsolètes les autres manières de faire. Cette phagocytose des usages par l’IA s’incarne, à vous lire, dans l’accélération de nos rythmes de travail qui accompagne le gain de temps généré par l’usage de l’IA. Peut-on encore imaginer des poches de résistance technique ?
M.C. - Si on va plus loin, si on met l’IA partout, quelle IA ? Si on a des IA standards partout, cela produit l’effet du tapis roulant. Comment faire pour avoir des IA flexibles, plus souples. Ce qui est intéressant avec Illich, c’est réfléchir au moment où l’on veut utiliser l’IA et au moment où l’on ne le veut pas. Il faut conserver la possibilité de faire ce choix. On doit avoir le choix, et pour ça, des attentes de productivité qui ne soient pas démentielles.
Illich parle de « monopole radical » : le moment où une technologie n’est plus seulement un outil, mais où elle phagocyte toutes les autres manières de faire, jusqu’à rendre impensables les alternatives. La voiture en est un exemple frappant : elle n’a pas seulement remplacé d’autres modes de transport, elle a redessiné nos villes de telle manière qu’il est devenu impossible de s’en passer.
Transposée à l’IA, la questions devient : si nous calquons nos attentes et nos rythmes sur ceux des machines, nous rendons leur usage obligatoire. Si, par exemple, une tâche est attendue à la vitesse de l’IA, aucun humain ne pourra suivre sans elle. Et dès lors, toute possibilité de se passer de l’outil disparaît.
Le risque n’est donc pas seulement d’utiliser l’IA, mais de structurer nos vies, nos institutions et nos relations, notamment professionnelles, à son image. D’imposer un tempo qui n’est pas le nôtre. Cela peut aller très loin, jusque dans nos interactions quotidiennes : j’ai entendu récemment parler d’applications de rencontre qui proposent des premiers messages générés par IA. On externalise alors non plus seulement une tâche professionnelle, mais un geste intime, une part de nous-mêmes.
Le véritable enjeu, c’est de garder le choix. De pouvoir dire : ici oui, ici non. Mais pour garder ce choix, il faut accepter que tout ne soit pas optimisé, que la productivité n’écrase pas la liberté. Sinon, nous nous retrouverons dans une situation analogue à celle des habitants d’Houston : incapables de marcher, même si nous en avions envie.
Illich insiste sur le moment où une technologie devient incontournable, au point de rendre indispensables les alternatives. Mais un autre penseur, Paul Virilio, explique que toute invention s’accompagne de l’invention de son accident ; « Quand on invente le bateau, on invente le naufrage » écrit-il. Vous décrivez l’accident propre à l’IA non comme une catastrophe spectaculaire mais comme un appauvrissement progressif de la pensée, une standardisation des formes et des idées, que vous désignez comme le « fast-food de la pensée ».
Dans ce contexte, penser sans IA, tâtonner, inventer en dehors des modèles prévisibles pourrait devenir un privilège : comme cuisiner sainement, vivre sans voiture ou être mince dans un monde d’abondance, cela signalerait une forme de capital culturel et de liberté d’organisation. La capacité à raisonner pour soi-même ne pourrait-elle pas devenir, demain, un marqueur de distinction sociale ?
M.C. - Oui, le risque existe. L’accident de l’IA, ce n’est pas un grand effondrement visible, c’est une lente uniformisation, une perte de relief. Si nous n’y prêtons pas attention, une majorité pourrait se laisser porter par cet effet tapis roulant, pendant qu’une minorité cultiverait des usages plus exigeants, plus créatifs.
C’est là que le parallèle avec le fast-food me semble pertinent : nous vivons dans un monde où la nourriture industrielle est accessible partout, mais où cuisiner sainement, avoir du temps et des produits de qualité est devenu un luxe. Il pourrait en être de même pour la pensée. Ceux qui auront appris à raisonner par eux-mêmes, à inventer hors des modèles prévisibles, bénéficieront d’un avantage considérable, et cela creusera encore les écarts.
Ne pas reproduire ce qui s’est passé avec Internet ?
M.C. - Oui, il ne faut pas reproduire ce qui s’est passé avec Internet. L’accès massif à l’information n’a pas suffi à réduire les inégalités ; au contraire, ceux qui savaient déjà chercher et trier en ont tiré le plus grand bénéfice alors que les autres se sont noyés dans ce flot d’informations et de distractions. L’enjeu, aujourd’hui, c’est de diffuser très largement une culture de l’usage raisonné de l’IA. Sinon, nous aurons d’un côté une masse de consommateurs de pensée préfabriquée, et de l’autre une élite capable de s’en servir comme d’un outil d’élévation.
Pour lutter contre les problèmes que nous avons évoqué, vous proposez une voie exigeante mais féconde, celle d’un usage socratique de l’IA, qui ne viendrait pas confirmer nos intuitions mais les mettre à l’épreuve. Concrètement, comment favoriser ce type d’interaction ? Qu’écrire au prompt ? Quelle interface, quel environnement technique ou pédagogique utiliser pour cultiver cette forme de mise en marche dialectique ?
M.C. - La première chose, c’est, de changer notre posture. Ne pas attendre de l’IA qu’elle nous donne une réponse toute faite, mais l’interroger comme on interrogerait un contradicteur exigeant. Cela suppose d’apprendre à formuler des prompts qui ne demandent pas « la solution », mais qui ouvrent une discussion : “montre-moi les limites de mon raisonnement”, “prends la position inverse”, “souligne les failles”.
Ensuite, il faut inventer des environnements pédagogiques qui permettent cette mise en pratique. Dans mon cours, comme je l’ai expliqué, je demande aux étudiants d’utiliser l’IA non pas pour produire un essai, mais pour dialoguer, rebondir, enrichir leur propre pensée. Chez Ask Mona, nous avons créé des magnets à l’effigie de personnalités historiques avec lesquelles on peut dialoguer.
Il faut donc voir l’IA comme une boîte à outils. Elle peut aider à produire des contenus pédagogiques, elle devenir un partenaire dialectique et un outil de questionnement. Et pour cela, il faut partager les bonnes pratiques, apprendre collectivement à s’en servir de manière exigeante.
Vous proposez, j’espère que cet entretien l’a montré, une lecture fine des ressorts psychologiques de nos rapports à l’IA : la paresse face à la nécessité de vérifier ; une confiance automatique dans ce qui est bien formulé ; une jouissance paradoxale du renoncement — punitive, dites-vous, à vouloir encore faire soi-même une tâche que la machine pourrait exécuter. Vous insistez sur le fait que ces dynamiques psychiques, souvent minorées, sont au cœur de notre passivité face à la technologie.
Comment peut-on contrer ces ressorts ? Quelles formes de vigilance, individuelle ou collective, peuvent nous aider à résister sans renoncer à l’usage ?
M.C. - Je crois y avoir déjà répondu en filigrane. D’un point de vue personnel, c’est une histoire de posture vis-à-vis de l’IA, ne pas l’envisager ni comme une baguette magique ni comme une malédiction, se poser les questions des limites de l’IA pour s’en servir à bon escient, développer ses compétences pour déléguer sans dépendre ; d’un point de vue collectif, il ne faut pas calquer nos modes de production sur l’IA pour nous laisser la liberté de penser par nous-mêmes, développer des outils d’IA qui nous accompagnent sans nous aliéner.
Cette vigilance semble d’autant plus nécessaire que plusieurs études récentes documentent des effets délétères des IA génératives sur nos activités cérébrales. En bref, ces études montrent que l’utilisation récurrente des IA génératives conduit à une baisse de l’activité métacognitive, un renforcement du biais d’automatisation - c’est-à-dire l’excès de confiance accordée aux assistants automatisés - et une forme de passivité cognitive. Peut-on et, si oui, comment s’extraire de ces effets cognitifs délétères tout en continuant à utiliser l’IA ?
M.C. - On a pensé avec le tapis roulant que le pied allait s’atrophier. Pourtant, on continue bien de marcher. La médiatisation autour de l’étude du MIT a été très forte. Ce que disent ces études, c’est qu’on est poussé à s’appuyer de plus en plus sur ces outils et déléguer. La question n’est pas que l’IA va attaquer le fonctionnement du cerveau humain, elle est qu’à force de ne pas utiliser nos capacités cognitives, on les perd. C’est ce qu’on constate avec le GPS. Je l’explique dans mon livre, les études montrent une moins bonne intelligence de l’espace chez les individus qui utilisent régulièrement le GPS. En continuant à solliciter notre cerveau, on évacue ces risques cognitifs, ce n’est pas plus compliqué. Je le répète, mais la question ce n’est pas la technologie, ce sont les usages.
Pour préparer cet entretien, j’ai lu votre ouvrage, vous ai écouté lors d’une présentation à des libraires, décidé des choses que j’aimerais aborder avec vous - et des choses que je jugeais moins intéressantes pour nos lecteurs. J’ai transmis votre texte avec mes notes sur GPT, ainsi que mes idées de questions ; j’ai corrigé ses propositions une fois, deux fois, trois fois, extrait le document et ajusté à la main. Vous qui enseignez l’usage du prompt, jugez-vous l’exercice réussi ? Les questions que je vous ai posées vous ont-elle semblé pertinentes et pas trop stéréotypées ? Me suis-je extrait de l’effet uniformisant du tapis roulant ?
M.C. - Oui, absolument ! Vous avez conservé le premier et le dernier kilomètres : vous aviez déjà commencé réfléchir à l’entretien avant de faire intervenir l’IA et vous avez jugé l’output par rapport à vos attentes. Le problème est que beaucoup s’appuient sur l’IA sans avoir réfléchi en amont, qu’ils l’utilisent comme premier éclairage. Sans avoir réfléchi en amont, il est beaucoup plus difficile de refuser ou critiquer les propositions de l’outil.
