Depuis l’essor des modèles linguistiques à grande échelle (LLM), un discours dominant tend à imposer l’idée selon laquelle collaborer avec l’IA — la “bonne façon” de le faire — est non seulement indispensable, mais salutaire. Pourtant, cette injonction mérite d’être interrogée de fond en comble, surtout lorsqu’on considère les conséquences cognitives, les enjeux de propriété intellectuelle et les logiques économiques sous-jacentes. Comment l’usage — même soi-disant optimal — des LLM peut affaiblir nos capacités cognitives et servir de méthode d’entraînement gratuite pour les propriétaires de ces technologies ?

Une étude du MIT qui préoccupe
La première pierre de ce raisonnement s’appuie sur une étude récente du MIT Media Lab qui tire la sonnette d’alarme. Des participants ont été répartis en trois groupes, l’un écrivant sans aide, un autre utilisant un moteur de recherche classique, et un troisième recourant à un LLM pour rédiger des essais de type SAT. Au bout de plusieurs sessions, les résultats sont sans appel : les utilisateurs d’IA montrent une activité cérébrale significativement réduite, une mémorisation et une créativité amoindries, ainsi qu’un sentiment d’appropriation de leur travail en net recul. D’ailleurs, même lorsqu’on les en détache, leur cognition ne revient pas à son niveau initial, contrairement à ceux qui avaient commencé sans IA puis s’y sont mis — qui, eux, regagnent un peu d’engagement cognitif.
Ces expériences, bien que préliminaires, sont corroborées par d’autres analyses. On parle notamment de “dette cognitive” : en ayant recours systématique à l’assistant IA, on délègue notre effort mental, et les réseaux neuronaux associés à la pensée, la mémoire et la créativité finissent par s’atrophier faute d’être sollicités.
Ceci interpelle : est-ce qu’un savoir-faire que nous pensons maîtriser et renforcer à force d’usage ne pourrait pas, paradoxalement, s’éroder ? Le résultat pourrait être une perte à long terme de capacité à inventer, critiquer, synthétiser.
La « bonne façon » d’utiliser l’IA
Parallèlement à cette dimension cognitive se pose la question du flou autour de la “bonne manière” d’utiliser l’IA. On vante l’IA comme un copilote super efficace, comme un facilitateur de productivité. Mais qui en parle comme d’un outil qui s’entraîne sur notre savoir à nous, expert·e·s, sans qu’on en retire nécessairement une contrepartie ? En réalité, chaque prompt que l’on rédige, chaque instruction ajustée ou correction apportée, contribue à nourrir les LLM publics avec du contenu de très haute qualité, souvent inaccessible dans les bases de données ouvertes. C’est un moyen, pour les entités technologiques qui les possèdent, de s’approprier gratuitement ce savoir.
Cette pratique devient d’autant plus problématique quand on rappelle que la phase initiale de leur entraînement a souvent reposé sur un pillage de contenus en ligne, sans réelle autorisation explicite. Des articles, des forums, des ouvrages parfois protégés ont été scrappés. Cela pendant que spécialistes et entreprises, dans les deux dernières décennies, étaient encouragés à produire du contenu — livres blancs, billets de blog, guides, études de cas — pour démontrer leur expertise et attirer une audience. Ironie : la même visibilité qu’on payait de leur temps, on la redistribue aujourd’hui gratuitement aux géants de la tech, qui la redisent à grande échelle à travers leurs IA.
Dans ce contexte, la “bonne pratique” soi-disant collaborative avec un LLM devient une stratégie d’extraction déguisée : tu formes le modèle avec ton savoir, et lui gagne en compétences que tu aurais pu garder pour toi. Tu deviens en quelque sorte complice de ta propre mise en difficulté.
Une confiance surestimée dans l’outil
Autre axe d’analyse, la recherche d’Apple sur les capacités de raisonnement des LLM confirme les limites profondes de cette technologie. Des chercheurs ont confronté des LLM (et des modèles de raisonnement dits “LRM”) à des puzzles complexes, comme la Tour de Hanoï ou des énigmes de type “river crossing”. Ils ont constaté que si les modèles s’en sortaient pour des niveaux simples, dès que la complexité augmentait, leur performance s’effondrait, au point de décroître totalement. Leur raisonnement interne se raccourcissait, montrant une forme d’abandon cognitif, malgré des ressources de calcul disponibles. Même en leur donnant l’algorithme exact, ils restaient à la traîne. Cela semble démontrer que les LLM ne raisonnent pas comme un humain, mais appliquent plutôt des patterns appris, sans véritable abstraction.
Ces constats convergents — cognitif (MIT) et algorithmique (Apple) — nous poussent à repenser radicalement comment nous voulons travailler avec l’IA. Il ne suffit pas d’éviter de lui donner tout le travail, ni de l’utiliser comme un assistant. Il faut garder la main sur l’essentiel : le sens, la décision, le contexte, l’innovation. Le reste, on peut le sous-traiter intelligemment, mais sans nourrir la machine avec l’intégralité de notre génie.
L’enjeu pour aujourd’hui
L’enjeu est aujourd’hui de défendre un savoir expert, non pas contre l’IA en tant qu’outil, mais contre le narratif naïf selon lequel travailler avec elle équivaut toujours à s’améliorer. Il s’agit de rester lucidement humain, et de ne pas offrir gratuitement ce que l’on sait construire — tout en sauvegardant son esprit critique, sa créativité, sa mémoire. Il est crucial d’adopter un positionnement stratégique, intentionnel, qui préserve son expertise. Choisir ce que l’on partage avec l’IA, et surtout ce que l’on garde pour soi, c’est à la fois se protéger, se distinguer, et construire un avenir professionnel où l’intelligence humaine reste irremplaçable.