Travailler avec l’IA : attention d’un point de vue stratégique

Depuis l’essor des modèles linguistiques à grande échelle (LLM), un discours dominant tend à imposer l’idée selon laquelle travailler avec l’IA ou collaborer avec l’IA, aussi appelée “la bonne façon” de le faire, est non seulement indispensable, mais est tout simplement une condition de survie.

Cette injonction mérite pourtant d’être interrogée, surtout lorsqu’on prend en compte les conséquences cognitives, les enjeux de propriété intellectuelle et les logiques économiques sous-jacentes.

Une étude du MIT qui préoccupe

Le point de départ de ce raisonnement s’appuie sur une étude récente du MIT Media Lab qui tire la sonnette d’alarme. Des participants ont été répartis en trois groupes, l’un écrivant sans aide, un autre utilisant un moteur de recherche classique, et un troisième recourant à un LLM pour rédiger des essais de type SAT. Au bout de plusieurs sessions, les résultats sont sans appel : les utilisateurs d’IA montrent une activité cérébrale significativement réduite, une mémorisation et une créativité amoindries, ainsi qu’un sentiment d’appropriation de leur travail en net recul. D’ailleurs, même lorsqu’on les en détache, leur cognition ne revient pas à son niveau initial, contrairement à ceux qui avaient commencé sans IA puis s’y sont mis — qui, eux, regagnent de l’engagement cognitif.

Ces expériences, bien que préliminaires, sont corroborées par d’autres analyses. On parle notamment de “dette cognitive” : en ayant recours systématique à l’assistant IA, on délègue son effort mental, et les réseaux neuronaux associés à la pensée, la mémoire et la créativité finissent par s’atrophier faute d’être sollicités.

Ceci interpelle : est-ce qu’un savoir-faire que nous pensons maîtriser et renforcer à force d’usage ne pourrait pas, s’éroder ? Le résultat pourrait être une perte à long terme de la capacité à inventer, critiquer, synthétiser.

La « bonne façon » de travailler avec l’IA

Parallèlement à cette dimension cognitive se pose la question du flou autour de la “bonne manière” d’utiliser l’IA. On vante l’IA comme un copilote super efficace, comme un facilitateur de productivité. Mais qui en parle comme d’un outil qui s’entraîne sur notre savoir, sans qu’on en retire nécessairement une contrepartie ?

En réalité, chaque prompt que l’on rédige, chaque instruction ajustée ou correction apportée, contribue à nourrir les LLM publics avec du contenu de très haute qualité, souvent inaccessible dans les bases de données ouvertes. C’est un moyen, pour les entreprises technologiques qui les possèdent, de s’approprier et de « capturer » gratuitement ce savoir.

Cette pratique devient d’autant plus problématique quand on réfléchit à la phase initiale de leur entraînement qui a consisté à piller des contenus en ligne, sans réelle autorisation explicite. Des articles, des forums, des ouvrages parfois protégés ont été scrappés. Anthropic a d’ailleurs accepté de verser 1,5 milliard de dollars pour régler un litige majeur concernant le téléchargement illégal de livres piratés utilisés pour entraîner son modèle Claude (Source : rts.ch)

Tout cela pendant que spécialistes et entreprises, dans les deux dernières décennies, étaient encouragés à produire du contenu (livres blancs, billets de blog, guides, études de cas, etc.) pour démontrer leur expertise et attirer une audience. Ironie : la même visibilité qu’on payait de leur temps, on la redistribue aujourd’hui gratuitement aux géants de la tech, qui la recyclent à grande échelle à travers leurs IA.

Dans ce contexte, on peut estimer que d’une certaine manière, la “bonne pratique” soi-disant collaborative avec un LLM est en somme une stratégie d’extraction déguisée : tu formes le modèle avec ton savoir, et lui gagne des compétences qu’on aurait pu garder pour soi. On devient en quelque sorte complice de sa propre mise en difficulté. Il est vrai qu’il est à présent possible de paramétrer l’usage de ses discussions comme source d’entraînement ou non. Mais combien de personnes le paramètrent dans les faits et quelle certitude quant à la non-exploitation effective ?

Une confiance surestimée dans l’outil

Autre axe d’analyse, la recherche d’Apple sur les capacités de raisonnement des LLM confirme à ce stade les limites profondes de cette technologie. Des chercheurs ont confronté des LLM (et des modèles de raisonnement dits “LRM”) à des puzzles complexes, comme la Tour de Hanoï ou des énigmes de type “river crossing”. Ils ont constaté que si les modèles s’en sortaient pour des niveaux simples, dès que la complexité augmentait, leur performance s’effondrait, au point de décroître totalement. Leur raisonnement interne se raccourcissait, montrant une forme d’abandon cognitif, malgré des ressources de calcul disponibles. Même en leur donnant l’algorithme exact, ils restaient à la traîne. Cela démontre que les LLM ne raisonnent pas comme un humain, mais appliquent des patterns appris, sans véritable abstraction.

Ces constats convergents — cognitif (MIT) et algorithmique (Apple) — nous poussent à repenser radicalement comment nous voulons travailler avec l’IA. Il ne suffit pas d’éviter de lui donner tout le travail, ni de l’utiliser comme un assistant. Il faut garder la main sur l’essentiel : le sens, la décision, le contexte, l’innovation. Le reste, on peut le sous-traiter intelligemment, mais sans nourrir la machine avec l’intégralité de notre savoir-faire.

L’enjeu pour aujourd’hui

L’enjeu est aujourd’hui de défendre un savoir expert, non pas contre l’IA en tant qu’outil, mais contre le narratif naïf (et surtout très bien marketé) selon lequel travailler avec elle équivaut toujours à s’améliorer. Il s’agit de rester lucidement humain, et de ne pas offrir gratuitement ce que l’on sait construire, tout en sauvegardant son esprit critique, sa créativité, et sa mémoire.

Il faut adopter un positionnement stratégique, intentionnel, qui préserve son expertise. Choisir ce que l’on partage avec l’IA, et surtout ce que l’on garde pour soi, c’est à la fois se protéger, se distinguer, et construire un avenir professionnel où l’intelligence humaine reste irremplaçable.

Et vous ? Où en êtes-vous personnellement dans votre travail avec l’IA ? Ou quelle est votre situation en tant qu’organisation ? Contactez-moi pour échanger à ce sujet.

1 réflexion sur “Travailler avec l’IA : attention d’un point de vue stratégique”

  1. FABIENNE GORON

    Très intéressant, merci pour ce regard nouveau pour moi concernant la propriété intellectuelle et les performances de l’IA sur des sujets complexes !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut