Aller au contenu
    CERVEAU
    Analyse IA

    IA et cerveau : ce que la science dit vraiment

    Au MIT Media Lab, des chercheurs ont mesuré l’activité cérébrale de personnes en train de rédiger — les unes avec un LLM, les autres à mains nues. Le cerveau du groupe IA travaillait significativement moins. Après quatre mois, l’écart s’était creusé. Ce résultat n’est pas isolé : depuis début 2025, plusieurs études convergent sur ce que l’usage quotidien de l’IA fait à notre façon de penser. Le tableau est plus nuancé que « l’IA nous rend stupides » — et la nuance principale n’est pas celle qu’on attendait.

    Ce qu’on commence à mesurer, c’est un phénomène connu des sciences cognitives sous le nom de décharge cognitive : quand un outil fait le travail à votre place, votre cerveau s’économise. Ainsi, il s’économise sur le calcul avec une calculatrice, sur la navigation avec un GPS et potentiellement sur le raisonnement lui-même avec un LLM. Et contrairement au calcul ou à la navigation, le raisonnement est une compétence qui s’atrophie quand on cesse de l’exercer — comme un muscle.

    Ce qui rend ces études utiles plutôt qu’alarmistes, c’est la nuance centrale qu’elles révèlent : le risque ne vient pas d’utiliser l’IA souvent — il vient de lui faire confiance sans vérifier. C’est la conclusion de l’étude la plus solide menée sur des professionnels, et elle change assez radicalement la façon dont on devrait penser son propre usage.

    319 professionnels, 936 exemples réels — ce que Microsoft Research a mesuré

    L’étude la plus directement parlante pour quiconque utilise l’IA dans son travail a été présentée à CHI 2025 par des chercheurs de Microsoft Research et Carnegie Mellon University. Le protocole : 319 professionnels utilisant un outil d’IA au moins une fois par semaine ont fourni 936 exemples réels de leurs usages au travail, et répondu à des questions précises sur leur engagement cognitif pendant ces tâches.

    Le résultat surprend : ce n’est pas la fréquence d’utilisation qui prédit la baisse de pensée critique. C’est la confiance accordée à l’IA. Les professionnels qui font fortement confiance aux réponses de l’outil vérifient moins, reformulent moins, challengent moins. Ceux qui gardent confiance en leur propre expertise maintiennent leur niveau de raisonnement — même en utilisant l’IA tous les jours. Le problème n’est pas l’outil : c’est la déférence.

    L’étude décrit aussi un glissement dans la nature du travail intellectuel : l’IA déplace l’effort de la production vers la supervision. On passe moins de temps à construire un raisonnement, plus de temps à valider — ou ne pas valider — celui que l’IA propose. Ceux qui n’ont pas le niveau d’expertise pour inspecter et critiquer les outputs finissent par ne plus le faire du tout.

    Confiance en l’IA vs confiance en soi — la variable qui change tout

    Lee et al. (Microsoft Research / CMU, CHI 2025) sur 319 professionnels : une confiance élevée dans l’IA est associée à moins de pensée critique. Une confiance élevée en sa propre compétence est associée à plus de pensée critique — même chez des utilisateurs intensifs. La fréquence d’usage et la dégradation cognitive ne sont donc pas corrélées, mais la déférence inconditionnelle, oui.

    Trois études sur les étudiants — et pourquoi leur convergence compte

    Sur les populations étudiantes, trois études menées indépendamment arrivent à des conclusions qui se renforcent. Elles ne mesurent pas la même chose — ce qui rend leur convergence plus significative que si elles avaient utilisé le même protocole.

    666 participants — une corrélation qui tient

    Publiée en janvier 2025 dans Societies, l’étude du chercheur Michael Gerlich (SBS Swiss Business School) porte sur 666 participants au Royaume-Uni, trois tranches d’âge, niveaux d’éducation variés. Méthode : questionnaires quantitatifs — dont le Halpern Critical Thinking Assessment, un instrument validé — et entretiens. Résultat : corrélation négative significative entre usage fréquent de l’IA et capacités de pensée critique, médiée par la décharge cognitive. Plus l’usage est intensif, moins les participants engagent de réflexion profonde — et moins ils vérifient les informations de manière indépendante.

    Deux variables modèrent cet effet. Les 17-25 ans présentent à la fois la dépendance la plus forte et les scores de pensée critique les plus bas — faute d’un référentiel de raisonnement préalable. À l’inverse, un niveau d’éducation supérieur agit comme facteur protecteur : ceux qui ont appris à raisonner avant d’utiliser l’IA maintiennent leur niveau même en l’utilisant intensivement. L’IA amplifie ce qu’on sait déjà faire. Elle ne remplace pas ce qu’on n’a pas encore appris à faire.

    580 étudiants — le mécanisme enfin précisé

    L’étude de l’Université de Wuhan, publiée en octobre 2025 dans Acta Psychologica, apporte ce que Gerlich ne montrait pas : le mécanisme intermédiaire. Sur 580 étudiants, les chercheurs ont modélisé la chaîne de causalité — et découvert que la dépendance à l’IA n’affecte pas directement la pensée critique. Elle passe d’abord par la fatigue cognitive. Utiliser intensivement l’IA épuise les ressources attentionnelles, ce qui réduit ensuite la capacité à s’engager dans un raisonnement rigoureux.

    Résultat secondaire notable : les étudiants qui savent le mieux évaluer l’information travaillent plus dur pour le faire quand ils utilisent intensivement l’IA. Ils s’épuisent donc davantage que les utilisateurs passifs. La littératie protège la qualité du raisonnement, mais au prix d’un surcoût cognitif réel. Ce n’est pas une raison de moins savoir évaluer l’information — c’est une raison de moins déléguer.

    1 214 jeunes Américains — et ce qu’ils ressentent eux-mêmes

    En mars 2026, la RAND Corporation a publié les résultats d’une enquête menée en décembre 2025 auprès de 1 214 jeunes Américains de 12 à 29 ans, financée par la Gates Foundation. Ce n’est pas une étude expérimentale — les participants déclarent leurs usages et leur ressenti. Mais les chiffres frappent sur deux points.

    L’usage a bondi de 48 % à 62 % en sept mois (mai à décembre 2025), porté surtout par les collégiens et lycéens. En parallèle, 67 % des étudiants estiment que l’IA nuit à leur pensée critique — contre 54 % en début d’année. Les utilisateurs voient le problème. Ils continuent quand même. La RAND appelle ça un « conflit entre commodité et conscience ». C’est peut-être la description la plus honnête de la situation.

    Ce que les scanners cérébraux du MIT ont capturé

    En juin 2025, l’équipe de Nataliya Kosmyna au MIT Media Lab a mesuré l’activité cérébrale de 54 participants en train de rédiger des essais, via électroencéphalographie. Trois groupes : l’un avec ChatGPT, l’un avec un moteur de recherche, l’un sans outil. Quatre sessions sur quatre mois.

    Les mesures EEG montrent une connectivité cérébrale significativement plus faible dans le groupe LLM, nettement plus forte dans le groupe sans outil. Le sentiment d’appropriation des textes produits est aussi le plus bas chez les utilisateurs LLM — en troisième session, la majorité d’entre eux se contentait de copier-coller les outputs avec une édition minimale. Lors de la quatrième session, quand on les a fait passer en mode sans LLM, la sous-activation cérébrale persistait.

    Les limites sont réelles : 54 participants, tâche de laboratoire, preprint non encore soumis à peer review. Des chercheurs ont relevé des inconsistances dans le reporting statistique. Mais c’est la seule étude à mesurer l’activité cérébrale réelle pendant l’usage d’un LLM — et ses résultats s’alignent avec l’ensemble du corpus. Un signal fort. Pas encore un verdict.

    Quand l’usage intensif bascule vers la dépendance

    Deux études publiées en 2025-2026 s’intéressent au comportement lui-même, et à ce qui se passe quand l’usage intense devient structuré.

    Une étude parue en août 2025 dans Cogent Education sur 248 étudiants zimbabwéens révèle que 32,7 % présentent des comportements addictifs dans leur usage de l’IA générative : vérifications compulsives (18,3 interactions quotidiennes en moyenne), tentatives échouées de réduire l’usage (65,8 % des cas), poursuite de l’usage malgré des conséquences académiques négatives reconnues. Les étudiants concernés affichent un GPA inférieur de 0,41 point à leurs pairs non dépendants.

    En janvier 2026, une étude publiée dans Frontiers in Psychology a construit et validé une échelle de la dépendance à l’IA sur 800 étudiants (deux échantillons indépendants de 400). L’AIDep-22 distingue quatre formes : dépendance émotionnelle, fonctionnelle, cognitive et perte de contrôle. La première consiste à utiliser l’IA pour gérer ses états mentaux, la deuxième pour la productivité, la troisième à lui déléguer le raisonnement et la décision. C’est cette dimension cognitive — confier sa pensée à l’outil, pas seulement ses tâches — qui corrèle le plus fortement avec la dégradation des compétences.

    Ce que ces études ne prouvent pas

    Ces résultats convergent — mais ils ne constituent pas un verdict. Quelques limites à garder en tête.

    • Corrélation, pas causalité — la plupart de ces études mesurent un état à un moment donné. Elles ne prouvent pas que l’IA cause la baisse de pensée critique. Les personnes qui pensent moins critiquement pourraient simplement se tourner davantage vers l’IA, et non l’inverse.
    • Des cohortes majoritairement étudiantes — les professionnels expérimentés sont sous-représentés. L’étude Microsoft/CMU est l’exception. Ce que ces phénomènes produisent sur des experts aguerris reste largement à documenter.
    • La dose reste mal définie — plusieurs résultats suggèrent qu’un usage modéré n’a pas d’impact négatif mesurable. Le seuil à partir duquel l’usage devient problématique varie selon les individus, les tâches et les contextes.
    • Aucune étude longue — les travaux disponibles couvrent quelques mois. Les effets sur cinq ou dix ans d’usage quotidien — sur les cerveaux en développement comme sur les professionnels en milieu de carrière — restent une question ouverte.

    Notre avis

    Ce que ces études dessinent ensemble, c’est une carte des risques selon le profil d’usage — et non un procès de l’IA. La variable centrale n’est pas la fréquence : c’est la nature de ce qu’on délègue.

    Utiliser l’IA pour mettre en forme un raisonnement qu’on a déjà construit : neutre, voire utile. Lui déléguer le raisonnement lui-même et valider l’output sans l’évaluer, c’est là que les études documentent un effet. Un professionnel qui sait juger ce que l’outil produit maintient ses compétences — parce qu’il a le référentiel pour évaluer les outputs. Un étudiant qui n’a pas encore ce référentiel risque de ne jamais le construire. Déléguer systématiquement l’effort cognitif supprime précisément ce qui aurait permis de le bâtir.

    La question à se poser régulièrement est simple : est-ce que je pourrais encore faire cette tâche sans l’IA ? Si oui, c’est un levier. Si la réponse est « je ne suis plus certain », la dépendance cognitive que l’AIDep-22 mesure est probablement déjà là. La frontière est mince — et d’après ce que les études mesurent, elle se déplace plus vite qu’on ne le perçoit.

    Dans cette série
    Les deux faces de l’IA

    Ici, on parle de tous les aspects de l’IA. Vous trouverez sur le blog : des articles sur son impact, des guides pour mieux comprendre l’Intelligence Artificielle… Alors, prenez le temps de vous informer.

    Découvrir l’IA
    Mise à jour : 26 avril 2026