IA: quand la pensée critique recule et l’empreinte énergétique explose
L'utilisation de l'IA affaiblit la pensée critique tout en consommant une grande quantité d'énergie. De nouvelles recherches révèlent des préoccupations croissantes concernant la délégation des processus mentaux aux systèmes d'IA, l'empreinte électrique des centres de données, et la montée d'informations fabriquées à des rythmes alarmants.
Délégation cognitive: la pensée critique en retrait
Une étude marquante menée par Microsoft Research et l'Université Carnegie Mellon, portant sur 319 travailleurs du savoir, a révélé que la confiance accrue dans les capacités de l'IA est directement corrélée à une diminution de l'engagement dans la pensée critique. Les chercheurs ont analysé 936 tâches réelles assistées par l'IA et ont mis en évidence la « délégation cognitive » — un phénomène où les utilisateurs délèguent leurs processus mentaux aux systèmes d'IA plutôt que de s'engager dans une analyse indépendante.
D'après l'analyse de Psychology Today de plusieurs études, cette externalisation cognitive a des effets particulièrement sévères sur les étudiants en philosophie, qui surpassent généralement tous les autres cursus dans les tests de raisonnement logique. Les recherches indiquent que 68,9% des étudiants développent une paresse intellectuelle lorsqu'ils s'appuient sur l'orientation de l'IA, manquant ainsi le développement cognitif essentiel qui découle du fait de se confronter à l'incertitude.
« Plus le travailleur avait confiance dans la capacité de l'IA à accomplir la tâche, plus il pouvait sentir qu'il relâchait sa propre attention » — un schéma particulièrement marqué chez les 17–25 ans, avec une utilisation plus forte des outils d’IA et une délégation cognitive accrue, corrélées à des scores plus faibles en pensée critique.
IA et énergie: une empreinte en forte hausse
Selon Goldman Sachs, la consommation énergétique de l’IA propulserait de 50% la demande mondiale en énergie des centres de données entre 2023 et 2027, avec +165% d’ici la fin de la décennie. L’Agence internationale de l’énergie estime qu’à l’horizon 2030, le traitement des données liées à l’IA aux États-Unis nécessitera plus d’électricité que la fabrication de l’acier, du ciment et des produits chimiques réunis.
Déjà, les centres de données consomment environ 4,4% de l’électricité des États-Unis, un chiffre qui pourrait tripler d’ici 2028. La dernière génération de data centers dédiés à l’IA peut consommer 100 MWh ou plus par mois — cinq fois plus que leurs prédécesseurs. L’entraînement d’un seul modèle, comme GPT‑3, aurait consommé près de 1 287 MWh, l’équivalent de l’alimentation d’environ 120 foyers américains moyens pendant un an.
La demande énergétique des data centers grimpe avec l’IA.
Hallucinations et désinformation: un risque systémique
Une étude du Mount Sinai (août 2025) testant six modèles populaires a observé des taux d’hallucination de 50% à 83% en l’absence de gardes‑fous. Le modèle le plus fautif a fabriqué des informations dans plus de 82% des cas, tandis que GPT‑4o a obtenu les meilleurs résultats avec 53% en conditions par défaut.
Même les récents modèles de raisonnement montrent des tendances préoccupantes: les modèles o3 et o4‑mini hallucinent respectivement 33% et 48% du temps lors de résumés d’informations sur des personnes. Parallèlement, le centre de suivi de NewsGuard a identifié plus de 1 271 sites d’actualités générés par IA, opérant avec peu de supervision humaine, publiant des contenus contenant de fausses affirmations.
Des limites intrinsèques aux systèmes actuels
De plus en plus d’analyses suggèrent que ces problèmes ne sont pas temporaires, mais inhérents aux systèmes d’IA actuels. Comme le souligne une étude, « les systèmes d’IA ne peuvent pas faire l’expérience de la surprise intellectuelle », identifiée comme « le fondement de l’apprentissage authentique ». Cette limite devient critique alors que les utilisateurs délèguent à l’IA des tâches de raisonnement de plus en plus complexes.
En bref
- Délégation cognitive accrue, baisse mesurée de la pensée critique
- Empreinte énergétique des data centers en forte accélération
- Hallucinations persistantes et désinformation à grande échelle
- Limites structurelles des modèles actuels face au raisonnement
Sources
- Psychology Today — AI makes us worse thinkers
- American Thinker — Downside of AI
- NSTA — Impact of AI on critical thinking
- PsyPost — Cognitive offloading study
- ACM — Data center energy demand
- AACSB — The great unlearning
- ANSI — Critical thinking and AI
- WEF — AI energy dilemma
- KPMG — Trust, attitudes and use of AI
- SafetyInsights — Systematic review
- NSTA — Think or not to think