Ahmed Messaoudi

Penser contre l'algorithme

Trois axes pour aider les jeunes à construire une relation plus saine au numérique et préserver leur santé mentale.

Penser avec l'IA  ·   ·  3-5 min de lecture

La relation des jeunes au numérique ne se règle ni par le rejet nostalgique ni par une technophilie aveugle. Le chemin est plus exigeant : construire patiemment, collectivement, une autonomie numérique responsable. Ce qui suppose d'agir sur trois fronts simultanément, cognitif, psychologique, social, car le problème est lui-même trois fois plus vaste qu'on ne le mesure d'ordinaire.

Le numérique est un fait social total, au sens de Mauss : il transforme en profondeur les conditions de l'apprentissage, du développement cognitif et de la relation éducative. Il a engendré une anomie caractérisée par une perte des repères traditionnels et des manifestations alarmantes sur la santé mentale, anxiété, dépression, troubles du sommeil, cyberharcèlement, désinformation. Pour y répondre, l'école ne peut pas se contenter de réguler les usages. Elle doit se penser autrement.

Axe 1, Cultiver la pensée critique et l'autonomie intellectuelle

Le premier enjeu est cognitif. L'IA générative tend à homogénéiser la pensée en produisant des réponses qui convergent vers un consensus statistique : la moyenne pondérée de ce qui a déjà été dit, jamais la singularité de ce qui reste à penser. Face à cela, la pédagogie doit devenir un acte de résistance active.

Cela passe d'abord par la métacognition numérique : apprendre aux élèves à se regarder eux-mêmes interagir avec les technologies, à observer leurs propres pratiques et à analyser leurs effets sur leur attention, leur humeur, leurs relations. C'est un recul critique sur leur rapport personnel au numérique, non pas une posture morale, mais une compétence.

L'éducation aux médias et à l'information doit aller au-delà de la simple vérification des sources. L'enjeu est de comprendre comment l'information se construit, comment les algorithmes fonctionnent, comment les biais cognitifs influencent la perception. L'école doit aider à maintenir un rapport stable au réel face à la surinformation.

L'effort intellectuel doit être valorisé face à la facilité apparente de la délégation cognitive. Ce que l'IA gagne en vitesse, l'élève le perd en profondeur.

Il faut aussi enseigner l'épistémologie, les méthodes de la connaissance, pas seulement ses résultats. Apprendre à distinguer corrélation et causalité, à évaluer la fiabilité d'une source, à reconnaître les conditions dans lesquelles un fait scientifique est établi. La remise en cause croissante de la science dans nos environnements numériques n'est pas un phénomène marginal : elle exige une réponse éducative de fond.

Axe 2, Défendre le temps biologique face au temps algorithmique

Le second enjeu est physiologique. Le temps algorithmique est instantané, hyperactif, sans friction. Le temps biologique, celui du sommeil, de la maturation, de l'attention profonde, a ses propres rythmes, incompressibles. Quand les deux entrent en collision, c'est toujours le second qui cède. Et ce sont les jeunes qui en paient le prix.

La dette de sommeil est une crise invisible aux conséquences dévastatrices sur les capacités d'attention, la mémorisation et la régulation émotionnelle. Sensibiliser les élèves et les familles aux enjeux neurobiologiques du sommeil n'est pas accessoire : c'est une condition de l'apprentissage. L'école doit promouvoir des rituels de déconnexion et une hygiène numérique avant le coucher.

Face à la connexion permanente et à la présence absente, être physiquement là, mentalement ailleurs, l'école doit créer délibérément des espaces de déconnexion volontaire. Des zones dédiées, des micro-rituels de transition en début de cours, des temps sans écran institutionnalisés autour d'activités manuelles, de lecture ou de sport. Non pas comme punition, mais comme reconquête.

L'éducation à l'empathie devient urgente à l'heure où l'écran anesthésie la conscience que derrière chaque profil se trouve un être humain. La responsabilité morale s'étend à toutes les interactions, qu'elles soient en présence ou médiatisées. C'est cela qu'il faut apprendre, pas seulement à ne pas harceler, mais à ressentir pourquoi ça compte.

Axe 3, Reconstruire du commun

Le troisième enjeu est social et politique. La personnalisation algorithmique atomise : elle enferme chacun dans une bulle ajustée à ses préférences, et creuse les inégalités entre ceux qui savent décoder ces mécanismes et ceux qui s'y abandonnent. L'école doit affirmer son rôle de lieu de construction d'une solidarité nouvelle.

Cela implique de résister à la tentation d'une personnalisation intégrale de l'enseignement. L'école doit préserver délibérément des espaces d'expérience commune, mêmes contenus, mêmes problématiques partagées, qui transcendent les bulles algorithmiques et maintiennent les conditions du dialogue démocratique.

L'objectif n'est pas de former des utilisateurs efficaces. C'est de former des individus capables de maîtriser leurs outils plutôt que d'être dominés par eux, en cultivant l'autonomie attentionnelle, la pensée libre et la présence authentique.

Il faut aussi repenser les rituels scolaires. Face à la connexion permanente, les anciens rites, qui structuraient la psyché, créaient le sentiment d'appartenance, marquaient les étapes, ont perdu de leur consistance. Il reste à en inventer de nouveaux : des rites de passage numériques qui ritualisent l'entrée dans le monde connecté par des transitions pensées, préparées, accompagnées collectivement.

L'enjeu final est de conserver l'essence de l'apprentissage humain, l'effort, la créativité, l'empathie, la rencontre avec l'altérité, pour intégrer intelligemment les outils numériques. L'école doit être le laboratoire de cette reprise en main éclairée, là où la technologie est mise au service d'un projet éducatif profondément humain.

Cette résistance intellectuelle trouve un prolongement fictionnel dans Le Procès de l'algorithme et dans Sherlock Holmes face à l'IA.

Dans le même esprit

À lire aussi Reconquérir son silence Contre-feux à une vie par procuration et à la dépendance numérique. À lire aussi Yes-man attitude Quand les chatbots valident nos croyances plutôt que de les nuancer. À lire aussi Exploration dialogique Utiliser l'IA pour mettre en mouvement sa propre pensée.

À lire ensuite

L'effet Eliza et les compagnIA →

Pour situer la démarche : Une éthique numérique.