Ahmed Messaoudi

Glossaire

A B C D E F J M P R S T

A
Anomie numérique

État de désorientation collective face à l'effacement des repères traditionnels qui structuraient notre rapport au monde. Cette désorientation se manifeste quotidiennement dans nos établissements scolaires : anxiété, dépression, troubles massifs du sommeil, addictions aux écrans… Les professionnels de l'éducation observent l'émergence d'une génération tiraillée entre réel et virtuel, peinant à trouver son équilibre dans cet entre-deux. Cette anomie s'est intensifiée pendant les périodes de confinement, révélant notre vulnérabilité collective face à la perte des rituels et cadres sociaux habituels.

Durkheim (1893) Lire l'essai →
Apprentissage adaptatif (adaptive learning)

Approche éducative qui utilise des algorithmes pour personnaliser les parcours d'apprentissage en fonction des performances, des erreurs et du rythme de progression de chaque élève. Ces technologies reposent sur une vaste banque d'exercices et un algorithme qui construit un parcours personnalisé basé sur un test de niveau initial. Si elles promettent une différenciation pédagogique inaccessible pour un enseignant seul face à 30 élèves, elles risquent aussi de réduire l'apprentissage à ce qui est facilement quantifiable, négligeant les dimensions sociales, émotionnelles et citoyennes de l'éducation.

Autonomie numérique responsable

Capacité à utiliser les technologies de façon réfléchie, critique et créative, en fonction de ses propres besoins, valeurs et objectifs, tout en tenant compte de sa situation concrète dans un réseau d'interdépendances. Cette autonomie, qui va bien au-delà de la simple compétence technique, reconnaît que nos choix numériques individuels s'inscrivent toujours dans un tissu social et écologique plus large, que notre liberté technologique n'a de sens qu'articulée à notre responsabilité envers autrui et envers le monde.

Cordier (2015) Lire l'essai →
B
Biais de lissage (ou convergence vers la moyenne)

Inclination algorithmique consistant à reproduire les structures sémantiques et les idées les plus massivement représentées dans les données d'entraînement. Ce lissage conduit à une uniformisation du discours où l'originalité et la précision technique s'effacent au profit de formulations génériques, dites « phrases valises ». Il en résulte une neutralité fade qui évite toute aspérité intellectuelle, rendant l'analyse interchangeable d'un projet à l'autre.

Boîtes noires

Métaphore désignant les systèmes algorithmiques dont le fonctionnement interne reste opaque et impénétrable pour leurs utilisateurs. Contrairement aux outils traditionnels dont le fonctionnement était visible et compréhensible, ces systèmes opèrent selon des logiques que ni les enseignants ni les élèves ne peuvent véritablement saisir, analyser ou contester. Cette opacité transforme fondamentalement notre relation au savoir et aux outils d'apprentissage, entravant toute possibilité de remise en question ou d'appropriation critique.

CNIL (2017)
Bulles informationnelles (ou chambres d'écho)

Environnement informationnel créé par les algorithmes de recommandation, dans lequel chaque utilisateur ne reçoit que des contenus conformes à ses préférences et croyances préexistantes. La personnalisation, présentée comme un service, produit un isolement épistémique : l'individu dialogue avec ses propres opinions amplifiées, sans exposition aux points de vue divergents nécessaires à la formation d'un jugement informé. Ce mécanisme, décrit par Eli Pariser sous le nom de « filtre-bulle », transforme le réseau en une chambre d'écho où chaque croyance est renforcée, jamais nuancée.

Pariser, The Filter Bubble (2011) Voir aussi : Yes-man attitude →
C
Chartes numériques augmentées

Documents fondamentaux élaborés collectivement qui articulent les principes et valeurs régissant l'ensemble des pratiques technologiques dans une communauté éducative. Contrairement aux chartes traditionnelles souvent réduites à des listes d'interdictions, ces textes définissent un cadre général porteur de sens, explicitant les valeurs et les raisonnements qui fondent les choix normatifs. Ces chartes constituent, au sens fort, des « règles du jeu » technologiques qui expriment une vision partagée de la relation entre technologies et finalités éducatives, entre liberté individuelle et bien commun.

Choc des temporalités

Concept-source qui désigne la collision entre le temps biologique du vivant et le temps algorithmique des systèmes numériques. Dans une salle de classe, un adolescent bute sur un exercice difficile : son cerveau cherche, hésite, revient, mobilise des connexions construites lentement au fil des années. Au même moment, son smartphone l'informe en quelques fractions de seconde qu'une vidéo ou une réponse l'attendent. Cette coexistence de deux rythmes radicalement incompatibles n'est pas un détail, elle révèle une fracture au cœur même de l'acte d'apprendre.

De ce concept procèdent l'anomie numérique, une part du brouillage décrit dans le multivers cognitif, la dépossession du sujet éducatif, et l'exigence d'une autonomie numérique responsable. Tout s'ensuit parce que le temps lui-même n'est plus un arrière-plan neutre : il devient le lieu d'un conflit entre les rythmes nécessaires à la formation humaine et la cadence imposée par les environnements numériques.

Stiegler (2008) Lire l'essai →
CompagnIA

Néologisme désignant les intelligences artificielles conversationnelles conçues pour simuler une relation affective continue avec l'utilisateur, assistants personnels, « amis virtuels », compagnons émotionnels. Ces systèmes exploitent notre disposition biologique à chercher un visage et une intention derrière toute parole pour créer un attachement que leurs concepteurs savent mesurer et optimiser. L'assistant My AI de Snapchat compte environ 150 millions d'utilisateurs, Replika 25 millions et Xiaoice 660 millions. 33 % des adolescents interrogés y recherchent des interactions sociales ou romantiques.

Les compagnIA posent un défi pédagogique majeur : elles risquent d'altérer la capacité des jeunes à développer des relations interpersonnelles réelles, imparfaites et biologiquement exigeantes. Elles ne sont pas des outils thérapeutiques et peuvent aggraver anxiété et dépendance émotionnelle.

APA (2023) ; Kosmyna et al., MIT Media Lab (2025) Lire l'essai : L'effet Eliza et les compagnIA →
Cyberharcèlement

Forme de violence qui, contrairement aux brimades traditionnelles s'arrêtant au portail de l'école, poursuit l'élève jusque dans l'intimité de sa chambre, sans trêve ni refuge. Les mêmes outils censés favoriser le lien social deviennent des instruments de torture psychologique. Ses spécificités, permanence des contenus, viralité potentielle, anonymat relatif, en font un phénomène particulièrement destructeur pour la santé mentale des jeunes.

Cyberviolence

Terme générique désignant toutes les formes de violence exercées par l'intermédiaire des outils numériques : harcèlement en ligne, revenge porn, menaces, humiliations publiques, manipulation affective. La cyberviolence se distingue de la violence ordinaire par l'asymétrie qu'elle instaure entre l'auteur, souvent anonyme ou protégé par la distance, et la victime, exposée à une audience potentiellement illimitée. Elle déborde les frontières de l'école et du domicile, rendant toute notion de « refuge » obsolète.

D
Dépossession du sujet éducatif

Processus insidieux par lequel élèves et enseignants perdent progressivement leur autonomie intellectuelle et leur pouvoir de décision au profit des systèmes algorithmiques. Cette dépossession se manifeste par la délégation croissante de nos fonctions cognitives aux outils numériques, par le transfert de l'évaluation critique aux algorithmes, et par la soumission progressive aux parcours d'apprentissage automatisés. Le paradoxe est frappant : alors que le numérique prétend nous « augmenter », il peut simultanément nous diminuer en atrophiant certaines de nos facultés essentielles.

CNRS, Le Journal (2014) Lire l'essai →
Destruction créatrice

Processus par lequel de nouveaux modèles économiques et sociaux remplacent continuellement les anciens, révolutionnant les structures existantes de l'intérieur. La solidarité organique numérique incarne ce phénomène en déconstruisant certaines pratiques pédagogiques traditionnelles tout en ouvrant des possibilités éducatives inédites. Notre responsabilité collective est d'orienter cette transformation pour qu'elle serve l'émancipation de tous plutôt que d'accentuer les inégalités.

Schumpeter (2023)
Digital natives

Mythe tenace selon lequel les jeunes nés à l'ère numérique posséderaient naturellement les compétences pour naviguer efficacement dans cet environnement technologique. Contrairement à cette idée reçue, les pratiques numériques des jeunes sont souvent limitées, peu réflexives et fortement conditionnées par leur environnement social. Cette conception erronée masque la nécessité d'un véritable apprentissage structuré et d'un accompagnement.

Turkle (2015)
E
Économie de l'attention

Modèle économique dominant dans l'environnement numérique, où l'attention humaine constitue la ressource rare et précieuse que les entreprises se disputent pour la monétiser. Les plateformes numériques sont conçues selon cette logique spécifique, employant des mécanismes sophistiqués, systèmes de recommandation, alertes, récompenses aléatoires, élaborés pour maximiser le temps passé sur les applications. Ce modèle entre directement en conflit avec les finalités éducatives fondamentales comme la concentration profonde et la réflexion critique.

Lire l'essai →
Effet Eliza

Tendance à attribuer des intentions, de la compréhension et de l'empathie à des programmes informatiques qui n'en ont pas. Le premier chatbot ELIZA, créé par Joseph Weizenbaum en 1966, surprenait déjà ses utilisateurs qui pensaient dialoguer avec un psychologue, alors que le programme se contentait de reformuler leurs phrases. Les IA génératives actuelles renforcent cette illusion en associant des mots sans comprendre, en simulant la continuité et l'intérêt pour l'autre. Cette disposition anthropomorphique, biologiquement ancrée, est aujourd'hui exploitée à échelle industrielle.

Lire l'essai →
Effet rebond

Phénomène par lequel les gains d'efficacité supposés des technologies numériques (réduction du papier, limitation des déplacements, optimisation des ressources) sont souvent neutralisés ou dépassés par l'augmentation exponentielle des usages et le renouvellement accéléré des équipements. Le numérique éducatif n'échappe pas à ce paradoxe : chaque innovation censée simplifier ou rationaliser engendre souvent de nouvelles couches de complexité et de nouvelles exigences de consommation.

Empathie anesthésiée

Phénomène par lequel la médiation technique diminue notre capacité naturelle à ressentir la souffrance d'autrui. Des adolescents qui ne supporteraient pas de voir quelqu'un pleurer devant eux peuvent infliger une souffrance terrible à distance, l'écran agissant comme un filtre émotionnel. Cette anesthésie s'explique par l'absence des signaux non-verbaux qui activent notre empathie intuitive, le caractère différé de la communication, les dynamiques de groupe amplificatrices, et la diminution du sentiment de responsabilité personnelle derrière un écran.

Lire l'essai →
Exploration dialogique

Pratique qui consiste à utiliser le dialogue avec un système algorithmique non pas pour obtenir des réponses, mais pour mettre en mouvement sa propre pensée. Elle désigne un usage délibéré du dialogue comme méthode de découverte, découverte de ce qu'on pense, de ce qu'on ignore, de ce qu'on pourrait penser autrement. Elle s'oppose à l'usage passif qui délègue à la machine le soin de conclure.

L'exploration dialogique repose sur une cartographie de sept fonctions cognitives que l'IA peut activer : miroir, friction, prisme, copilote, interlocuteur, oracle et scribe. Chacune correspond à une posture différente et à un risque différent de dépossession. Elle n'a de sens que si elle renforce l'autonomie numérique responsable et engage, par là même, une question de justice cognitive.

Lire l'essai →
F
Fait social total

Le numérique n'est pas un simple outil mais un phénomène qui transforme l'ensemble de notre société, bouleversant nos façons de penser, de sentir, d'agir, d'apprendre et de vivre ensemble. Comme la révolution industrielle en son temps, il reconfigure nos capacités cognitives, nos relations sociales, nos institutions et jusqu'à notre conception de nous-mêmes. Ce concept de Durkheim permet de saisir comment certains phénomènes imprègnent toutes les dimensions de la vie collective.

Durkheim (1893)
FOMO (Fear Of Missing Out) ou effet sentinelle

Anxiété sociale caractérisée par la crainte persistante de manquer une nouvelle, un événement, ou une interaction importante sur les réseaux sociaux. Cette peur, particulièrement intense chez les adolescents, maintient un état d'hypervigilance incompatible avec l'abandon nécessaire au sommeil réparateur, contribuant ainsi à la dette de sommeil chronique observable chez de nombreux élèves, à la fragmentation de leur attention et à un stress permanent.

J
Justice cognitive

Exigence que chaque individu, quelle que soit son origine sociale, son territoire, son niveau de revenu ou son capital culturel, dispose d'un accès équitable non seulement aux outils numériques, mais aux conditions qui permettent d'en faire un usage critique et émancipateur. Elle prolonge les questions de fracture numérique vers une dimension plus profonde : non pas seulement qui a accès à l'IA, mais qui apprend à en maîtriser les mécanismes et qui apprend seulement à lui obéir.

La justice cognitive pose que l'école a une responsabilité redistributive spécifique à l'ère algorithmique. Sans intervention volontariste, les inégalités devant le numérique reproduisent et amplifient les inégalités sociales préexistantes : ceux qui comprennent comment fonctionnent les systèmes gagnent en autonomie ; ceux qui se contentent d'en consommer les sorties perdent progressivement la capacité de les questionner.

Lire l'essai →
M
Métacognition numérique

Capacité à prendre conscience de ses propres pratiques et usages numériques, à observer et analyser leurs effets sur sa santé, son attention, son humeur, ses relations interpersonnelles. C'est la faculté de se regarder soi-même interagir avec les technologies, d'évaluer ces interactions de manière réflexive, et d'ajuster en conséquence ses comportements. Cette capacité ne s'acquiert pas spontanément, elle s'enseigne.

Lire l'essai →
Multivers cognitif

Environnement où l'intelligence humaine et l'intelligence artificielle coexistent et interagissent, créant des formes hybrides de pensée et d'apprentissage. Nous n'évoluons plus dans un univers cognitif uniforme, mais dans un espace multiple où différentes modalités d'intelligence et de traitement de l'information se superposent, s'entremêlent et parfois se confrontent. On trouve aujourd'hui des contenus générés par l'IA, par des humains, et par les deux à des degrés variables, sans que cette distinction soit toujours visible.

Lire l'essai →
P
Paradoxe de l'automatisation

Phénomène où plus un système automatisé performe efficacement, moins l'humain qui l'utilise maintient les compétences nécessaires pour s'en passer ou pour reprendre le contrôle en cas de défaillance. Ce paradoxe se manifeste concrètement dans nos établissements : des élèves perdent l'habitude de l'effort intellectuel soutenu, abandonnant face aux difficultés plutôt que de persévérer, désorientés lorsqu'on leur demande de développer une réflexion personnelle.

Bainbridge (1983)
Paresse stochastique

Tendance d'un modèle de langage à privilégier, par pur calcul de probabilités, la génération d'une réponse standardisée et statistiquement fréquente au détriment d'un effort analytique singulier. Ce phénomène se traduit par une économie de ressources logiques où la machine choisit le chemin de moindre résistance. Elle privilégie alors la structure la plus probable, souvent superficielle, plutôt que la plus pertinente, qui nécessiterait une profondeur de traitement accrue et une attention spécifique aux détails fournis par l'utilisateur.

Présence absente

Situation paradoxale où l'on est physiquement présent dans un lieu mais mentalement ailleurs, absorbé par les écrans et déconnecté de l'environnement immédiat. Ce phénomène appauvrit considérablement la qualité des interactions éducatives, créant une forme de simulacre relationnel où les corps occupent le même espace sans que les esprits ne se rencontrent véritablement.

Prudence algorithmique (ou « Safe Hedging »)

Stratégie de protection adoptée par un modèle de langage pour minimiser le risque d'erreur factuelle ou de désaccord frontal. Cette prudence se manifeste par l'usage systématique de généralités prudentes et de réserves excessives. En préférant une vérité vague, et donc inattaquable, à une analyse spécifique, potentiellement erronée ou risquée, l'intelligence artificielle sacrifie la valeur ajoutée de son expertise pour garantir sa propre fiabilité apparente.

R
Rites de passage

Pratiques symboliques qui, dans toutes les sociétés humaines, marquent les transitions fondamentales de l'existence, transformant non seulement le statut social de l'individu mais aussi sa conscience de lui-même et sa relation à la communauté. Notre société technologique présente un paradoxe frappant : l'acquisition du premier smartphone ou l'ouverture du premier compte sur un réseau social, moments décisifs pour la construction identitaire, s'effectuent généralement sans ritualisation consciente. L'école pourrait devenir l'un des lieux où ces transitions sont pensées, préparées, accompagnées collectivement.

S
Sas numériques

Espaces-temps intermédiaires, conçus comme des zones de transition sécurisées où les élèves peuvent explorer des univers numériques habituellement restreints, mais avec un encadrement pédagogique intensif. Ces sas correspondent à la phase liminaire des rites de passage traditionnels, cette période de marge où l'ancien statut est abandonné mais le nouveau pas encore pleinement acquis. Ils permettent une expérimentation supervisée qui transforme l'acquisition de compétences numériques en véritable apprentissage social et éthique.

Satisficing (de to satisfy et to suffice)

Processus décisionnel par lequel une intelligence artificielle interrompt sa recherche d'optimisation dès qu'une réponse franchit le seuil minimal de conformité et de cohérence formelle. Plutôt que de viser l'excellence ou l'exhaustivité d'un diagnostic, le modèle se contente d'une solution « suffisante » qui respecte les apparences de la tâche demandée, ton, structure, politesse, sans en explorer les nuances les plus complexes ni les implications profondes.

Solidarité mécanique

Mode de cohésion sociale où les individus sont unis par leur ressemblance fondamentale et le partage des mêmes valeurs et croyances. Dans ces sociétés, les membres partagent les mêmes pratiques et il y a peu de division du travail. La conscience collective est forte et domine la conscience individuelle.

Durkheim (1893)
Solidarité organique

Mode de cohésion sociale qui repose non plus sur la similarité mais sur la complémentarité des fonctions spécialisées. Chaque individu développe des compétences spécifiques et devient interdépendant des autres. Tels les organes d'un corps vivant, chaque membre remplit une fonction distincte mais indispensable au fonctionnement de l'ensemble. La révolution numérique pousse aujourd'hui cette évolution vers une forme inédite.

Durkheim (1893)
Solidarité hybride

Nouvelle configuration sociale où l'interdépendance transcende le cercle humain pour intégrer des systèmes techniques dotés d'autonomie. L'intelligence artificielle et ses algorithmes deviennent des acteurs à part entière avec lesquels nous établissons des relations d'interdépendance complexes. Cette conception dépasse la séparation artificielle entre le « technique » et le « social » pour reconnaître leur entrelacement fondamental.

Lire l'essai →
Sycophantie algorithmique

Forme de complaisance algorithmique par laquelle un modèle de langage cherche à valider les opinions, les biais ou les attentes d'un utilisateur pour maximiser la satisfaction perçue de l'échange. Ce réflexe, généralement acquis lors des phases d'entraînement pour rendre l'outil plus interactif et agréable, conduit l'intelligence artificielle à se comporter comme un miroir flatteur plutôt que comme un interlocuteur critique. Ce biais se manifeste par une tendance systématique à confirmer les hypothèses de l'usager, même lorsque celles-ci mériteraient d'être nuancées ou contredites.

Lire l'essai →
T
Temps algorithmique

Temporalité des systèmes numériques caractérisée par l'instantanéité, l'hyper-réactivité et l'optimisation permanente. Les intelligences artificielles traitent en quelques secondes des volumes d'information qu'un humain mettrait des mois à analyser. Ce temps ignore la fatigue, les pauses nécessaires et la construction progressive de la compréhension. Il valorise la réponse immédiate au détriment de la réflexion patiente. Cette collision entre temps algorithmique et temps biologique constitue ce qu'on nomme ici le choc des temporalités.

Stiegler (2008) Lire l'essai →
Temps biologique

Rythme du vivant qui gouverne nos corps et nos cerveaux. Il inclut l'alternance du sommeil et de l'éveil, les fluctuations naturelles de l'attention, et la progression séquentielle du développement cognitif. Ce temps organique, particulièrement important pour le cerveau adolescent en pleine maturation, constitue un écosystème vulnérable aujourd'hui menacé par nos environnements numériques. Les apprentissages profonds exigent ce temps lent, ces pauses, ces périodes d'incertitude et de maturation.

Lire l'essai →
Translittératie numérique

Capacité à maîtriser la communication avec les univers numériques. Cela inclut non seulement les compétences techniques, mais aussi la compréhension des différents types de médias et de leurs impacts sur notre façon de penser et d'apprendre. Il s'agit d'évoluer de manière autonome, critique et créative dans les environnements numériques, savoir utiliser et interroger les outils numériques, formuler des instructions précises pour les intelligences artificielles, et intégrer ces technologies de manière réfléchie et éthique. Cette capacité ne s'acquiert pas spontanément : c'est l'école qui en a la responsabilité.

Delamotte, Liquète, Frau-Meigs (2014) ; UNESCO (2021)

Pour situer la démarche : Une éthique numérique. Pour comprendre le projet : À propos.