La justice cognitive désigne les conditions d'une autonomie intellectuelle partagée. Elle apparaît lorsque l'on comprend que la question numérique n'est pas seulement celle des usages individuels, mais aussi celle de leur distribution sociale. Tous n'entrent pas dans le monde algorithmique de la même manière. Certains apprennent à se servir des systèmes, à en comprendre les logiques, à garder une distance critique, à transformer l'IA en appui de pensée. D'autres sont surtout conduits à consommer des réponses, à dépendre d'assistances, à se former dans un univers de validation permanente. La justice cognitive nomme cette ligne de fracture : qui apprend à maîtriser les médiations techniques, et qui apprend à vivre sous leur emprise ?
Le prolongement naturel de la dépossession
La dépossession du sujet éducatif décrit un transfert progressif de mémoire, de jugement, d'orientation et de décision vers des systèmes opaques. La justice cognitive en est le prolongement naturel, et même politique, parce qu'une dépossession n'est jamais neutre ni également répartie. Dès lors que cette perte de maîtrise touche différemment les sujets selon leurs milieux, leurs médiations et les cadres dans lesquels ils apprennent, elle cesse d'être seulement un problème d'usage pour devenir une question de justice.
Une même technologie peut devenir, pour les uns, un instrument de clarification, d'exploration ou de création ; pour les autres, un dispositif de dépendance douce, de simplification appauvrissante ou de soumission aux recommandations. Dans le multivers cognitif, où les provenances se brouillent, la capacité de discerner les médiations devient elle-même une ressource inégalement distribuée. Dans l'anomie numérique, où les repères collectifs tardent à se reconstituer, ceux qui disposent déjà du moins de cadres sont aussi les plus exposés. Le problème n'est donc pas seulement ce que les outils font en général. C'est la manière inégale dont les sujets sont préparés, accompagnés ou livrés à eux.
La justice cognitive commence là où l'on refuse de confondre généralisation de l'usage et partage réel de la maîtrise. Une société peut connecter massivement ses membres sans leur donner à tous le même pouvoir sur les systèmes. Elle peut mettre des outils à disposition sans distribuer équitablement la capacité de comprendre leurs limites, de discuter leurs critères, de repérer leurs biais ou de suspendre leur emprise. L'injustice n'est plus alors seulement économique ou technique. Elle devient cognitive : elle touche le rapport même au savoir, à la décision et à la possibilité d'exercer son jugement.
Pas seulement une fracture numérique
La justice cognitive ne se réduit pas à la fracture numérique au sens classique. L'accès aux équipements, à une connexion stable ou à des ressources de qualité demeure évidemment décisif. Mais l'inégalité va plus loin. Elle touche l'accompagnement, la capacité à formuler de bonnes questions, à reconnaître ce qu'un système sait faire et ce qu'il ne fait qu'imiter, à distinguer une synthèse d'une compréhension, une recommandation d'un choix. On peut disposer d'un smartphone, d'un compte et même d'un assistant conversationnel, tout en demeurant profondément dépendant de logiques que l'on ne comprend pas.
Là où la fracture numérique classique mesure un écart d'accès, la justice cognitive regarde un écart de compréhension, d'interprétation, de droit à l'explication et de pouvoir de contestation. Elle ne demande pas seulement : qui possède un outil ? Elle demande : qui comprend les logiques de cet outil, qui sait le discuter, qui peut s'en servir sans s'y abandonner, et qui reste au contraire condamné à suivre des résultats qu'il ne peut ni réinterpréter ni contester ?
Le mythe des « digital natives » masque précisément cette réalité.[3] Les jeunes ne possèdent pas naturellement les compétences nécessaires pour naviguer lucidement dans les environnements numériques. Leurs pratiques sont souvent limitées, peu réflexives et fortement conditionnées par leur milieu social. Comme le rappelle le livre, la fracture numérique se double souvent d'une fracture des usages.[1] Certains bénéficient d'un entourage qui explicite, questionne, met à distance, transmet des repères. D'autres sont surtout exposés à des dispositifs qu'ils utilisent sans cadre, sans langage critique et sans apprentissage structuré. L'inégalité ne tient donc pas seulement à la présence ou à l'absence d'outil. Elle tient à la présence ou à l'absence d'un accompagnement permettant de devenir sujet de ses usages.
Qui apprend à piloter, qui apprend à obéir ?
L'injustice cognitive se forme d'abord par l'inégale distribution des médiations. Dans certains milieux, l'IA sera utilisée comme un partenaire critique : on apprendra à comparer ses réponses, à la contredire, à lui faire expliciter ses hypothèses, à ne pas la confondre avec un jugement. Dans d'autres, elle deviendra surtout un fournisseur de réponses rapides, une béquille permanente, un moyen d'éviter l'effort ou l'incertitude. Ce n'est pas l'outil qui change ; c'est l'environnement de sens et d'exigence dans lequel il est introduit.
Elle se forme ensuite dans les institutions elles-mêmes. Les parcours automatisés, les systèmes de recommandation, les boîtes noires de l'orientation ou les critères opaques d'évaluation peuvent prétendre à l'efficacité tout en creusant les écarts de maîtrise. L'exemple de Parcoursup est ici éclairant : lorsque des mécanismes complexes distribuent des trajectoires sans être pleinement lisibles pour ceux qu'ils affectent, l'inégalité n'est pas seulement subie ; elle devient difficile à nommer et à contester.[2] La justice cognitive exige donc un droit réel à comprendre, et pas seulement à subir des décisions présentées comme techniques.
Elle se forme enfin par la confusion entre assistance et autonomie. Les outils qui simplifient la recherche, la rédaction ou l'orientation peuvent libérer du temps, mais ils peuvent aussi installer une relation de dépendance si les sujets ne développent pas les compétences nécessaires pour s'en passer, les critiquer ou les reconfigurer. Les mêmes dispositifs n'ont pas les mêmes effets selon qu'ils prolongent un sujet déjà formé ou se substituent à un sujet qui n'a pas encore conquis ses propres appuis. Une société qui délègue massivement ses opérations de pensée sans en distribuer équitablement la maîtrise prépare une fracture profonde entre ceux qui pilotent les systèmes et ceux qui vivent sous leur emprise. La justice cognitive est le nom de cette fracture lorsqu'on la prend au sérieux.
Pourquoi l'école est décisive
L'école est décisive parce qu'elle peut encore faire de la maîtrise des systèmes un bien commun, et non un privilège de milieu. Le livre le dit explicitement : c'est précisément le rôle de l'école d'offrir l'accompagnement que beaucoup ne trouveront pas ailleurs, particulièrement dans les milieux où la fracture numérique se double d'une fracture des usages.[1] Si elle renonce à ce rôle, le marché distribuera seul les compétences : quelques-uns apprendront à interpréter les outils, à préserver leur jugement, à transformer l'IA en instrument de pensée ; beaucoup d'autres apprendront surtout à cliquer, à demander, à consommer et à obéir. Ce qui se joue, ce n'est pas seulement la réussite scolaire. Ce sont les conditions d'une citoyenneté intellectuelle minimale à l'âge algorithmique.
Travailler la justice cognitive à l'école suppose donc plus qu'une initiation technique. Une école soucieuse de justice cognitive doit au moins redistribuer quatre choses : un langage pour décrire les systèmes et leurs effets ; des situations où l'on apprend encore sans assistance permanente ; un droit à l'explication, au doute et à la contestation ; des usages de l'IA qui soutiennent réellement le jugement au lieu de le court-circuiter. C'est ici que la métacognition numérique devient décisive : elle rend visibles les effets des outils sur l'attention, l'effort, la confiance et la manière de décider.
Cela suppose aussi des repères communs, des chartes porteuses de sens, des rites d'entrée dans la vie connectée et une formation des adultes capable d'éviter que l'innovation ne se diffuse plus vite que l'intelligence collective de ses effets. La justice cognitive ne demande pas que tous deviennent experts ; elle demande que personne ne soit condamné à l'obéissance faute d'avoir reçu les moyens de comprendre.
Construire une justice cognitive
Construire une justice cognitive, ce n'est donc pas promettre l'égalité parfaite des talents ni des trajectoires. C'est viser un seuil commun de maîtrise : que chacun puisse comprendre les grandes logiques qui traversent les systèmes, percevoir leurs effets, exercer un droit au doute, à la vérification et à la contestation. Les nouveaux référentiels de compétences en IA publiés par l'UNESCO rappellent utilement que ces apprentissages doivent comporter des dimensions techniques, critiques, éthiques, créatives et réflexives, et qu'ils ne doivent pas être réservés à une minorité déjà favorisée, mais pensés comme un horizon partagé pour les élèves et les enseignants.[4][5]
Une telle justice ne s'oppose pas à l'usage de l'IA. Elle s'oppose à son usage sans partage de la maîtrise. Elle rejoint ainsi l'idée d'une autonomie numérique responsable : vivre avec les outils de son temps sans leur abandonner la pensée. Le véritable enjeu n'est pas de savoir si certains deviendront très compétents. Il est de savoir si nous acceptons qu'une partie croissante de la population soit formée à l'obéissance cognitive pendant qu'une autre apprend à piloter les médiations techniques. La justice cognitive est l'effort pour empêcher cette séparation de devenir notre normalité, et pour orienter cette transformation vers l'émancipation de tous plutôt que vers l'approfondissement des inégalités.
Références
[1] Ahmed Messaoudi (2025). Réinventer l'école à l'ère de l'intelligence artificielle. L'Harmattan.
[2] H. Eloi-Hammer (2025). « Sélectionner pour mieux régner, enquête sur les algorithmes locaux de Parcoursup ». Multitudes, n° 98.
[3] Sherry Turkle (2015). Seuls ensemble. De plus en plus de technologies, de moins en moins de relations humaines. L'Échappée.
[4] UNESCO (2025). Ce qu'il faut savoir sur les nouveaux référentiels de compétences en IA de l'UNESCO pour les élèves et les enseignants. Lien.
[5] UNESCO (2025). Référentiel de compétences en IA pour les apprenants. Lien.
Questions fréquentes
Qu'est-ce que la justice cognitive ? La justice cognitive désigne les conditions d'une autonomie intellectuelle partagée : elle interroge l'inégalité entre ceux qui apprennent à maîtriser les systèmes et ceux qui apprennent surtout à leur obéir.
En quoi la justice cognitive est-elle différente de la simple fracture numérique ? La fracture numérique concerne l'accès aux outils. La justice cognitive concerne aussi l'accès à leur compréhension, à leur critique, à leur maîtrise et au droit effectif de rester sujet face à eux.
Que doit redistribuer une école soucieuse de justice cognitive ? Un langage pour comprendre les systèmes, des espaces sans assistance permanente, un droit à l'explication et à la contestation, et des usages de l'IA qui soutiennent le jugement au lieu de le court-circuiter.