Les débats sur l'intelligence artificielle sont souvent saturés de technique. On y parle de performances, de modèles, d'usages, de régulation. Plus rarement de la question première : que nous fait-elle et quel type de monde social fabrique-t-elle ?
Si ce texte prend la peine de poser la question ainsi, c'est qu'il ne suffit pas de se demander comment utiliser l'IA ou comment l'encadrer juridiquement. Il faut d'abord se demander ce qu'elle fait à nos manières de penser, d'apprendre, de sentir, de vivre ensemble. Le numérique n'est pas un outil parmi d'autres. Il est devenu un milieu. Il reconfigure nos rythmes, nos relations, nos institutions, et jusqu'à l'image que nous nous faisons de nous-mêmes. Les grandes transformations se voient d'abord dans les corps avant de se formuler dans les discours. Avant même que les mots viennent, quelque chose apparaît déjà chez les jeunes et les moins jeunes : une fatigue plus diffuse, une impatience plus vive, une difficulté croissante à soutenir une pensée dans la durée, et cette habitude de chercher l'écran avant de chercher le regard de l'autre.
Ce texte n'est ni un refus nostalgique ni un hymne au progrès. Il part d'un constat : nous sommes entrés dans une mutation qui touche aux conditions mêmes de la pensée, de l'autonomie et de la vie commune. La question n'est donc pas de savoir s'il faut aimer ou détester l'IA et les algorithmes, mais de savoir ce que nous voulons préserver en nous lorsque nous les intégrons à nos vies.
Le diagnostic
Le choc des temporalités
Le point de tension principal tient, me semble-t-il, à un choc des temporalités. D'un côté, il y a le temps biologique : celui du sommeil et de l'éveil, de l'attention, de l'apprentissage qui suppose répétition, lenteur, maturation. De l'autre, il y a le temps algorithmique : instantanéité, disponibilité permanente, accélération continue, optimisation sans repos.
Ces deux temps ne sont pas simplement différents. Ils entrent en collision. Or l'école, la formation, la construction du jugement et même la vie intérieure supposent toutes un rapport au temps que la logique numérique fragilise. Le cerveau, surtout adolescent, ne se développe pas au rythme des serveurs. Il a besoin de pauses, d'efforts prolongés, d'oubli parfois, de retour sur soi. À l'inverse, les environnements numériques tendent à neutraliser l'attente, à saturer l'attention, à rendre le silence suspect. Le résultat, on le voit partout : dette de sommeil, fragmentation attentionnelle, intolérance à l'ennui, difficulté à soutenir un effort intellectuel sans assistance. Le numérique a fracturé notre temps.
L'anomie numérique
Cette collision des rythmes n'est pas seulement un problème individuel. Elle relève d'un désordre collectif. Durkheim appelait anomie l'état d'une société dont les normes s'effacent plus vite que de nouvelles normes ne se forment. C'est exactement ce que le numérique a accéléré : un monde où les usages se diffusent avant que les repères communs n'aient eu le temps de se construire. Dans les établissements scolaires, cette anomie se manifeste de façon très concrète : cyberharcèlement, érosion de l'empathie, désinformation, crise du rapport au réel, brouillage de l'intimité, anxiété chronique, sentiment de désorientation. Rien de tout cela n'est un accident secondaire.
C'est l'effet structurel d'une intégration massive du numérique dans une société qui n'a pas encore produit les cadres symboliques, éducatifs et politiques correspondant à cette mutation.
La crise du Covid a encore accéléré ce mouvement. Elle n'a pas créé ces fragilités ; elle les a révélées et amplifiées. Nous avons fait entrer plus vite encore des technologies puissantes dans des existences déjà fragilisées, sans boussole.
La dépossession du sujet éducatif
L’un des points les plus inquiétant est peut-être qu’à mesure que les systèmes gagnent en puissance, nous risquons de perdre l'habitude d'exercer certaines de nos facultés. Il devient tentant de ne plus mémoriser, de ne plus formuler, de ne plus chercher, de ne plus juger par soi-même, puisqu'une machine peut proposer, calculer, résumer, orienter.
Le paradoxe de l'automatisation, décrit de longue date, est simple : plus un système est performant, moins l'humain entretient les compétences nécessaires pour s'en passer. Ce qui se présente comme une augmentation de nos capacités peut devenir, si l'on n'y prend garde, une atrophie silencieuse. Cette dépossession n'est pas seulement cognitive ; elle est aussi institutionnelle. Lorsque des systèmes algorithmiques interviennent dans l'orientation, l'évaluation, le tri des candidatures ou le choix des priorités, ils pèsent sur des vies réelles. Plus ces mécanismes sont opaques, plus l'autonomie des sujets se réduit sans même qu'ils puissent nommer ce qui leur échappe.
Ni technophobe, ni technophile
Face à ce diagnostic, deux attitudes symétriques me paraissent insuffisantes. La première consiste à refuser le monde tel qu'il est, dans l'espoir illusoire de restaurer un avant l'IA. La seconde consiste à célébrer toute innovation comme un progrès en soi. L'une fuit la réalité, l'autre est tout aussi naïve.
Il faut tenir une ligne plus exigeante : penser avec les outils de son temps, sans leur abandonner notre liberté.
Sept repères pour une éthique numérique
Je propose ici sept repères pour une éthique du numérique susceptible de nous protéger de ce raz-de-marée numérique.
1. La vulnérabilité
Notre dignité ne se comprend pas d'abord à partir de la puissance, mais à partir de la vulnérabilité. Nous sommes des êtres fatigables, impressionnables, dépendants de liens, exposés à la souffrance comme à l'influence. Une technologie qui exploite délibérément cette vulnérabilité, en capturant l'attention, en organisant la dépendance ou en épuisant les rythmes vitaux, pose un problème éthique majeur. La dignité n'est pas une abstraction. Elle se mesure à ce qu'on fait subir à nos existences, concrètement.
2. L'autonomie
L'autonomie ne signifie pas l'isolement d'un individu sans attaches. Elle désigne la capacité à se gouverner soi-même, à répondre de ses actes, à demeurer l'auteur de ses choix. Une éthique de l'IA devrait donc poser, chaque fois, une question simple : cette technologie renforce-t-elle ou érode-t-elle la capacité des personnes à penser par elles-mêmes, à délibérer, à consentir vraiment, à assumer leurs décisions ?
Quand une technologie affaiblit durablement cette capacité, elle doit être révisée.
3. La solidarité hybride
Durkheim distinguait la solidarité mécanique, unité par la ressemblance dans les sociétés traditionnelles, de la solidarité organique, unité par la complémentarité des fonctions dans les sociétés modernes. Je propose une troisième étape : la solidarité hybride, caractéristique de l'ère numérique. Dans cette nouvelle configuration, l'interdépendance transcende le cercle humain pour intégrer des systèmes techniques dotés d'autonomie. L'IA et ses algorithmes deviennent des acteurs à part entière avec lesquels nous établissons des relations d'interdépendance complexes : nous dépendons d'eux pour orienter nos choix, classer nos informations, évaluer nos compétences, décider de nos orientations. Cette réalité n'est ni bonne ni mauvaise en soi. Elle est. La question éthique est : comment organiser cette interdépendance pour qu'elle serve l'émancipation de l'homme plutôt qu'une forme de soumission ?
4. La métacognition numérique
J'appelle métacognition numérique la capacité à s'observer soi-même dans ses usages technologiques : regarder ce que les outils font à notre attention, à notre humeur, à nos relations, à notre sommeil, à notre rapport au savoir ; puis ajuster en conséquence nos pratiques.
Ce n'est pas une posture morale réservée à quelques experts. C'est une compétence à former. On ne développera jamais une autonomie numérique solide tant que l'on ne saura pas décrire lucidement les effets de nos propres usages.
5. L'exploration dialogique
L'IA conversationnelle peut être utilisée de deux mauvaises manières : comme machine à produire à notre place, ou comme simple distributeur de réponses. Je crois qu'une troisième voie est possible, plus enrichissante : l'utiliser comme espace d'exploration.
Il ne s'agit plus alors de déléguer sa pensée, mais de la mettre en mouvement. Clarifier une intuition, faire apparaître un angle mort, demander une objection, tester une hypothèse, explorer plusieurs formulations, chercher un point de friction : le dialogue avec la machine devient utile lorsqu'il renvoie à la pensée humaine la responsabilité de juger, de choisir et d'assumer.
Dans cette perspective, la conversation n'a de valeur que si elle nous fait progresser.
6. La délibération
Les normes qui gouvernent notre rapport au numérique ne peuvent pas venir seulement des plateformes, des experts ou des États. Elles doivent aussi être construites par les communautés concernées. Il faut rouvrir des espaces de délibération sur nos usages, nos limites, nos refus, nos priorités. Dans les établissements, les associations, les familles, les institutions, cela suppose des chartes vivantes, argumentées, discutées, révisées. Non des listes d'interdictions plaquées d'en haut, mais des cadres de sens, capables de dire pourquoi nous acceptons certaines pratiques et pourquoi nous en refusons d'autres. Ce fondement est aussi une réponse à ce que je nomme le libéralisme technologique : l'idéologie qui laisse chaque individu seul face à ses choix numériques, comme si la technologie était une affaire privée. Elle ne l'est pas. Elle est un fait social total. Elle appelle des réponses collectives.
7. L'éducation
La transformation décisive ne sera pas seulement technique. Elle sera éducative, ou elle ne sera pas. Il ne suffit pas de former des utilisateurs compétents ; il faut former des sujets capables de discernement, de retenue, d'esprit critique.
L'éducation numérique ne devrait donc pas se limiter à l'apprentissage technique de l'usage des outils. Elle devrait viser la capacité à habiter lucidement un environnement technique : savoir quand utiliser une IA ou pas, pourquoi et comment le faire, à quelles conditions. L'éducation numérique doit devenir une priorité nationale, non pas l'éducation à l'usage des outils, mais l'éducation à la métacognition numérique, à l'esprit critique, à l'autonomie éclairée. Ce n'est pas la même chose. La première forme des usagers, la seconde forme des citoyens éclairés. La différence est décisive.
Ce que cela exige concrètement
Une éthique numérique ne vaut rien si elle reste purement déclarative. Elle appelle des traductions politiques claires.
D'abord, la transparence des systèmes algorithmiques qui ont des effets importants sur les vies. Lorsqu'un algorithme contribue à orienter, sélectionner, capter l'attention, évaluer ou exclure, son fonctionnement doit être explicable. Dans une société démocratique, l'opacité n'est pas un détail technique ; c'est une forme de pouvoir.
Ensuite, une régulation transparente de l'économie de l'attention. Les dispositifs conçus pour capter le plus longtemps possible l'attention, surtout celle des enfants et des adolescents, ne sont pas neutres. Ils exploitent des fragilités psychiques et temporelles bien connues.
Enfin, la protection des données doit être comprise comme une question de dignité. Ce que je lis, ce que je cherche, ce que je ressens, ce que j'essaie de comprendre ne devrait pas devenir spontanément la matière première d'un marché. L'intériorité humaine n'est pas un gisement.
Conclusion
Nous avons besoin d'un progrès qui sache ce qu'il doit conserver. Non par nostalgie, mais par responsabilité. Il existe des choses qu'une société n'a pas le droit de sacrifier au nom de la fluidité, de la performance ou de l'innovation : le temps long de la formation, la possibilité du silence, l'épaisseur des relations, la capacité à juger, la dignité de la vie intérieure.
Hannah Arendt rappelait que l'éducation est d'abord un acte de protection. Il faut entendre cette formule dans toute sa radicalité : protéger les enfants contre un monde qui les sollicite sans mesure, mais aussi protéger le monde contre ce qu'il devient lorsqu'il oublie de transmettre autre chose que des outils.
Une éthique numérique n'est pas un luxe, c'est une nécessité politique. Face à des technologies qui reconfigurent les conditions mêmes de la pensée, de la relation et de la décision, la question la plus importante reste humaine : que voulons-nous devenir ?
Et cette question-là ne peut pas être déléguée à un algorithme.
Dans le même esprit
Anomie numérique Métacognition numérique Exploration dialogique Penser contre l'algorithme Reconquérir son silencePour poursuivre
Retrouver les autres textes de réflexion et les points de vigilance de La machinerie.
Voir les thèmes