← Points de vigilance

Section 2 · 7

Information et réalité

Ce que le numérique fait à notre rapport au vrai

Dans cette section

  1. Surinformation et paralysie
  2. Bulles informationnelles
  3. Fake news et désinformation
  4. Complotisme algorithmique
  5. Deepfakes et confiance

Surinformation et paralysie

Quand il y a trop à savoir, on finit par ne plus décider.

George Miller le formalisait en 1956 : le cerveau humain peut traiter simultanément environ sept informations. Soixante-dix ans plus tard, le flux d'informations auquel nous sommes exposés chaque jour se compte en milliers.

Ce déséquilibre produit des conséquences cognitives précises. Barry Schwartz appelle « paralysie du choix » ce phénomène : quand le nombre d'informations dépasse un seuil, la décision devient difficile, puis impossible. Une étude du Journal of Consumer Research (2020) établit que les individus exposés à un excès d'information prennent des décisions moins bonnes que ceux qui disposent d'un corpus limité mais pertinent.

Dans les établissements scolaires, la logique de la viralité comme proxy de la vérité est le produit direct de la surinformation. Ce qui manque à l'élève submergé, c'est un cadre pour évaluer la fiabilité.

« Trop d'information, c'est comme trop de lumière : on finit par ne plus rien voir. »

Dans le même esprit : Bulles informationnelles · Anomie numérique

↑ Sommaire

Bulles informationnelles

L'algorithme ne nous montre pas le monde. Il nous montre notre monde.

En 2011, Eli Pariser publiait The Filter Bubble et formulait une hypothèse qui allait traverser la décennie : les algorithmes de personnalisation construisent autour de nous des bulles invisibles où ne circulent que des informations conformes à nos croyances préexistantes.

La plateforme TikTok peut identifier les centres d'intérêt d'un nouvel utilisateur en moins de 90 minutes de navigation. L'algorithme sait, avant vous, quel contenu va prolonger votre attention.

Une étude de grande ampleur dans Science (Gonzalez-Bailon et al., 2023) a analysé 208 millions d'utilisateurs Facebook pendant les élections américaines de 2020. Elle confirme une ségrégation idéologique massive, tout en montrant que les algorithmes ne sont pas les seuls responsables : les choix individuels de réseaux jouent un rôle prédominant.

« L'algorithme ne ment pas. Il choisit. Et c'est ça, le problème. »

Dans le même esprit : Surinformation et paralysie · Complotisme algorithmique

↑ Sommaire

Fake news et désinformation

Le mensonge circule six fois plus vite que la vérité. Ce n'est pas une métaphore.

C'est une donnée mesurée. En 2018, une équipe du MIT publiait dans Science une étude analysant 126 000 cascades de rumeurs sur Twitter entre 2006 et 2017 (Vosoughi, Roy & Aral). Résultat : le faux se diffuse plus loin, plus vite et plus profondément que le vrai. Non pas à cause des bots, mais parce que les humains sont attirés par la nouveauté et l'émotion de surprise ou de dégoût.

Les fake news ne se répandent pas malgré leur fausseté. Elles se répandent à cause d'elle. L'improbable, le scandaleux, l'indigné circulent mieux que le nuancé.

La réponse n'est pas la censure. C'est l'éducation aux mécanismes de la désinformation : comprendre pourquoi on partage avant de comprendre ce qu'on partage.

« Vérifier avant de partager n'est pas une question de morale. C'est une question de mécanique cognitive. »

Dans le même esprit : Bulles informationnelles · Complotisme algorithmique

↑ Sommaire

Complotisme algorithmique

L'algorithme ne radicalise pas. Il recommande. Mais la frontière est mince.

Guillaume Chaslot, ancien ingénieur YouTube, a été l'un des premiers à alerter, en 2018-2019, sur le fonctionnement de l'algorithme de recommandation. Son constat : pour maximiser le temps d'attention, l'algorithme tend à proposer des contenus de plus en plus extrêmes, émotionnellement chargés, car ils retiennent mieux l'attention.

Une étude de Ribeiro et al. (2020), publiée par l'ACM, intitulée Auditing Radicalization Pathways on YouTube, analyse 72 millions de commentaires et montre comment les utilisateurs migrent progressivement de contenus modérés vers des contenus extrêmes via les recommandations, ce que les chercheurs appellent le « pipeline de radicalisation ».

« L'algorithme n'a pas d'opinion. Mais il sait comment retenir votre attention. »

Dans le même esprit : Fake news et désinformation · Yes-man attitude

↑ Sommaire

Deepfakes et confiance

Quand l'image cesse d'être une preuve, qu'est-ce qui en prend la place ?

En 2017, le terme deepfake n'existait pas dans le vocabulaire courant. En 2025, il est entré dans toutes les langues. Ces vidéos synthétiques ont été d'abord un outil de divertissement, puis une arme.

Le sociologue Thomas Rid appelle « dividende du menteur » le phénomène qui s'ensuit : dès lors qu'une preuve visuelle peut être fabriquée, il devient possible de nier n'importe quelle preuve réelle en arguant qu'elle est fabriquée. Une étude du MIT Media Lab (2024) a établi que les personnes exposées à des deepfakes développent une méfiance accrue envers les contenus authentiques.

« Faut-il encore croire ce que l'on voit ? »

Dans le même esprit : Fake news et désinformation · Surveillance numérique

↑ Sommaire

Pour situer la démarche : Une éthique numérique.

Parcours conseillé

Un repère pilier, deux prolongements proches, la page auteur et une prochaine étape pour garder un maillage lisible.

Texte pilier

Thèmes

Le texte ou le hub qui organise ce cluster de lecture.

Pages sœurs

Yes-man attitude Sherlock Holmes face à l'IA

Deux prolongements proches pour rester dans le même faisceau d'idées.

Auteur

Ahmed Messaoudi

Parcours, concepts, livre et prises de position d'Ahmed Messaoudi.

Prochaine étape

Exploration dialogique

Le meilleur enchaînement pour poursuivre sans perdre le fil.