Surinformation et paralysie
Quand il y a trop à savoir, on finit par ne plus décider.
George Miller le formalisait en 1956 : le cerveau humain peut traiter simultanément environ sept informations. Soixante-dix ans plus tard, le flux d'informations auquel nous sommes exposés chaque jour se compte en milliers.
Ce déséquilibre produit des conséquences cognitives précises. Barry Schwartz appelle « paralysie du choix » ce phénomène : quand le nombre d'informations dépasse un seuil, la décision devient difficile, puis impossible. Une étude du Journal of Consumer Research (2020) établit que les individus exposés à un excès d'information prennent des décisions moins bonnes que ceux qui disposent d'un corpus limité mais pertinent.
Dans les établissements scolaires, la logique de la viralité comme proxy de la vérité est le produit direct de la surinformation. Ce qui manque à l'élève submergé, c'est un cadre pour évaluer la fiabilité.
« Trop d'information, c'est comme trop de lumière : on finit par ne plus rien voir. »
Dans le même esprit : Bulles informationnelles · Anomie numérique
↑ Sommaire
Bulles informationnelles
L'algorithme ne nous montre pas le monde. Il nous montre notre monde.
En 2011, Eli Pariser publiait The Filter Bubble et formulait une hypothèse qui allait traverser la décennie : les algorithmes de personnalisation construisent autour de nous des bulles invisibles où ne circulent que des informations conformes à nos croyances préexistantes.
La plateforme TikTok peut identifier les centres d'intérêt d'un nouvel utilisateur en moins de 90 minutes de navigation. L'algorithme sait, avant vous, quel contenu va prolonger votre attention.
Une étude de grande ampleur dans Science (Gonzalez-Bailon et al., 2023) a analysé 208 millions d'utilisateurs Facebook pendant les élections américaines de 2020. Elle confirme une ségrégation idéologique massive, tout en montrant que les algorithmes ne sont pas les seuls responsables : les choix individuels de réseaux jouent un rôle prédominant.
« L'algorithme ne ment pas. Il choisit. Et c'est ça, le problème. »
Dans le même esprit : Surinformation et paralysie · Complotisme algorithmique
↑ Sommaire
Fake news et désinformation
Le mensonge circule six fois plus vite que la vérité. Ce n'est pas une métaphore.
C'est une donnée mesurée. En 2018, une équipe du MIT publiait dans Science une étude analysant 126 000 cascades de rumeurs sur Twitter entre 2006 et 2017 (Vosoughi, Roy & Aral). Résultat : le faux se diffuse plus loin, plus vite et plus profondément que le vrai. Non pas à cause des bots, mais parce que les humains sont attirés par la nouveauté et l'émotion de surprise ou de dégoût.
Les fake news ne se répandent pas malgré leur fausseté. Elles se répandent à cause d'elle. L'improbable, le scandaleux, l'indigné circulent mieux que le nuancé.
La réponse n'est pas la censure. C'est l'éducation aux mécanismes de la désinformation : comprendre pourquoi on partage avant de comprendre ce qu'on partage.
« Vérifier avant de partager n'est pas une question de morale. C'est une question de mécanique cognitive. »
Dans le même esprit : Bulles informationnelles · Complotisme algorithmique
↑ Sommaire
Complotisme algorithmique
L'algorithme ne radicalise pas. Il recommande. Mais la frontière est mince.
Guillaume Chaslot, ancien ingénieur YouTube, a été l'un des premiers à alerter, en 2018-2019, sur le fonctionnement de l'algorithme de recommandation. Son constat : pour maximiser le temps d'attention, l'algorithme tend à proposer des contenus de plus en plus extrêmes, émotionnellement chargés, car ils retiennent mieux l'attention.
Une étude de Ribeiro et al. (2020), publiée par l'ACM, intitulée Auditing Radicalization Pathways on YouTube, analyse 72 millions de commentaires et montre comment les utilisateurs migrent progressivement de contenus modérés vers des contenus extrêmes via les recommandations, ce que les chercheurs appellent le « pipeline de radicalisation ».
« L'algorithme n'a pas d'opinion. Mais il sait comment retenir votre attention. »
Dans le même esprit : Fake news et désinformation · Yes-man attitude
↑ Sommaire
Deepfakes et confiance
Quand l'image cesse d'être une preuve, qu'est-ce qui en prend la place ?
En 2017, le terme deepfake n'existait pas dans le vocabulaire courant. En 2025, il est entré dans toutes les langues. Ces vidéos synthétiques ont été d'abord un outil de divertissement, puis une arme.
Le sociologue Thomas Rid appelle « dividende du menteur » le phénomène qui s'ensuit : dès lors qu'une preuve visuelle peut être fabriquée, il devient possible de nier n'importe quelle preuve réelle en arguant qu'elle est fabriquée. Une étude du MIT Media Lab (2024) a établi que les personnes exposées à des deepfakes développent une méfiance accrue envers les contenus authentiques.
« Faut-il encore croire ce que l'on voit ? »
Dans le même esprit : Fake news et désinformation · Surveillance numérique
↑ Sommaire