La « Filter bubble »: Quand les données nous enferment.

Oct 10, 2019

Les géants du Web utilisent nos données pour adapter le contenu que nous voyons à ce que nous allons apprécier. Ainsi, tout le contenu de nos navigations est bridé en fonction de notre profil numérique, nous privant ainsi de diversité.

La collecte de données personnelles permet de définir, pour chaque internaute, un profil numérique. Ce profil est une agrégation de tout ce que l’internaute fait sur internet : Lecture d’article, consultation de sites Web, achat de produits, liste d’amis, réactions à des publications sur les réseaux sociaux etc…. Grâce à ces données, les algorithmes des géants du Web catégorisent l’internautes en fonction de son activité. Cela permet de personnaliser les résultats des recherches de l’internaute, limitant les résultats aux contenus susceptibles de plaire à l’internaute. En apparence, cela permet de proposer à l’internaute un contenu plus proche de ce qu’il attend.

Mais cela pose un problème plus important. En personnalisant les résultats, les algorithmes des géants du Web enferment les internautes dans une bulle numérique. Celle-ci ne contient que du contenu susceptible de plaire à l’internaute, limitant considérablement son accès à une information diversifiée. Par exemple, une personne visitant des sites Web complotistes se verra proposer des résultats de recherche et du contenu sur les réseaux axés sur les théories du complot. Il deviendra très compliqué pour lui de s’ouvrir à des contenus ayant des points de vue différents.

De manière plus perverse, le ciblage publicitaire permet également d’influencer les opinions. En choisissant les messages et les cibles avec précisions, on peut facilement influencer une personne indécise ou alors radicaliser des opinions. Cela a été prouvé par le passé : Les élections législatives de 2014 en Inde, le référendum du Brexit en Grande-Bretagne, l’élection présidentielle de 2016 ont été biaisé par le jeu d’influence permis par la publicité ciblée. En l’utilisant de manière très poussée, des organisations ont réussi à orienter le choix des électeurs.

Prenons un exemple : Regardez ou likez sur Youtube ou Facebook une vidéo de chat mignon. Vous constaterez que Youtube ou Facebook vous proposerons désormais énormément de vidéo de « petit chat » ou « petit chien tout mignon ». Vous êtes désormais entré dans une spirale sans fin. Plus vous cliquerez, plus les algorithmes vous enfermeront dans cette catégorisation, en affinant les vidéos en fonction de vos préférences : Chat mignon ? Chat joueur ? Chat coquin ?
Comme vous le savez et qu’une vidéo de chat n’est pas très importante, ce n’est pas grave. Mais imaginez désormais que des personnes vulnérables, comme vos enfants, s’enferment par inadvertance dans des bulles numériques racistes, sexistes, complotistes ou pornographiques ?