Pièges technologiques et désinformation

On le sait : nos raccourcis mentaux nous poussent à croire des informations qui confirment nos croyances, à penser que les vedettes disent toujours la vérité et à partager sans réfléchir les publications qui nous rendent émotifs. Mais dans un monde où l’information se consomme surtout en ligne, l’environnement Web et les algorithmes participent aussi au phénomène. Voici comment.
Le rôle des algorithmes

 

 

Les algorithmes, ce sont les suites d’opérations et de calculs qui régissent la manière de fonctionner d’un système. Sur les réseaux sociaux et dans les moteurs de recherche, on s’en sert entre autres pour personnaliser le contenu auquel l’usager est exposé et pour promouvoir les publications qui génèrent beaucoup de réactions. Les algorithmes y déterminent entre autres les publicités, les publications, les articles et les photos qu’on voit passer.

Prenons en exemple PageRank, l’algorithme qui trie les résultats apparaissant sur le moteur de recherche Google. La priorité des résultats sera déterminée en fonction de plusieurs facteurs, dont la langue de l’usager et son emplacement, la sécurité du site internet, l’optimisation du contenu pour les moteurs de recherche, la vitesse de chargement d’une page, la qualité du contenu et l’adaptation mobile.

Toutefois, le premier résultat n’est pas toujours celui qui répondra le mieux à nos besoins ou sera le plus approprié à notre recherche. Il se peut que du contenu très pertinent se cache sous les premiers résultats.

Selon une analyse effectuée en 2019 sur cinq millions de résultats de recherche Google, les internautes cliquent 10 fois plus sur le premier résultat que sur le dixième. Et si un résultat est déplacé d’une position vers le haut, son taux de clics augmente de 30,8 %. D’ailleurs, le premier lien affiché obtient 31,7 % des clics d’une page, qui contient 10 résultats.

Trois mots pour expliquer le phénomène : biais de position. Le biais de position est un biais cognitif qui fait en sorte qu’on privilégie l’information qui se situe au sommet d’une liste, peu importe sa valeur, son importance réelle. Inutile de dire que ça peut grandement limiter la valeur d’une recherche.

La personnalisation du contenu

    

              

 

Sur vos fils, les algorithmes donnent une priorité au contenu qui générera le plus d’intérêt, au lieu de tout montrer en ordre chronologique. Les photos, les vidéos et les publications qui apparaissent en premier ont donc été triées sur le volet pour chaque utilisateur. On choisit pour vous ce que vous voyez… et ce que vous ne voyez pas.

Ces algorithmes changent très souvent, mais voici ce que l’on sait sur Facebook, Instagram et YouTube.

Facebook détermine ce que l’usager voit en fonction de ses habitudes d’interactions (ce qu’il aime, ce qu’il lit, ce sur quoi il clique), du média utilisé dans la publication (photo, vidéo, direct) et de la popularité de la publication. Il se peut donc très bien qu’un article pertinent, mais qui ne correspond pas à ce que vous lisez d’habitude, vous soit « caché ».

Instagram, qui appartient à Facebook, priorise le contenu publié par des comptes avec lesquels l’usager interagit fréquemment.

Les vidéos recommandées par YouTube ou celles qui apparaissent dans les résultats de recherche de la plateforme dépendent elles aussi de la relation entre l’usager et la source d’une vidéo : si un usager aime déjà une chaîne YouTube et y passe beaucoup de temps, des vidéos du même créateur lui seront recommandées. Si un internaute s’est récemment intéressé à un sujet en particulier, des vidéos similaires apparaîtront dans ses résultats de recherche et dans ses recommandations. L’algorithme prend aussi en compte les données démographiques de l’usager.

Le biais de position peut aussi poser problème ici, pensons à quelqu’un qui a vu passer la fausse information selon laquelle la COVID-19 n’était pas un problème majeur, à cause de ces vidéos montrant les urgences vides de certains hôpitaux. Si cette personne cherche simplement « COVID-19 hôpitaux » et qu’elle habite une région qui n’a pas été durement touchée par la pandémie, elle cliquera fort probablement sur l’un des premiers résultats, qui lui parlera de sa région, et ne cherchera pas plus loin. Dans ce cas-ci, le premier résultat n’est pas le plus pertinent.

Le Data Void

 

 

Comme tous les moteurs de recherche, Google n’aime pas le vide. Et puisqu’il cherche constamment à donner des résultats à une recherche, même s’il n’y en a pas de pertinents, certaines personnes mal intentionnées peuvent tourner la situation à leur avantage.

Le vide de données (Data Void en anglais) se produit quand il n’existe qu’une quantité très limitée de résultats de recherche pour un terme ou une nouvelle en particulier ou quand l’information disponible est peu sérieuse, trompeuse ou extrémiste. Ce vide informationnel est souvent exploité pour manipuler les résultats de recherche.

Par exemple, des groupes extrémistes se servent souvent des nouvelles de dernière heure, qui n’ont donc pas encore généré beaucoup d’articles sérieux mais qui suscitent beaucoup de recherches, pour diriger les internautes vers leur contenu. Si un événement impliquant la COVID-19, une ambulance et le pont Jacques-Cartier vient de se dérouler, ces groupes extrémistes utiliseront ces termes pour exploiter le vide informationnel, puisqu’ils savent que beaucoup de gens les chercheront avant que les premiers articles légitimes ne soient publiés. Le contenu, évidemment faux, sera toutefois choquant et incitera à faire des dons pécuniaires, etc.

Bulle informationnelle

 

 

La bulle de filtres, c’est l’environnement intellectuel dans lequel les algorithmes peuvent enfermer une personne en lui proposant toujours du contenu susceptible de correspondre à ses valeurs, ses croyances, ses opinions et ses idées. C’est le militant Eli Pariser qui a conceptualisé le phénomène.

N’entre pas dans la bulle qui veut. On a tendance à ignorer ou à bloquer tout ce qui nous choque, comme les arguments des partis politiques auxquels on n’adhère pas, les informations qui pourraient nous fâcher, et les données qui vont à l’encontre de nos croyances ou de nos idées préconçues. Et on clique davantage sur les informations qui confirment ce qu’on veut entendre. Certains algorithmes trient l’information qu’on voit passer et favorisent celles qui suscitent le plus d’engagement.

Par exemple, si une personne est déjà opposée à la vaccination avant la pandémie, elle verra probablement une grande quantité de publications trompeuses et négatives sur la recherche actuelle, mais peu de contenus scientifiques étoffés sur le sujet.

Ainsi, une grande partie de l’information disponible sur les médias sociaux nous est « cachée ». Plus que jamais, il est donc important de faire des efforts pour avoir accès à une panoplie d’informations qui reflètent tous les points de vue pertinents.

Le partage instantané

 

 

Les nouvelles sur la COVID-19, qu’elles soient vraies ou trompeuses, se diffusent rapidement... Et on doit une partie de leur popularité aux fonctionnalités de partages instantanées.

Les boutons Retweet (Twitter), Partager maintenant (Facebook), Reblog (Tumblr), Partager (Instagram) et autres boutons similaires sont des fonctions qui nécessitent peu d’efforts de la part de l’usager.

Quand on sait que le biais de confirmation nous pousse à croire rapidement à des informations qui confirment nos croyances, le partage instantané peut s’avérer dangereux.

Sur Twitter, les gens retweetent deux fois plus de fausses informations que de vraies informations, rapporte une étude du MIT. Une étude de l’Université Cornell conclut que sur Reddit, 73 % des liens partagés sont notés positivement ou négativement avant d’être ouverts.

Attention, on peut facilement amplifier un message trompeur, dangereux.

Bonne nouvelle : Twitter a récemment commencé à tester une nouvelle fonctionnalité pour enrayer le problème. Si un internaute s’apprête à retweeter un article sans l’avoir ouvert, une notification lui demandera s’il ne préfère pas le lire avant de partager.

Retour à la liste des nouvelles