La recherche de l’information fiable est 1 sport de combat.
Les médias grands publics étant peu fiables, il est nécessaire d’utiliser le Web pour accéder à des sources d’information diversifiées, pluralistes y respectant la réalité factuelle. Mais les outils de recherche et les plates-formes numériques peuvent être biaisées idéologiquement et mettre en œuvre 1 filtrage de l’information. L’article qui suit tente de cerner ce phénomène qui n’est pas sans impact sur notre liberté de penser.
**
La censure algorithmique se réfère à l’utilisation d’algorithmes pour restreindre, masquer, ou supprimer du contenu sur les plateformes numériques. Contrairement à la censure traditionnelle, souvent appliquée par des gouvernements ou des institutions avec des interventions humaines directes, la censure algorithmique est effectuée par des systèmes automatisés, souvent à l’aide de l’intelligence artificielle et de techniques d’apprentissage automatique.
Types et techniques de censure algorithmique
Il existe plusieurs types et techniques de censure algorithmique, chacun ayant des mécanismes spécifiques. Voici les principaux :
1) Filtrage automatisé de contenu : Les algorithmes peuvent détecter et bloquer du contenu jugé inapproprié ou interdit selon des règles prédéfinies. Par exemple, des mots-clés, des images, ou des symboles interdits peuvent être supprimés avant même leur publication.
2) Déclassement de contenu (ou Shadow Banning) : Cette technique consiste à réduire la visibilité de certaines publications ou comptes sans le notifier aux utilisateurs. Par exemple, le contenu peut être moins visible dans les résultats de recherche, ou l’algorithme peut limiter sa portée dans les fils d’actualité.
3) Reconnaissance d’image et de texte. Les plateformes utilisent des algorithmes de reconnaissance pour identifier automatiquement des images, vidéos ou textes sensibles. Ces technologies permettent de censurer des éléments visuels ou textuels spécifiques sans intervention humaine.
4) Surveillance et suppression de comptes : Les algorithmes analysent les comportements en ligne (comme les publications répétitives ou les spams) et peuvent automatiquement suspendre ou supprimer des comptes jugés non conformes.
5) Modération prédictive : Grâce à l’intelligence artificielle, certaines plateformes anticipent le comportement ou le contenu qui pourrait être nuisible. En se basant sur les historiques d’interaction et les tendances, ces systèmes décident de modérer un utilisateur ou un contenu avant même qu’une infraction soit commise.
6) Classification par intelligence artificielle : Certains algorithmes de machine learning sont entraînés pour classer des contenus en catégories telles que "potentiellement violent" ou "inapproprié pour les mineurs", et appliquent des restrictions d’accès.
Les acteurs principaux responsables de la censure algorithmique sont divers, mais peuvent être regroupés en plusieurs catégories :
Plateformes de réseaux sociaux : Facebook, Instagram, YouTube, TikTok et Twitter utilisent des algorithmes de modération pour gérer le contenu partagé par des millions d’utilisateurs. Ces plateformes doivent souvent se conformer aux lois de divers pays, d’où la nécessité de recourir à des techniques de censure automatisée.
Moteurs de recherche : Google et Bing, par exemple, utilisent des algorithmes pour filtrer et classer les résultats de recherche. Ils peuvent être contraints de retirer des liens ou de masquer certains résultats pour se conformer aux lois locales, comme le droit à l’oubli en Europe.
Gouvernements : Certains gouvernements imposent des lois et des directives aux entreprises technologiques pour filtrer les informations. Dans des régimes autoritaires ou démocratiques, les gouvernements collaborent parfois directement avec les entreprises ou développent leurs propres algorithmes pour contrôler le flux d’informations en ligne.
Entreprises privées et institutions : Certaines entreprises, pour protéger leur image, mettent en place des systèmes de censure pour surveiller les critiques ou les avis négatifs. De même, les institutions éducatives et les organisations peuvent restreindre l’accès à certains contenus ou surveiller les interactions en ligne de leurs employés et étudiants.
Organisations de lutte contre la désinformation : Les initiatives pour lutter contre la désinformation (comme la lutte contre les fake news) peuvent conduire à la suppression de contenus jugés faux ou trompeurs. Ces organisations, en collaboration avec des plateformes numériques, développent des outils pour identifier et réduire la diffusion de contenus manipulés.
Pour avoir des informations sur le Digital Service Act (DSA) voir le site : Vie publique à l’adresse : https://www.vie-publique.fr/eclaira...
Pour avoir la vie de la quadrature du net sur le DSA, utilisez le lien : https://www.humanite.fr/social-et-e...
Limites et controverses Bien que la censure algorithmique puisse être utile pour éliminer des contenus nuisibles (comme les discours de haine ou la désinformation), elle pose de nombreux défis, notamment :
Risques d’erreurs : Les algorithmes peuvent mal interpréter le contexte et supprimer des contenus légitimes, entraînant une censure excessive. Par exemple, l’interprétation de « appel à la haine » peut prêter à diverses interprétations. Par exemple écrire : « président Machin démission ! Ou assassin ! » Est-il 1 appel à la haine ou non ?
Transparence limitée : Les plateformes ne révèlent pas toujours leurs critères de censure, ce qui rend difficile la compréhension des décisions de suppression.
D’après le DSA, l’accès aux algorithmes n’est réservé qu’aux chercheurs. Liberté d’expression : La censure algorithmique peut poser des questions éthiques et juridiques, notamment en ce qui concerne les droits des utilisateurs à exprimer librement leurs opinions.
Ainsi, la censure algorithmique est un domaine complexe, où s’entrecroisent enjeux techniques, éthiques et politiques.
* la marginalisation de la visibilité des contenus de gauche et d’extrême-gauche sur les moteurs de recherche et les plateformes numériques fait l’objet de nombreuses analyses et débats. Certains chercheurs, ainsi que des médias de gauche et d’extrême-gauche, soutiennent que les algorithmes des grandes plateformes favorisent effectivement des contenus plus consensuels ou des sources d’information réputées pour leur « neutralité », ce qui peut défavoriser des perspectives politiques plus radicales ou critiques, y compris celles de gauche et d’extrême-gauche. Voici quelques éléments qui éclairent cette question.
1. L’algorithme et la « neutralité » problématique
Plusieurs études et analyses montrent que les algorithmes sont conçus pour maximiser l’engagement de l’utilisateur, souvent en priorisant des contenus perçus comme non polarisants pour éviter la « fuite » d’utilisateurs. Les algorithmes de Google, YouTube, et des réseaux sociaux comme Facebook et Twitter utilisent des paramètres qui favorisent souvent les sources traditionnelles, car celles-ci génèrent plus de clics et sont vues comme des références « fiables ». Cela conduit parfois à une moindre visibilité des contenus provenant de sources alternatives, plus engagées politiquement, et moins financées.
2. Recherche universitaire : biais implicite des algorithmes
Certaines recherches universitaires, notamment en sciences de l’information, suggèrent que les algorithmes peuvent présenter un biais « implicite ». Par exemple, Safiya Noble, professeure à l’Université de Californie, démontre dans son livre Algorithms of Oppression que les résultats de recherche de Google peuvent produire des biais systématiques qui favorisent des perspectives dominantes, souvent à droite de l’échiquier politique, au détriment des voix minoritaires ou marginalisées, y compris celles de la gauche radicale. Noble souligne que, malgré la neutralité technologique supposée des algorithmes, ceux-ci reflètent les biais sociétaux, y compris des préjugés politiques.
3. Des études récentes : les algorithmes et la censure de gauche
D’autres études, notamment une étude de 2020 publiée par The Markup, ont constaté que Google renvoie plus fréquemment des résultats de sites d’actualités de droite dans ses suggestions de recherche et met souvent en avant des sources conservatrices dans ses fonctionnalités de « Google News ». Les chercheurs attribuent cela aux politiques d’optimisation SEO plus efficaces chez certains sites de droite, mais aussi à un biais systémique dans les paramètres de crédibilité que Google attribue aux sources.
4. Des témoignages de groupes et sites de gauche et d’extrême-gauche
Des groupes de gauche et d’extrême-gauche, comme Mediapart en France, ou des organisations comme Jacobin aux États-Unis, ont régulièrement dénoncé la moindre visibilité de leurs contenus sur des plateformes comme Facebook, affirmant que leurs publications sont parfois déclassées, voire cachées dans les résultats des moteurs de recherche et les fils d’actualités. Ces accusations sont difficiles à prouver de manière exhaustive, mais elles reposent souvent sur des données ponctuelles et des expériences collectées par des sites engagés.
5. Les algorithmes : une question de conception et d’objectifs commerciaux
Finalement, certains spécialistes, comme le chercheur Robert Epstein, suggèrent que les géants du numérique se sont structurés pour maximiser les revenus publicitaires, ce qui les amène à privilégier des contenus modérés et largement acceptés, souvent associés à des valeurs conservatrices ou apolitiques. Ces plateformes cherchent aussi à éviter toute polarisation qui risquerait d’aliéner une partie de leurs utilisateurs et de leurs annonceurs, ce qui les pousse parfois à déprioriser les contenus critiques de gauche.
En conclusion, bien que les algorithmes ne soient pas « de droite » par nature, leur conception et leur mode de fonctionnement peuvent, dans les faits, favoriser des contenus modérés ou conservateurs et marginaliser certaines voix de gauche et d’extrême-gauche. Les géants technologiques comme Google ou Facebook ne divulguent pas les détails de leurs algorithmes, ce qui rend difficile une évaluation complète de leurs biais potentiels. Les chercheurs et activistes s’accordent néanmoins pour appeler à une transparence accrue et à une réglementation plus stricte des algorithmes afin d’assurer une diversité de perspectives sur ces plateformes.
*
Illustration : voir article sur le site Secours rouge : https://secoursrouge.org/internet-l...
voir un autre article sur cette question : Les algorithmes sont-ils de droite https://affordance.framasoft.org/20...
N’importe quel site qui n’adopte pas la position idéologique dominante du moment qui est généralement véhiculé par les médias grands publics peut être victime de marginalisation algorithmique.
En effet, la censure algorithmique ne se limite pas nécessairement à des sites d’une sensibilité politique particulière, mais peut s’appliquer à n’importe quel contenu jugé déviant par rapport aux normes ou aux idéologies dominantes de l’époque. Ces normes sont souvent modelées par les médias dominants et les grandes plateformes qui contrôlent la visibilité des informations en ligne.
Les algorithmes de modération ou de recommandation, conçus pour "optimiser l’expérience utilisateur" ou "réduire la désinformation," sont souvent influencés par des lignes directrices qui reflètent une certaine vision du monde. Ce cadre peut effectivement favoriser une idéologie dominante, qui est parfois alignée avec les intérêts ou la ligne éditoriale des médias dominants, ou même les pressions sociales et politiques du moment. En conséquence, les voix alternatives, qu’elles soient de gauche, de droite, ou totalement apolitiques, risquent d’être marginalisées si elles contredisent cette vision.
Ce phénomène se renforce d’autant plus lorsque les algorithmes sont alimentés par des bases de données issues de choix humains (les données d’entraînement) ou sont directement encadrés par des consignes issues des régulateurs ou des grandes entreprises de technologie. Résultat : les algorithmes peuvent devenir un outil efficace pour invisibiliser les points de vue minoritaires sans nécessiter une intervention humaine directe.
Ce type de censure, par sa nature algorithmique est souvent imperceptible pour les utilisateurs, peut renforcer les biais préexistants et créer une bulle informationnelle homogène. Il est donc essentiel de questionner la transparence de ces processus algorithmiques et de plaider pour des systèmes où la diversité d’opinion reste accessible, afin de préserver la pluralité des idées et éviter une uniformité discursive imposée de manière invisible.
Pour contourner cette censure algorithmique il est nécessaire d’utiliser plusieurs moteurs de recherche (voir annexe) et de disposer d’un annuaire de sites alternatifs performant. (Nous en mettrons 1 en ligne prochainement).
La censure algorithmique est un sujet d’actualité, et plusieurs livres en français abordent cet enjeu sous différents angles, tels que l’impact des algorithmes sur la liberté d’expression, la manipulation des informations, et les biais dans les systèmes automatisés. Voici une sélection de titres :
1. "L’Âge du capitalisme de surveillance" de Shoshana Zuboff
Bien que l’ouvrage de Zuboff soit américain, il a été traduit en français et explore comment les entreprises technologiques utilisent des algorithmes pour surveiller, influencer, et parfois restreindre le comportement des utilisateurs. Elle parle aussi des dérives de ces technologies et de leur impact sur la démocratie et la vie privée.
2. "Algorithmes : La bombe à retardement" de Cathy O’Neil
Connu sous le titre original "Weapons of Math Destruction," ce livre, traduit en français, traite des risques associés aux algorithmes dans divers secteurs (emploi, éducation, finance) et des discriminations qu’ils peuvent engendrer. O’Neil alerte également sur la manière dont ces outils sont parfois utilisés pour censurer et filtrer des contenus.
Présentation de l’ouvrage sur YouTube :
https://www.youtube.com/watch?app=d...
3. "La fabrique du crétin digital : Les dangers des écrans pour nos enfants" de Michel Desmurget
Bien que ce livre ne traite pas exclusivement de la censure, il explore le rôle des algorithmes dans la manipulation des contenus diffusés aux jeunes et la manière dont les plateformes dirigent l’attention et influencent la pensée des utilisateurs.
Présentation du livre par l’auteur, neuropsychiatre : https://www.youtube.com/watch?v=pXd...
4. "L’appétit des géants : Pouvoir des algorithmes, ambitions des plateformes" écrit par Olivier Ertzscheid. Il est publié aux éditions C&F éditions.
Cet ouvrage explore comment les technologies et les grandes plateformes influencent et contrôlent la circulation de l’information,
5. "La Silicolonisation du monde : L’irrésistible expansion du libéralisme numérique"
Auteur : Éric Sadin
Éditeur : L’Échappée, 2016
Résumé : Éric Sadin analyse l’impact des technologies numériques sur nos vies et démontre comment les grandes entreprises tech façonnent des pratiques de contrôle et d’influence à une échelle mondiale. Cet essai explore les effets de la surveillance algorithmique et du pouvoir des GAFAM.
6. "L’intelligence artificielle ou l’enjeu du siècle : Anatomie d’un antihumanisme radical"
Auteur : Éric Sadin
Éditeur : L’Échappée, 2018
Résumé : Dans ce livre, Sadin aborde les effets de l’IA et des algorithmes sur la société, y compris les questions de surveillance et de contrôle social. Il critique la "raison algorithmique" et son impact sur l’humanité.
7. "Technopolice : Comment l’État nous surveille"
Auteur : La Quadrature du Net
Éditeur : Éditions Divergences, 2020
Résumé : Cet ouvrage collectif traite de la surveillance technologique et de la montée de la "technopolice" en France. Il aborde la question des algorithmes de surveillance déployés dans l’espace public et leurs impacts sur les libertés individuelles.
8. "Les algorithmes font-ils la loi ?"
Auteur : Antoinette Rouvroy (ouvrage collectif)
Éditeur : Presses Universitaires de France (PUF), 2018
Résumé : Rouvroy et ses co-auteurs explorent la notion de "gouvernementalité algorithmique", examinant la manière dont les décisions automatiques et les big data influencent la société et les droits des citoyens.
9. "Dans la tête de l’algorithme : L’intelligence artificielle et nous"
Auteur : Aurélie Jean
Éditeur : L’Observatoire, 2019
Résumé : Aurélie Jean propose une analyse des algorithmes et de leur influence sur notre quotidien, en exposant les biais possibles et les questions éthiques autour de l’IA et de l’usage de la donnée.
Ces ouvrages abordent la censure, les biais, et les conséquences des algorithmes sur nos sociétés modernes, en mettant en lumière les aspects souvent cachés de la surveillance numérique et du pouvoir algorithmique.
**
Annexe
Des moteurs de recherche complétant Google ou alternatifs.
Duck duck go : https://duckduckgo.com
Yandex : https://yandex.com/ Bing : https://www.bing.com/?cc=fr
Quwant : https://www.qwant.com/
Ecosia : https://www.ecosia.org/?c=fr
Lilo : https://www.lilo.org/
**
Hervé Debonrivage
Date | Nom | Message |