Les plateformes de médias sociaux, telles que “Google”, “Facebook”, “YouTube” et “Twitter”, exercent un contrôle sur le contenu écrit et l’expression visuelle de milliards d’utilisateurs à travers le monde. Bien qu’on ait d’abord cru que ces plateformes étaient des espaces pour l’échange libre d’idées, avec le temps et leur popularité croissante, les restrictions sur ce que nous pouvons faire ou dire se sont intensifiées, tout comme la pression que ces plateformes subissent de la part d’entités externes. Ainsi, nous devons considérer ces plateformes comme agissant en tant que “nouveaux gouverneurs” de l’expression en ligne.
Dans ce contexte, Jillian C. York, activiste et auteur américaine sur la liberté d’expression, discute dans son nouveau livre de comment les plateformes de médias sociaux créées dans la Silicon Valley ont établi un système régissant la manière dont les gens s’expriment en ligne. Ce processus est régi par un système plus large que l’on appelle “capitalisme de surveillance”, un terme utilisé pour décrire un processus global de surveillance et de contrôle du comportement humain à des fins de profit.
Censure Politique :
L’auteure note que l’idée prédominante parmi les défenseurs des libertés civiles est que les entreprises de médias sociaux devraient s’efforcer de réduire la censure en répondant uniquement aux ordonnances judiciaires des pays où elles ont des bureaux, des employés ou d’autres actifs significatifs, de peur de devenir des outils de surveillance gouvernementale. Cependant, au fil du temps, il est devenu clair qu’en plus des demandes formelles de retrait ou de restriction de contenu, il existe de nombreux moyens informels par lesquels les gouvernements interagissent avec ces entreprises.
L’auteure cite une politique de Facebook connue sous le nom d’“exemption d’actualité”, qui a été critiquée par des activistes qui estiment qu’elle privilégie le discours des politiciens sur le leur. Cette politique permet de laisser des publications qui violent les normes communautaires sur la plateforme si l’entreprise estime que l’intérêt public de les voir l’emporte sur les risques de préjudice. Twitter a également été accusé de continuer à permettre le discours haineux de l’ancien président Donald Trump, malgré le fait que cela viole les règles de la plateforme.
York a souligné dans sa critique des plateformes de médias sociaux que lorsque la parole des citoyens ordinaires est valorisée moins que celle des politiciens, et lorsque les activistes sont réduits au silence par les autorités d’État ou les entreprises de médias sociaux, cela indique des formes de répression électronique en ligne.
Priorité au Profit :
L’auteure pointe du doigt que quiconque suit les déclarations du fondateur de “Facebook”, Mark Zuckerberg, remarquera qu’il considère sa plateforme comme un simple moyen, tandis que garantir la liberté d’expression est une question décidée par les gouvernements et leurs peuples. Dans ce contexte, lorsqu’un gouvernement étranger ordonne à “Facebook” de retirer un contenu, l’entreprise suit simplement les ordres, car Zuckerberg ne considère pas la protection des utilisateurs et de leurs opinions comme une responsabilité de Facebook.
Il est à noter que certaines plateformes de médias sociaux basent leurs décisions et leur politique sur des études de marché, ce qui est troublant – selon l’auteure – car la majorité des études de marché sont menées dans seulement quelques pays généralement plus riches et plus conservateurs. Cela indique que ces entreprises choisissent de servir des utilisateurs plus riches au détriment du droit des autres à la libre expression et à l’accès à l’information.
L’auteure est convaincue que les entreprises de médias sociaux se sont éloignées de leurs missions originales, alors que des responsables à l’intérieur de celles-ci ont rempli leurs poches avec les revenus générés par des annonceurs exploitant des citoyens à travers le monde, devenant ainsi plus alignées avec l’autorité.
Contenu Violent :
Les terroristes cherchent à promouvoir leurs idéologies parmi les gens, car leurs attaques n’ont pas de sens sans cela. Les médias sociaux offrent simplement une plateforme gratuite pour tout terroriste. Cependant, la censure n’est pas toujours une solution efficace. Ici, l’auteure cite un exemple qui met en lumière un problème fondamental dans la manière dont les décideurs des plateformes de médias sociaux traitent le contenu violent et extrémiste. Lorsque les vidéos des décapitations par l’État Islamique (ISIS) ont commencé à apparaître en Syrie en 2011, la décision de les conserver en ligne a été jugée “d’actualité”. Cependant, lorsque le meurtre du journaliste américain James Foley a été diffusé mondialement de la même manière, ces évaluations ont changé, et le clip a été supprimé précipitamment.
Avec les demandes croissantes du public et des médias pour agir contre les diffusions de l’État Islamique, “Facebook” a pris l’initiative. En juin 2017, l’entreprise a annoncé qu’elle introduirait l’intelligence artificielle pour aider à retirer le contenu extrémiste, ce qui a conduit à la suppression de centaines de milliers de vidéos contenant un tel matériel. Quelques mois après que les entreprises aient commencé à utiliser l’IA, “Facebook” et “YouTube” ont été accusés d’effacer des preuves d’atrocités, mettant en péril les affaires contre les criminels de guerre.
Dilemme de la Pornographie :
L’auteure met en lumière le dilemme auquel les plateformes de médias sociaux sont confrontées pour distinguer entre le contenu traitant de la nudité et du sexe dans l’art et le contenu pornographique. Un ensemble de documents divulgués concernant les politiques de “Facebook” a montré qu’il tentait d’établir une politique cohérente à cet égard, distinguant entre “l’art fait à la main”, tel que les images peintes et les sculptures, autorisées à représenter la nudité, et “l’art produit numériquement” utilisant des moyens modernes, faisant face à des restrictions plus importantes.
Bien que quelques plateformes de médias sociaux choisissent de permettre la publication de contenu pornographique, d’autres, en particulier “Facebook” et “YouTube”, ont choisi d’interdire le contenu explicite dès le départ et ont rapidement cherché des solutions pour garantir que leurs plateformes ne soient pas submergées par la pornographie, craignant de devenir indésirables pour les annonceurs.
Lutter contre la pornographie n’a pas été facile ; peu importe combien les entreprises investissent dans la surveillance du contenu, les éditeurs de pornographie trouvent des moyens de présenter leur matériel sur les médias sociaux. Par conséquent, la plupart des plateformes ont resserré leurs pratiques de surveillance, entraînant une diminution du contenu pornographique, mais cela a également conduit à l’interdiction de beaucoup d’autres contenus, comme les informations liées à la santé sexuelle, en raison de techniques de filtrage trop larges.
Machines au Lieu des Humains :
Le traitement automatisé est de plus en plus utilisé pour appliquer les politiques de contenu établies par les plateformes de médias sociaux. Cependant, malgré tous les progrès réalisés dans le développement des technologies automatisées, les algorithmes d’apprentissage machine actuels sont encore confrontés à des défis pour discerner les nuances entre les concepts. De plus, les algorithmes d’apprentissage machine apprennent des données qu’ils reçoivent. Ainsi, l’intelligence artificielle reflète les perspectives de ses créateurs et peut donc être biaisée ou discriminatoire.
Concernant la surveillance du contenu écrit ou audio, le problème évident est que les entreprises n’investissent tout simplement pas le même montant de ressources dans les langues non majeures comme elles le font en anglais, en espagnol, en français et dans quelques autres langues. Dans certains cas, elles n’ont pas de soutien pour certaines langues. Cela impacte, bien sûr, l’efficacité de la surveillance automatisée et humaine.
Les algorithmes ne peuvent pas simplement remplacer l’expertise humaine. Une fois que les entreprises de médias sociaux se sont débarrassées des humains du processus et ont laissé les machines s’en charger, on ne peut qu’imaginer le type de normes culturelles qui prévaudront à l’avenir.
Propagation de la Haine :
D’ici 2017, “Facebook”, “Twitter” et “YouTube” avaient adopté des politiques interdisant la plupart des formes de discours haineux, qui sont rarement interprétées ou appliquées de manière cohérente. Par exemple, bien que le contenu défendant ouvertement le nazisme soit presque certain d’être supprimé s’il est signalé, un discours anti-musulman peut ne pas être traité de la même manière.
Il convient de noter ici qu’au lieu de s’attaquer au problème du discours de haine avec la précision qu’il nécessite, la plupart des entreprises ont eu recours à des outils de surveillance automatisée qui ne peuvent pas distinguer les nuances qui définissent le discours de haine.
Selon l’auteure, le problème des plateformes ne réside pas dans le fait de permettre à quiconque de s’exprimer librement, mais dans leur conception qui vise à monétiser et capitaliser sur tout contenu qui gagne en popularité, même s’il prône le génocide. Cela explique pourquoi les entreprises de médias sociaux retardent souvent leur action contre l’incitation et le discours haineux. Par conséquent, l’auteure estime que le rôle des plateformes dans la propagation du discours de haine doit être abordé, tout en s’attaquant simultanément à la question à sa racine dans les foyers, les salles de classe et les couloirs de pouvoir.
Exigences Immédiates :
La pandémie de COVID-19 a démontré que les entreprises de médias sociaux avaient la volonté de censurer certaines formes d’expression, et peut-être que la meilleure preuve de cela est la disparition d’une vidéo intitulée “Plandemic”, qui promouvait de nombreuses fausses affirmations sur le coronavirus. “YouTube”, “Facebook” et “Twitter” se sont empressés de supprimer la vidéo, que certains observateurs ont considérée comme la preuve que les entreprises avaient toujours été capables de gérer le contenu nuisible. Cependant, elles ont choisi de ne pas le faire, concentrant leur attention sur des éléments que les gouvernements et d’autres entités puissantes souhaitaient qu’elles censurent.
L’auteure a souligné qu’il existe des changements que les entreprises de médias sociaux doivent mettre en œuvre immédiatement, le plus important étant la divulgation et la transparence sur ce qu’elles censurent, garantissant à chaque utilisateur le droit de contester la suppression de contenus, fournissant aux utilisateurs des informations sur la manière dont les données alimentent les algorithmes de recommandation de contenu, obtenant le consentement des utilisateurs pour l’utilisation de leurs données, et accordant aux utilisateurs plus d’options concernant ce qu’ils voient en naviguant. Elles devraient également travailler immédiatement à impliquer la société civile dans l’élaboration des politiques de manière transparente, mener un audit complet pour évaluer l’alignement des politiques actuelles avec les normes des droits de l’homme, et apporter des modifications là où cela est nécessaire.
Source :
Jillian C. York, Silicon Values: The Future of Free Speech under Surveillance Capitalism, Verso, 2022.

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Comments