You are currently viewing Qui établit les règles ? Pouvoir, gouvernance et autorité dans les espaces numériques

Qui établit les règles ? Pouvoir, gouvernance et autorité dans les espaces numériques

Lorsque nous ouvrons une application de réseau social, rejoignons un forum ou téléchargeons une photo ou une vidéo, nous pouvons avoir l’impression d’entrer dans une place publique et de nous exprimer librement devant le monde entier ; mais les espaces numériques ne sont pas « publics » au même titre qu’une mairie ou une rue. Il s’agit d’environnements privés, façonnés par un mélange de politiques de plateformes, de systèmes de modération, de choix techniques cachés et, de plus en plus, de lois visant à responsabiliser les plateformes. Comprendre qui établit les règles est une compétence essentielle pour la citoyenneté numérique, en particulier pour les jeunes qui apprennent à naviguer de manière critique dans la vie en ligne et à associer à juste titre les réalités numériques aux systèmes civiques.

Règles des plateformes : la loi que vous acceptez (même si vous ne l’avez jamais lue)

La plupart des plateformes en ligne régissent les comportements par le biais de conditions d’utilisation et de directives communautaires, que les utilisateurs ne lisent souvent pas entièrement et acceptent simplement sans poser de questions. Il ne s’agit pas de lois démocratiques, mais de règles contractuelles rédigées par des entreprises que tous les utilisateurs doivent respecter. Les plateformes peuvent les mettre à jour rapidement, les interpréter de manière flexible et les appliquer de manière inégale, souvent à grande échelle et avec une simple notification.

Les plateformes agissent ainsi à la fois comme des législateurs et des exécutants. Un utilisateur peut être supprimé, « shadow banned », soit banni de manière invisible (lorsque sa visibilité est considérablement réduite sans avertissement), démonétisé ou voir son contenu supprimé sur la base de politiques censées être claires et strictes, mais qui dépendent souvent de la culture, sont difficiles à contester et assez larges (comme le « contenu préjudiciable »). C’est pourquoi de nombreux groupes de la société civile réclament des normes minimales d’équité et de transparence dans les décisions de modération, notamment des explications et des recours plus clairs, et pourquoi les utilisateurs en ligne doivent rester conscients de ce qui est autorisé ou interdit dans les espaces qu’ils utilisent et comprendre leurs droits et leurs responsabilités.

Modération : humains, algorithmes et échelle

La modération de contenu est souvent imaginée comme une personne qui examine les publications et prend des décisions éclairées en fonction du contexte. Cependant, en réalité, la modération est généralement un système hybride : la détection automatisée signale le contenu, les humains examinent certains cas et certaines politiques, et les outils de workflow déterminent les priorités. À grande échelle, les plateformes populaires s’appuient fortement sur l’automatisation et le triage, ce qui peut créer des problèmes prévisibles : faux positifs (contenu légitime supprimé), faux négatifs (contenu préjudiciable approuvé) et application incohérente selon les langues et les communautés.

Les préjugés et les partis pris peuvent fortement influencer ces processus, en particulier lorsque les algorithmes sont mal conçus ou entraînés sur des données biaisées, et lorsque les modérateurs humains laissent leurs perceptions personnelles ou leurs suppositions culturelles influencer leurs décisions. En conséquence, les groupes minoritaires sont plus susceptibles d’être soumis à une modération plus stricte, à des sanctions répétées et à des interdictions plus fréquentes, ce qui limite leur visibilité en ligne et nuit à l’équité et à la représentation équitable.

Les décisions de modération influencent ce qui est visible et promu, ce qui devient « normal » et qui se sent suffisamment en sécurité pour participer à certains espaces. Et comme la modération est en partie automatisée, l’application des règles peut s’apparenter moins à un tribunal qu’à une machine de gestion des risques, où des codes et des normes spécifiques sont adoptés par un groupe uniquement pour éviter les interdictions ou les signalements, limitant ainsi la liberté d’expression et falsifiant les comportements et le langage courants.

Structures de pouvoir invisibles : ce que vous ne voyez pas façonne vos croyances

Même lorsque le contenu n’est pas supprimé, les plateformes régissent l’attention grâce à des systèmes de conception et de classement : flux de recommandations, listes de tendances, panneaux « suggérés pour vous » et outils publicitaires. Ces choix déterminent quelles voix sont amplifiées et quelles idées gagnent en popularité. En ce sens, l’autorité en ligne ne consiste pas seulement à supprimer du contenu, mais aussi à organiser la visibilité.

C’est pourquoi les débats sur la gouvernance se concentrent de plus en plus sur l’observabilité : la capacité des chercheurs, des régulateurs et du public à comprendre comment la modération et le classement fonctionnent dans la pratique, et pas seulement en théorie. La loi européenne sur les services numériques (DSA), par exemple, introduit des obligations de transparence visant à rendre les décisions des plateformes plus contrôlables.

Gouvernance numérique : quand les règles des plateformes rencontrent le droit public

Ces dernières années, les gouvernements sont passés d’une approche « non interventionniste » à une réglementation plus stricte des plateformes privées. Dans l’UE, la loi sur les services numériques (règlement (UE) 2022/2065) impose des obligations graduelles aux intermédiaires en ligne et des obligations plus strictes aux très grandes plateformes en ligne, notamment en matière d’évaluation des risques, de rapports de transparence et de mécanismes de recours pour les utilisateurs.

Un exemple particulièrement concret est la base de données sur la transparence de la DSA gérée par l’UE, qui exige des plateformes qu’elles fournissent des « exposés des motifs » pour certaines décisions de modération de contenu, dans le but d’inciter les plateformes à clarifier leurs justifications et à renforcer leur responsabilité.

Cependant, la gouvernance ne se limite pas aux lois. Elle englobe un écosystème plus large : normes, groupes de surveillance, accès à la recherche, rapports sur la transparence et pression publique. En 2021, l’OCDE, par exemple, a analysé les rapports sur la transparence en tant que pratique visant à instaurer la confiance, tout en soulignant les lacunes persistantes et les disparités en matière de qualité.

Ce que cela signifie pour la citoyenneté numérique et l’éducation civique

Pour les apprenants, l’idée clé est la suivante : les espaces en ligne sont régis par plusieurs niveaux d’autorité.

  1. Autorité de la plateforme (politiques + systèmes d’application)
  2. Autorité technique (algorithmes, conception, incitations commerciales)
  3. Autorité publique (lois, régulateurs, tribunaux)
  4. Autorité sociale (normes communautaires, pression des pairs, action collective)

L’éducation à la citoyenneté numérique est renforcée lorsque les apprenants peuvent se poser les questions suivantes : À qui profitent ces règles ? Qui est protégé ? Qui est réduit au silence ? Quelles sont les options disponibles pour faire appel, signaler ou contester des décisions ? Pour permettre ces élans de pensée critique, les approches ludiques telles que les ressources du projet DigiCity, comme les jeux vidéo et les escape games où les joueurs se retrouvent plongés dans des situations numériques et civiques complexes, sont très efficaces car elles permettent aux apprenants de découvrir la gouvernance de manière sûre et contrôlée : naviguer dans les systèmes de règles, faire des compromis et réfléchir à l’équité, à l’égalité et à la prise de décision éthique.

En bref, les règles de la vie numérique sont élaborées dans les salles de réunion, codées dans des systèmes et de plus en plus façonnées par la réglementation. Devenir un citoyen numérique signifie non seulement apprendre à se comporter en ligne, mais aussi comprendre le fonctionnement du pouvoir en ligne et savoir réagir avec autonomie, respect, éthique et esprit critique.

 

Références :