Les résultats du concours BCE seront disponibles dès 14h aujourd’hui. Cliquez ici
Taxe d’apprentissage : soutenez IMT-BS ! En savoir plus
Prends rendez-vous pour passer tes oraux du concours BCE en cliquant ici
 Prépare ta venue sur notre campus en cliquant ici

Masterclass : comprendre les attentes des collaborateurs. Mercredi 5 novembre de 9h à 10h . Inscriptions : cliquez-ici

Rechercher

Désinformation en ligne : pourquoi l’ambiguïté des définitions fragilise le Digital Services Act

Mis en place comme un cadre pour les grandes plateformes numériques, le Digital Services Act (DSA) est entré en vigueur en 2022 pour lutter contre la désinformation en ligne. Pourtant, son efficacité reste limitée : un article récent montre que cette difficulté tient en grande partie à l’absence de définitions partagées des notions de « mésinformation » (information fausse, mais la personne qui la diffuse pense qu’elle est vraie) et de « désinformation » (information fausse, et la personne qui la diffuse sait qu’elle est fausse), pourtant centrales dans la régulation européenne.

 

Un cadre réglementaire ambitieux face aux désordres informationnels

Aujourd’hui, les plateformes numériques occupent une place centrale dans la circulation de l’information et la structure du débat public. Leur capacité à amplifier des contenus à grande échelle soulève des inquiétudes croissantes quant aux effets de la mésinformation et de la désinformation sur la démocratie, la santé publique ou encore l’harmonie sociale. Pour répondre à ces enjeux, l’Union européenne a adopté le Digital Services Act (DSA), qui impose aux très grandes plateformes de prévenir et d’atténuer les risques liés à leurs services.

Cependant, malgré cette ambition, les effets concrets du DSA sur la limitation de la désinformation restent difficiles à évaluer. Dans leur article Navigating Misinformation and Disinformation: How Definition Ambiguity Limits the DSA’s Implementation, Marion Seigneurin, Christine Balagué et Inna Lyubareva identifient une cause à cette faiblesse : l’ambiguïté persistante des définitions de la mésinformation et de la désinformation.

 

Des définitions multiples selon les acteurs

En effet, malgré les deux définitions données plus haut, il reste difficile pour un robot de connaître l’intention de l’auteur d’une fake news.

L’étude Navigating Misinformation and Disinformation: How Definition Ambiguity Limits the DSA’s Implementation s’appuie sur l’analyse de 79 documents issus de différents écosystèmes : textes réglementaires européens, politiques internes de plateformes numériques, codes de fact-checking et publications académiques.

Les autrices montrent que ces acteurs utilisent les notions de mésinformation et de désinformation de manière hétérogène, parfois implicite, mais souvent contradictoire ! Cette diversité s’explique par des intérêts et des contraintes institutionnelles distincts. Là où les régulateurs privilégient une approche prudente juridiquement parlant, soucieuse de préserver la liberté d’expression, les plateformes adoptent des définitions compatibles avec leurs capacités techniques et leurs modèles économiques. Les fact-checkers, eux, se concentrent sur l’exactitude factuelle des contenus, tandis que les chercheurs mobilisent des cadres théoriques variés, rarement égaux.

 

Quatre critères, mais pas de cadre commun

L’analyse met en évidence quatre grands critères utilisés pour caractériser la mésinformation et la désinformation :

  • La qualité du contenu (véracité, fiabilité des sources…),
  • L’intention (présence ou non d’une volonté de tromper),
  • Le risque associé,
  • Les techniques de création et de diffusion (automatisation, coordination, amplification…).

Or, ces critères sont rarement combinés de manière cohérente. Certains acteurs privilégient l’intention, d’autres le risque ou les modalités de diffusion, ce qui conduit à des interprétations divergentes de ce qui constitue un contenu problématique au sens du DSA.

 

Des conséquences concrètes pour la mise en œuvre du DSA

Cette fragmentation a des effets directs sur l’efficacité du Digital Service Act. Elle complique l’évaluation des risques systémiques que les plateformes sont tenues de réaliser, affaiblit la conception et l’évaluation des contre-mesures mises en place, et limite la comparabilité des travaux de recherche et des audits indépendants.

Elle alimente également des tensions autour de la liberté d’expression, en rendant floue la frontière entre contenus nuisibles et opinions légitimes. En l’absence de critères partagés, la régulation risque soit d’être inefficace, soit de susciter des contestations quant à sa légitimité démocratique.

 

Clarifier pour mieux réguler

Face à ce constat, les autrices plaident pour l’adoption de définitions opérationnelles fondées sur des critères explicites et partagés. Sans chercher à imposer une définition unique et rigide, elles défendent un cadre commun permettant d’articuler qualité du contenu, intention, risque et modes de diffusion.

Une officialisation renforcerait la cohérence de l’action réglementaire, faciliterait le travail des chercheurs et des autorités de contrôle, et offrirait une base plus solide pour évaluer l’impact réel du Digital Services Act. Plus largement, l’article rappelle que la lutte contre la désinformation et mésinformation repose autant sur des choix conceptuels que sur des outils techniques ou juridiques.