La Commission européenne confirme qu’elle estime qu’en vertu du DSA, les plateformes ont une obligation de lutte contre la désinformation. Problème : cette notion, très délicate à appliquer, n’est pas définie par le Digital services act, ni par un autre texte juridiquement contraignant.
Aujourd’hui, les plateformes luttent contre la désinformation au niveau européen en vertu d’un « code de bonnes pratiques », non contraignant. Elles peuvent quitter ce code à tout moment, comme vient de le faire Twitter. « Le code étant un instrument d’autorégulation, il appartient aux signataires de décider s’ils souhaitent quitter le code« , a confirmé un porte-parole de la Commission européenne que nous avons contacté. Il confirme également que le 26 mai « Twitter a soumis une déclaration indiquant qu’il quittait le Code de bonne pratique sur la désinformation » et qu’en tout état de cause, la plateforme rechignait à appliquer ce code : « la Commission a également fait part de ses préoccupations concernant le respect par Twitter de son engagement à consacrer des ressources et des mesures adéquates à la réduction de la désinformation« . Mais tout pourrait changer : à l’avenir, la Commission estime que les plateformes n’auront plus seulement une incitation, mais une obligation de lutter contre la désinformation, en vertu du DSA et d’un futur code de conduite. Cela pose plusieurs problèmes, dont le fait qu’il n’existe pas de définition précise de ce qui constitue ou non de la désinformation en droit européen n’est pas le moindre.
Risques systémiques
« Si le code (de bonnes pratiques, NDLR) est volontaire, le respect du DSA ne l’est pas« , nous indique le porte-parole de la Commission, qui cite ensuite « une obligation » figurant dans le DSA « pour les très grandes plateformes en ligne, telles que Twitter, d’évaluer et d’atténuer les risques systémiques, y compris la désinformation« . La Commission estime donc que les plateformes ont l’obligation, en vertu du DSA, d’évaluer et d’atténuer la désinformation. La Commission confirme ensuite qu’elle envisage de transformer l’actuel code de bonnes pratiques en code de conduite basé sur l’article 45 du DSA. Si les plateformes respectent ce code de conduite, elles pourront prouver plus facilement qu’elle respectent leur obligation d’évaluer et d’atténuer les risques liés a la désinformation. Voilà exactement ce que déclare le porte-parole de la Commission à ce sujet : « étant donné que le code vise à être reconnu comme un « code de conduite » dans le cadre du DSA, et une fois que ce sera le cas, le respect du code peut constituer une mesure appropriée d’atténuation des risques dans le cadre du DSA.«
Pas de définition
Mais il y a un double problème au sujet de la démarche de la Commission européenne, et de la manière institutionnelle de percevoir la désinformation en général. Le premier, et non le moindre, est que le DSA ne définit pas la notion de « désinformation », et qu’aucun autre texte ayant force de loi au niveau européen ne définit cette notion. Les Etats membres et le Parlement, qui ont négocié le contenu du DSA, se sont bien gardés d’entrer dans le détail de ce sujet très délicat : comment en effet définir ce qui constitue une volonté de désinformer et surtout, comment fournir une liste d’éléments juridiquement utilisables permettant à coup sûr de distinguer information et mensonge ? Les parlementaires ont d’ailleurs, dans une résolution adoptée en 2022, estimé qu’il fallait résoudre le problème de la désinformation pour autant qu’elle venait de l’étranger, et était une propagande d’un pays ou d’une organisation hors Europe. La Russie, bien évidemment, étant la première cible. Mais même dans cette résolution, le Parlement n’a pas défini le terme « désinformation. » Pour sa définition de la désinformation, la Commission a l’intention d’utiliser une définition qu’elle a elle-même rédigée pour les besoins d’une communication de 2018 : « on entend par désinformation, les informations dont on peut vérifier qu’elles sont fausses ou trompeuses, qui sont créées, présentées et diffusées dans un but lucratif ou dans l’intention délibérée de tromper le public et qui sont susceptibles de causer un préjudice public. » On en revient aux mêmes questions que nous posions plus haut : dans de nombreux cas, il est difficile de savoir à coup sur qu’une information est fausse. Cette définition ajoute même des questions aux questions : qu’en est-il pour les publicités affirmant que tel onguent est « anti-rides » que telle pilule permet de « lutter contre les jambes lourdes » ?
Simples considérants
Le deuxième problème posé par la démarche de l’exécutif européen est que le DSA, dans ses considérants et non pas dans ses articles, fournit une liste des « risques systémiques » visés par le texte. Or la désinformation n’y figure que de manière très ciblée. Le texte distingue entre quatre catégories de risques systémiques, dont aucune n’est constituée par la désinformation d’une manière générale. La première est la diffusion de contenus illicites. La seconde est l’incidence des services en ligne sur l’exercice des droits fondamentaux tels que la garantie de la liberté d’expression, la protection des mineurs et des consommateurs. La troisième sont les effets réels ou prévisibles des réseaux sur le processus démocratique. Et la quatrième catégorie de risques est l’effet des plateformes « négatif réel ou prévisible sur la protection de la santé publique et des mineurs, ainsi que des conséquences négatives graves sur le bien-être physique et mental d’une personne, ou sur la violence à caractère sexiste. » Ces risques, indique le texte, « peuvent également résulter de campagnes de désinformationcoordonnées liées à la santé publique ou de la conception d’interfaces en ligne susceptibles de stimuler les dépendances comportementales des destinataires du service. »
Pas illicites mais interdits quand même
Le texte ajoute ensuite que « lors de l’évaluation des risques systémiques recensés dans le présent règlement, ces fournisseurs devraient également se concentrer sur les informations qui ne sont pas illicites mais alimentent les risques systémiques recensés dans le présent règlement. Ces fournisseurs devraient donc accorder une attention particulière à la manière dont leurs services sont utilisés pour diffuser ou amplifier des contenus trompeurs ou mensongers, et notamment à la désinformation. » On doit donc entendre que la désinformation doit être jugulée par les plateformes pour autant qu’elle reprend des contenus contraires aux droits fondamentaux, ou problématiques vis-à-vis du processus démocratique ou de la santé publique, même s’ils ne sont pas illicites. On n’épiloguera pas sur l’exigence invraisemblable du retrait de contenus licites, mais jugés problématiques par on ne sait qui … N’importe quel juriste s’arrache d’avance les cheveux devant un tel paradoxe ! Quoi qu’il en soit, ces extraits figurent dans les considérants qui ne font pas partie du texte per se, et qu’heureusement les juristes qui l’appliqueront pourront choisir d’ignorer. Par ailleurs, pour ce qui est des risques démocratiques, il faut noter que le Parlement et le Conseil sont en train de négocier un texte sur la publicité politique. Or ce texte ne vise pas à interdire la publicité politique, ou à faire en sorte que les plateformes la retirent de manière systématique, mais à obliger à la transparence de son caractère publicitaire.
Twitter Files
Toutes ces problématiques, auxquelles s’ajoutent d’évidentes considérations philosophiques dont nous n’avons pas parlé ici, imposent une inévitable conclusion : la preuve de la lutte contre la désinformation que la Commission a l’intention de réclamer aux plateformes risque bien d’être une foire d’empoigne juridique et politique. Si les plateformes ont joué le jeu des institutions européennes sur la désinformation – sans trop y croire en réalité – jusqu’à il y a quelques semaines, les choses ont aujourd’hui changé. L’émergence des « Twitter Files » aux Etats-Unis ne peut en effet être ignorée. Ces dossiers rendus publics par Elon Musk ont en effet montré que Twitter avait, sous couvert de lutte contre la désinformation, et pour répondre aux demandes du FBI et de la Maison Blanche, retiré des contenus relatifs au Covid et à son vaccin qui se sont avérés véridiques. Les autres plateformes sont également concernées, même si leurs dossiers ne seront pas nécessairement rendus publics.