Pages

dimanche 29 août 2021

Comportements manipulateurs, démonétisation et cyberattaques au menu de la révision du code de conduite sur la désinformation

 


Pas de législation contraignante. C’est le choix de la Commission fait en la matière. Il s’agit seulement de renforcer le contenu de l’actuel code de conduite. Des orientations prévoient à cet égard de lutter plus efficacement contre les comportements manipulateurs utilisés pour propager des éléments de désinformation, par exemple en prenant en compte les nouveaux modes de diffusion. Elles englobent également des phénomènes tels que les campagnes de désinformation menées sous forme de cyberattaques, comme menaces hybrides. D’autres mesures sont prises en compte, comme une meilleure implication des plateformes en ligne pour démonétiser la désinformation.


De quoi parle-t-on ?

Les orientations définissent les principaux éléments qui sont nécessaires, selon la Commission, pour transformer le code en un instrument plus solide en vue de lutter contre la désinformation et de créer un environnement en ligne plus sûr et plus transparent.
Ces orientations :

  • exposent le point de vue de la Commission sur la manière dont les plateformes et les autres parties prenantes concernées devraient renforcer leurs mesures visant à combler les lacunes et les insuffisances du code;
  • se fondent sur l’expérience acquise jusqu’à présent par la Commission concernant le suivi et l’évaluation du code et sur le rapport de la Commission sur les élections de 2019;
  • contribuent également à la réponse de la Commission aux conclusions du Conseil européen de décembre 2020.

Un domaine, en particulier, dans lequel le code n’a pas permis de réaliser des progrès suffisants est celui de la démonétisation de la désinformation, c’est-à-dire les cas dans lesquels les publicités en ligne continuent d’encourager la diffusion d’éléments de désinformation.

Quels sont les enjeux actuels ?

La crise de la COVID-19 illustre de manière saisissante les menaces et les dangers que la désinformation représente pour nos sociétés.
L’«infodémie», c’est-à-dire la diffusion rapide d’informations fausses, inexactes ou trompeuses sur la pandémie, fait peser des risques considérables sur la santé des personnes, les systèmes de santé publique, la gestion efficace des crises, l’économie et la cohésion sociale. 

Cette «infodémie» liée à la pandémie de COVID-19 a démontré que la mésinformation (informations fausses ou trompeuses diffusées sans intention malveillante) est également susceptible de causer un préjudice public important si elle devient virale.

La pandémie a également accru les enjeux, car il était nécessaire de garantir la sécurité de l’écosystème en ligne et elle a montré que, malgré les efforts considérables déployés jusqu’à présent, il est urgent d’intensifier les efforts l’UE dans le cadre de la lutte contre la désinformation.

D’où vient-on ?

Le code de bonnes pratiques contre la désinformation  est un texte d’autoréglementation qui constitue une pièce maîtresse des efforts de l’Union en la matière.
Il est en vigueur depuis octobre 2018 et ses signataires comprennent désormais les principales plateformes en ligne actives dans l’Union ainsi que, entre autres, les grandes associations professionnelles représentant le secteur européen de la publicité.

Cependant, l’évaluation du code de bonnes pratiques par la Commission en 2020 a révélé des lacunes importantes, notamment une application incohérente et incomplète du code sur les plateformes et dans les États membres, des limites intrinsèques au caractère autorégulateur du code, ainsi que des lacunes dans la couverture des engagements du code.
L’évaluation a également mis en évidence:

  • l’absence de mécanisme de suivi approprié, notamment d’indicateurs clés de performance (ICP),
  • le manque d’engagement concernant l’accès aux données des plateformes pour la recherche sur la désinformation et la participation limitée des parties prenantes, en particulier dans le secteur de la publicité.

Par conséquent, la Commission a annoncé dans le plan d’action pour la démocratie européenne qu’elle publiera une orientation sur le renforcement du code, dans le cadre d’actions globales visant à lutter contre la désinformation dans l’environnement en ligne, et qu’elle présentera une législation spécifique concernant la transparence de la publicité à caractère politique.

Quel est la philosophie actuelle ?

Dans le Plan d’action contre la désinformation, la Commission européenne et la haute représentante ont défini une stratégie globale visant à lutter contre la désinformation au sein de l’Union.
Dès le départ, l’approche de l’Union en matière de lutte contre la désinformation s’est fondée sur la protection de la liberté d’expression et des autres droits et libertés garantis par la Charte des droits fondamentaux de l’UE.

Dans le respect de ces droits et libertés, plutôt que de criminaliser ou d’interdire la désinformation en tant que telle, la stratégie de l’Union vise à rendre l’environnement en ligne et ses acteurs plus transparents et plus responsables, en renforçant la transparence des pratiques de modération des contenus, en responsabilisant les citoyens et en favorisant un débat démocratique ouvert.
À cette fin, l’Union européenne a cherché à mobiliser toutes les parties prenantes concernées, notamment les pouvoirs publics, les entreprises, les médias, la sphère universitaire et la société civile.
 
Une limite malgré tout, si les conditions générales des plateformes en ligne peuvent aussi couvrir les contenus préjudiciables mais non illicites, lorsque la désinformation constitue un contenu illicite (par exemple, les discours haineux ou les contenus à caractère terroriste), les recours législatifs pertinents s’appliquent.

Où va-t-on ?


Le programme de suivi, qui recense les actions entreprises pour lutter contre la désinformation relative à la COVID-19 sur la base des engagements du code, soumet également le code à un «test de résistance».
Dans l’ensemble, le programme a démontré que le code fournit un cadre agile et structuré qui peut être déployé et se traduire par des actions décisives des signataires en vue de lutter contre la désinformation dans les situations de crise.
Le code a également fourni une structure utile pour le suivi des mesures prises dans une situation extraordinaire, en procédant à un recentrage dynamique au fur et à mesure de l'évolution de la crise (par exemple, pour s'intéresser davantage à la désinformation entourant les vaccins contre la COVID-19). Dans le même temps, ce programme a mis en lumière un certain nombre de lacunes.

La Commission invite les signataires du code :

  • à se réunir en vue de renforcer le code, conformément à ces orientations;
  • à fournir un premier projet de code révisé à l’automne afin de permettre un véritable débat le concernant.

Elle invite également les nouveaux signataires potentiels à adhérer au code et à participer à sa révision, notamment les plateformes anciennes et nouvelles, des représentants d’entreprises et d’autres acteurs du secteur de la publicité en ligne, ainsi que d’autres parties prenantes susceptibles d’apporter des ressources ou une expertise concourant au fonctionnement efficace du code.

Un renforcement marqué par un système de suivi

Afin d’intensifier la lutte contre la désinformation, la législation sur les services numériques proposée par la Commission définit un cadre de corégulation par l’intermédiaire de codes de conduite pour faire face aux risques systémiques liés à la désinformation.
En outre, elle instaure des mesures de transparence de grande ampleur concernant la modération de contenus et la publicité, et propose des obligations juridiques contraignantes et exécutoires pour les très grandes plateformes en ligne afin d’évaluer les risques systémiques qui menacent les droits fondamentaux ou ceux que présente la manipulation intentionnelle de leur service, et de faire face à ces risques.

Le code révisé devrait être complété par un système de suivi solide qui tire parti de l’expérience que la Commission a acquise jusqu’à présent en matière de suivi du code, notamment le programme relatif à la COVID-19.
L’amélioration du système de suivi devrait renforcer l’obligation de rendre compte des plateformes en ligne pendant la période transitoire avant l’adoption de la législation sur les services numériques et fournir un cadre permettant, entre autres, un dialogue structuré avec les très grandes plateformes concernant l’élaboration et le déploiement de mesures d’évaluation et d’atténuation des risques, en prévision des obligations juridiques prévues à cet effet dans la proposition relative à la législation sur les services numériques. 

Un code renforcé

Le code vise à limiter les comportements manipulateurs qui, selon leurs conditions d’utilisation pertinentes, ne sont pas autorisés sur les services des signataires.
D’après la proposition relative à la législation sur les services numériques, la «manipulation intentionnelle» des services constitue un risque systémique, contre lequel les très grandes plateformes doivent prendre des mesures d’atténuation des risques.

Le code renforcé devrait garantir que les signataires s’accordent sur une interprétation commune des comportements manipulateurs interdits sur leurs services, notamment les «comportements non authentiques».
Cette interprétation devrait être suffisamment large pour couvrir l’ensemble des comportements par lesquels des acteurs malveillants peuvent tenter de manipuler des services.

Le code renforcé devrait énoncer de nouveaux engagements relatifs aux comportements manipulateurs interdits, couvrant tout l’éventail des techniques de manipulation et exigeant des réponses efficaces pour y remédier.
Ces engagements devraient exiger des signataires qu’ils luttent contre les techniques de manipulation en constante évolution, telles que:

  • les opérations de piratage et de divulgation («hack and leak»),
  • le piratage de comptes,
  • la création de groupes non authentiques,
  • l’usurpation d’identité, les trucages vidéo ultra-réalistes,
  • l’achat de faux engagements.

Le code renforcé devrait prendre en considération les obligations de transparence pour les systèmes d’intelligence artificielle (IA) qui génèrent ou manipulent du contenu et la liste des pratiques de manipulation interdites par la proposition de législation relative à l’intelligence artificielle.

Afin de faciliter une participation plus large, le code renforcé devrait comprendre des engagements adaptés qui correspondent à la diversité des services fournis par les signataires et au rôle spécifique qu’ils jouent au sein de l’écosystème.

Les signataires devraient souscrire aux engagements qui sont pertinents pour leurs services.
Bien que la participation au code et la souscription à ses engagements restent volontaires, les signataires ne devraient pas, en principe, se soustraire aux engagements.
Lorsqu’un signataire choisit de ne pas y souscrire, il devrait justifier sa position publiquement, dans l’esprit de la proposition relative à la législation sur les services numériques.

Démonétiser la désinformation

Le code devrait renforcer les engagements visant à démonétiser la diffusion d’éléments de désinformation sur les services des signataires ou sur les sites web de tiers.
Afin d’améliorer la transparence et l’obligation de rendre compte en ce qui concerne les placements publicitaires, les signataires participant à ces placements, notamment les entreprises de technologie publicitaire, devraient définir les critères qu’ils utilisent pour placer les publicités.

Les plateformes doivent s’engager, en particulier, à renforcer les conditions d’éligibilité et les processus d’examen des contenus pour les programmes de monétisation de contenus et de partage des revenus publicitaires sur leurs services, afin d’interdire la participation d’acteurs qui publient systématiquement des contenus bien connus pour véhiculer des éléments de désinformation.
En outre, les plateformes devraient également s’engager à renforcer les politiques pertinentes et à faire preuve de diligence afin d’exclure la participation aux réseaux publicitaires ou aux bourses d’annonces des sites web qui diffusent de manière constante des contenus de désinformation.

Publicité à caractère politique et publicité engagée

La «publicité à caractère politique» et la «publicité engagée» jouent un rôle important dans l’organisation des campagnes politiques et des débats publics concernant les grands enjeux sociétaux. Dans le plan d’action pour la démocratie européenne, la Commission a annoncé une législation visant à renforcer la transparence de la publicité à caractère politique.

Dans cette optique, le code renforcé constituera un vecteur important pour réaliser des progrès tangibles en vue de soutenir le cadre juridique existant, pour ouvrir la voie à un renforcement de la législation, par l’intermédiaire du nouveau cadre législatif lorsqu’il sera mis en place.

Une collaboration avec l’Observatoire européen des médias numériques

Afin de contribuer efficacement à la lutte contre la désinformation, il est essentiel de bénéficier du soutien d’une communauté pluridisciplinaire comprenant des vérificateurs de faits, des chercheurs universitaires et d’autres acteurs pertinents.
L’Observatoire européen des médias numériques (EDMO)  a été créé afin de contribuer à la création d’une telle communauté et de faciliter son travail. En apportant un soutien aux vérificateurs de faits et chercheurs indépendants, l’EDMO et ses pôles nationaux les aideront à mieux repérer et analyser les campagnes de désinformation.
L’EDMO peut jouer un rôle important pour réaliser plusieurs des objectifs du code. Il est donc attendu des signataires du code qu’ils coopèrent avec l’EDMO.

Dans le cadre du code renforcé, les signataires devraient s’engager à poursuivre ces efforts et, en particulier, à faire davantage participer la communauté de l’éducation aux médias à la conception et à la mise en œuvre des outils ainsi qu’à l’évaluation des campagnes d’éducation aux médias sur leurs services, notamment pour protéger les enfants.
Ces efforts pourraient également être alignés sur les initiatives de la Commission dans le domaine de l’éducation aux médias, notamment le nouveau plan d’action en matière d’éducation numérique 2021-2027, afin de tirer parti des synergies pertinentes.
À cette fin, le groupe d’experts sur l’éducation aux médias de la Commission  et l’EDMO peuvent apporter leur soutien afin d’instaurer un cadre permanent de discussion.

Un système d’alerte rapide

Comme le souligne le plan d’action contre la désinformation de 2018, les plateformes en ligne devraient coopérer avec le système d’alerte rapide de l’Union qui relie tous les États membres de l’Union et les institutions de l’Union concernées pour permettre des réponses conjointes à la désinformation en partageant des informations et en signalant en temps utile les campagnes de désinformation.
Sur cette base, le code renforcé devrait examiner les possibilités de renforcer cette coopération, notamment en facilitant les échanges informels entre les signataires pour qu’ils présentent leurs travaux et leurs conclusions, et pour garantir des relations étroites, harmonisées et cohérentes au niveau national entre tous les États membres et les signataires, le cas échéant.
Le code renforcé devrait également tenir compte de la coopération avec l’EDMO.


synthèse du texte par Pierre Berthelet alias securiteinterieure.fr


 

A lire sur securiteinterieure.fr:

 

Aucun commentaire:

Enregistrer un commentaire

remarques et suggestions à formuler à securiteinterieure [à] securiteinterieure.fr

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.