Pages

lundi 9 octobre 2017

Avant une réglementation plus contraignante à l'égard de Tweeter et Facebook, l’Europe définit les grandes lignes d’une approche pour lutter contre les contenus illicites


Des grandes lignes d’une approche européenne ont été précisées dans une communication, qui combinent un retrait rapide des contenus illicites.  Parmi les mesures phare, les plateformes en ligne, comme Tweeter et Facebook, sont invitées à user de mesures volontaires et proactives pour détecter et supprimer les contenus illicites (et empêcher la réapparition de ces contenus).
L'idée sous-jacente ? Inciter ces plateformes privées à avoir  avantage recours à des technologies de détection automatique.
Si ces plates-formes ne jouent pas le jeu, une réglementation plus contraignante pourrait être présentée ultérieurement.

Quelle est la philosophie du texte ?

La communication  vise à :
  • généraliser les bonnes pratiques procédurales pour les différentes formes de contenus illicites ;
  • encourager une coopération plus étroite entre les plateformes et les autorités des Etats membres et européennes. 
L’objectif de cette communication est avant tout la détection et la suppression du contenu illicite.
Il importe de souligner que ce cadre juridique ne vise pas à définir, et encore moins à harmoniser, ce qui constitue du contenu «illicite». Ce qui est illicite est établi par la législation spécifique au niveau de l’UE ainsi que par les législations nationales.

Cette communication prévoit un ensemble d’orientations et de principes afin que les plateformes en ligne intensifient la lutte contre le contenu illicite en ligne en coopération avec les autorités nationales, les États membres et les autres acteurs concernés.
Elle vise à faciliter et à accélérer la mise en œuvre de bonnes pratiques pour interdire, détecter, supprimer et bloquer l’accès au contenu illicite. Il s’agit, par exemple, définir ce que les plateformes en ligne devraient faire afin de détecter rapidement et efficacement le contenu illicite.

A ce stade, cette communication propose des orientations et elle ne modifie pas le cadre juridique applicable ni ne renferme de règles contraignantes.
Elle vise principalement à fournir des indications aux plateformes sur les moyens dont elles disposent face à leurs responsabilités afin de lutter contre les contenus illicites qu’elles hébergent.

La Commission attend des plateformes en ligne qu’elles prennent des mesures rapides au cours des prochains mois.
Elle suivra les progrès accomplis et déterminera si des mesures supplémentaires s’imposent pour assurer la détection rapide et proactive et la suppression des contenus illicites en ligne, telles que des mesures législatives complétant le cadre réglementaire en vigueur.  Ces travaux s'achèveront au plus tard en mai 2018.

Quel est le problème ?

L’éloge du terrorisme, les discours xénophobes et racistes qui constituent des incitations publiques à la haine et à la violence ainsi que le matériel pédopornographique sont illicites dans l’UE.
La présence croissante de matériel à caractère illicites en ligne et la diffusion d’un tel contenu sont une menace sérieuse pour la sûreté et la sécurité.

Les plateformes en ligne par lesquelles la plupart des internautes passent pour accéder au contenu ont la lourde responsabilité, vis-à-vis de la société, de protéger les utilisateurs. Les espaces numériques ouverts qu’elles créent ne doivent pas être le terreau, par exemple, de la terreur, des discours de haine, de la pédophilie ou de la traite des êtres humains, ni devenir des zones échappant à l’État de droit.

Or, actuellement, il n’existe pas d’approche harmonisée et cohérente de la suppression du contenu illicite dans l’UE.
De fait, plusieurs approches y coexistent, qui diffèrent en fonction des États membres, des catégories de contenu ou du type de plateforme en ligne. Une approche plus homogène rendrait donc la lutte contre le contenu illicite plus efficace.
Elle contribuerait aussi au développement du marché unique numérique et à réduire le coût de mise en conformité avec une multitude de règles applicables aux plateformes en ligne, y compris pour les nouveaux entrants.

D’où vient-on ?

Préoccupé par une série d’attaques terroristes dans l’UE et la diffusion de propagande terroriste en ligne, le Conseil européen des 22 et 23 juin 2017 a déclaré qu’il: «attend des entreprises du secteur qu’elles [...] mettent au point de nouvelles technologies et de nouveaux outils en vue d’améliorer la détection et la suppression automatiques des contenus qui incitent à la commission d’actes terroristes ».
Ces appels ont été réitérés dans les déclarations faites par les dirigeants des G7 et G20 à l’occasion de leurs récents sommets.

Dans sa communication de 2016 et dans sa communications de 2017, la Commission a souligné la nécessité pour les plateformes en ligne d’avoir une attitude plus responsable et de faire davantage d’efforts d’autorégulation à l’échelle de l’UE pour supprimer le contenu illicite.
En outre, la Commission s’est engagée à mieux coordonner les divers dialogues sectoriels avec les plateformes et à déterminer si des orientations concernant des procédures formelles de notification et d’action sont nécessaires.

Une action contre les contenu illicite déjà étoffée

L’Union européenne a déjà traité le problème du contenu illicite en ligne en prenant à la fois des mesures contraignantes et des mesures non contraignantes.
Parmi ces réponses politiques figurent la directive relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants ainsi que la pédopornographie, la directive relative à la lutte contre le terrorisme et les mesures proposées dans le cadre des révisions du droit d’auteur et de la directive sur les services de médias audiovisuels (directive SMA).

Ces mesures législatives, adoptées ou proposées, ont été complétées par une série de mesures non législatives comme :
  • le code de conduite visant à combattre les discours de haine illégaux en ligne,
  • les travaux du Forum de l’UE sur l’Internet en ce qui concerne la propagande terroriste,
  • la communication de la Commission sur la surveillance du marché pour les produits vendus en ligne,
  • la stratégie européenne pour un Internet mieux adapté aux enfants qui est une initiative d’autorégulation visant à améliorer l’environnement en ligne pour les enfants et les jeunes, étant donné les risques de confrontation, notamment, à du contenu violent ou des abus sexuels, ou de cyberintimidation.

Quel est le cadre juridique ?

Au niveau de l’UE, le cadre juridique général applicable à la suppression de contenu illicite est la directive sur le commerce électronique qui, en particulier, harmonise les conditions dans lesquelles certaines plateformes en ligne peuvent bénéficier de la dérogation en matière de responsabilité concernant le contenu illicite qu’elles hébergent dans l’ensemble du marché unique numérique.
Sur les plateformes en ligne, le contenu illicite se répand surtout par l’intermédiaire des services qui permettent de mettre en ligne le contenu de tiers.
Ces services d’hébergement sont, sous certaines conditions, couverts par une disposition de cette directive sur le commerce électronique qui permet que les prestataires de services d’hébergement ne peuvent être tenus responsables des informations stockées à la demande de tiers dans certaines condition

1ère mesure : désigner des points de contact et définir des interfaces numériques

Les plateformes en ligne et les autorités nationales  devraient désigner des points de contact effectifs dans l’UE et, le cas échéant, définir des interfaces numériques efficaces pour faciliter leur interaction.
Les plateformes en ligne et les autorités chargées de faire respecter la loi sont également encouragées à mettre au point des interfaces techniques qui leur permettent de coopérer plus efficacement du début à la fin du cycle de gestion du contenu. La coopération avec la communauté technique peut aussi être utile pour progresser et apporter des solutions efficaces et techniquement viables à ce problème.

Ces plateformes en ligne devraient systématiquement intensifier leur coopération avec les autorités compétentes des États membres, tandis que ceux-ci devraient veiller à ce que les tribunaux puissent effectivement sanctionner le contenu illicite en ligne et à ce qu’il y ait une coopération (transfrontière) plus étroite entre les autorités concernées.

En outre, pour éviter les doubles emplois et les notifications répétées et donc de nuire à l’efficacité du processus de suppression, les autorités nationales devraient aussi s’efforcer de coopérer entre elles pour définir des interfaces numériques efficaces permettant la soumission rapide et fiable d’une notification.

Pour le contenu à caractère terroriste, il a été créé au sein d’Europol une unité de signalement des contenus sur Internet (IRU) de l’UE, par l’intermédiaire de laquelle des experts de la sécurité évaluent et signalent tout contenu de cette nature aux plateformes en ligne (certains États membres disposent toutefois de leur propre IRU nationale).

2e mesure : avoir recours aux signaleurs de confiance

La suppression du contenu illicite en ligne est plus rapide et plus fiable lorsque les plateformes en ligne mettent en place des mécanismes qui fournissent aux notifiants ayant une expertise particulière un moyen privilégié de signaler la présence de contenu potentiellement illicite sur leur site Web.
Il s’agit de ceux qu’on appelle «signaleurs de confiance», c’est-à-dire des entités spécialisées ayant des compétences précises en matière de repérage de contenu illicite, et des structures destinées à la détection et à l’identification d’un tel contenu en ligne.

Les plateformes en ligne sont encouragées à recourir aux réseaux existants de signaleurs de confiance. Par exemple :
  • pour le contenu à caractère terroriste, l’unité de signalement des contenus sur Internet d’Europol a l’expertise requise pour déterminer si un contenu donné constitue un contenu en ligne extrémiste à caractère terroriste et violent ;
  • le réseau de lignes d’urgence INHOPE pour le signalement de matériel pédopornographique constitue un autre exemple de signaleur de confiance.
La Commission étudiera plus avant, notamment dans le cadre des dialogues avec les acteurs concernés, les possibilités de convenir, à l’échelle de l’UE, de critères applicables aux signaleurs de confiance.

3e mesure : favoriser les notifications des utilisateurs et garantir la qualité de ces notifications

Les plateformes en ligne devraient instaurer un mécanisme aisément accessible et convivial qui permette à leurs utilisateurs de signaler tout contenu, considéré comme illicite, qu’elles hébergeraient.
Elles devraient aussi mettre en place des mécanismes efficaces facilitant la soumission de notifications qui sont suffisamment précises et correctement étayées pour leur permettre de prendre une décision rapide et en connaissance de cause sur la suite à y donner.
Il serait ainsi plus facile de disposer de notifications qui contiennent une explication des raisons pour lesquelles le notifiant considère le contenu comme illicite et une indication claire de l’emplacement du contenu potentiellement illicite (p. ex. son adresse URL).

4e mesure : recourir davantage aux technologies pour détecter les contenus illicites

Eu égard au volume du matériel relayé par les plateformes en ligne, ainsi qu'aux progrès technologiques réalisés dans les domaines du traitement de l'information et de l'intelligence artificielle, les technologies de détection et de filtrage automatiques constituent des outils de plus en plus importants pour lutter contre les contenus illicites en ligne.
Plus généralement, l'utilisation et le développement de ces technologies sont encouragés, comme le Conseil européen en émet le souhait dans ses conclusions du 22 juin 2017.

La Commission soutient les nouvelles approches de recherche et d'innovation allant au-delà de l’état actuel des techniques dans la perspective d'améliorer la précision des moyens techniques de détection des contenus illicites.
La Commission finance ainsi des projets visant à mettre au point des outils de vérification automatique destinés à contrôler la véracité des contenus créés par les utilisateurs sur les réseaux sociaux. Ces outils peuvent être utiles pour repérer d'éventuelles informations mensongères dans les textes, les images ou les vidéos et contribuer au dépistage des fausses informations. 
Elle encourage également le secteur privé à  adopter effectivement les innovations pouvant contribuer à renforcer l'efficience et l'efficacité des procédures de détection automatique.

5e mesure : assurer rapidement la suppression des contenus et la notification des délits 

La directive sur le commerce électronique impose aux plateformes en ligne d'agir «promptement» pour retirer les informations illicites après en avoir eu connaissance afin de pouvoir conserver le bénéfice de la dérogation en matière de responsabilité.
Certains dispositifs volontaires, comme le code de conduite pour contrer les discours haineux illégaux diffusés en ligne, prévoient des objectifs indicatifs en matière de délais de suppression, en l'occurrence 24 heures dans la majorité des cas visés par ledit code de conduite.

Malgré tout, la Commission estime que les suppressions déclenchées par des signalements émanant de signaleurs de confiance devraient faire l'objet d'une intervention plus rapide, étant donné la qualité et la précision des informations fournies dans le signalement et le statut de fiabilité conféré aux signaleurs.
En cas de doute, en particulier lorsque les plateformes en ligne éprouvent des difficultés à évaluer la légalité d'un contenu donné et s'il s'agit d'une décision pouvant donner lieu à contestation, elles pourraient avoir avantage à consulter une tierce partie.
Ce rôle est joué par des organes d'autorégulation ou des autorités compétentes dans divers États membres.
Cette coopération est vivement encouragée dans le cadre de la coopération renforcée entre les plateformes en ligne et les autorités compétentes.

Enfin, lorsqu'elles ont connaissance ou se trouvent en présence d'éléments attestant d'infractions pénales ou autres, les plateformes en ligne devraient en référer aux autorités répressives.
Ces autorités devraient se doter des moyens nécessaires pour donner aux signalements les suites qui s'imposent. Parmi les exemples de bonnes pratiques concernant les points de contact, on peut citer le portail SIRIUS créé par Europol pour assister les États membres dans les enquêtes de contre-terrorisme en ligne, qui facilite notamment la coopération entre les plateformes et les autorités répressives de l'Union.

6e mesure : empêcher la réapparition des contenus

Pour éviter la réapparition de contenus émanant d’utilisateurs qui mettent ligne de manière répétée des contenus illicites de même nature, beaucoup de plateformes ont déjà instauré des mesures visant à empêcher la récidive, comme la suspension ou la suppression de comptes ou le «shadowbanning» qui consiste à bloquer l’accès d’un utilisateur à une communauté en ligne sans que ce dernier s’en rende compte.

Outre les technologies utilisées pour détecter les contenus potentiellement illicites, d’autres outils peuvent en augmenter la fiabilité, comme le marquage par une empreinte digitale numérique ou le filtrage avec retrait définitif d’un contenu préalablement détecté et jugé illicite.
Par conséquent, la Commission encourage fortement l’utilisation de tels outils.

C’est ainsi que le Forum de l'UE sur l’internet a créé la «base de données d’empreintes numériques» actuellement utilisée pour lutter contre les contenus terroristes, et l'idée fait son chemin dans le domaine du droit d’auteur ou du matériel pédopornographique, mais également dans le cas de produits dont les autorités répressives signalent qu’ils ne sont pas conformes à la législation applicable.

7e mesure : l’obligation d’agir promptement pour éviter l’engagement de la responsabilité

La Commission considère que les mesures proactives prises par les plateformes afin de détecter et de supprimer les contenus illicites qu'elles hébergent, y compris les outils automatiques et les outils destinés à éviter la remise en ligne de contenus supprimés précédemment, ne les excluent pas en soi du bénéfice de la dérogation en matière de responsabilité.

Compte tenu de l'importance de leur rôle et de leurs ressources ainsi que des responsabilités qui en découlent, les plateformes en ligne devraient ne pas se contenter de réagir aux signalements qu'elles reçoivent mais adopter également des mesures proactives efficaces pour détecter et supprimer les contenus illicites en ligne.

La Commission estime qu’en prenant des mesures proactives pour détecter ou supprimer des contenus illicites, une plateforme en ligne peut avoir connaissance d'activités ou d'informations illicites, ce qui pourrait lui ôter le bénéfice de la dérogation en matière de responsabilité prévue par la directive sur le commerce électronique.
En pareil cas, la plateforme en ligne conserve toutefois la faculté d'agir promptement pour retirer les informations (ou rendre l'accès à celles-ci impossible dès qu'elle en a connaissance).
En agissant de la sorte, la plateforme en ligne peut conserver le bénéfice de la dérogation en matière de responsabilité.


(synthèse du texte par securiteinterieure.fr)


A lire sur securiteinterieure.fr :




Et vous êtes sûr de n'avoir rien oublié ? 
 

De retrouver securiteinterieure.fr sur twitter par exemple ?


Aucun commentaire:

Enregistrer un commentaire

remarques et suggestions à formuler à securiteinterieure [à] securiteinterieure.fr

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.