Pages

mardi 15 mars 2022

Terrorisme, extrémisme et désinformation : selon l’Assemblée nationale, le Shérif européen ne mettra que partiellement de l’ordre dans le "Far West numérique"

 


L’Assemblée nationale a publié un rapport d'information sur la proposition de règlement dit « DSA » et destiné à mettre à jour la réglementation européenne au vu des évolutions des services de la société de l’information, notamment avec l’apparition des plateformes numériques.
De nombreux questionnements se font jour, en particulier la modération des contenus viraux au moment où la désinformation prolifère. La question se pose particulièrement avec la propagande russe.  En dépit des efforts menés, il y a du chemin à parcourir et la question reste sensible.

Les dispositifs actuels de contrôles des contenus illicites mis en place par les grandes plateformes sont peu efficaces.
Un rapport de l’Assemblée nationale estime que cette proposition de règlement « DSA », actuellement en cours d'adoption par le législateur européen, va dans le bon sens, notamment concernant les obligations dont sont désormais soumises ces grandes plateformes.
En revanche, il déplore son caractère trop timoré quant à leur responsabilité et il plaide en faveur d’un régime de responsabilité plus exigent.



Terrorisme, images d’horreur et inadaptation de réactivité des plateformes

L’Union européenne fait face à un « Far West numérique », selon le mot du commissaire Thierry Breton : ce qui est illégal dans le monde réel peut être trouvé avec une facilité déconcertante en ligne. Les algorithmes des plateformes ne tiennent pas compte, ou pas suffisamment, du contenu même des publications devenues virales.
L’attentat de Christchurch été partagée par près de deux millions d’utilisateurs, exposant les internautes de tous âges à des images d’horreur.


Certes, l’entreprise Facebook a souscrit de nouveaux engagements, répondant à « l’appel de Christchurch » contre la violence en ligne, consistant à restreindre l’usage de la fonction Facebook Live.
Toutefois, les errances liées à la viralité des contenus n’ont pas disparu et ne disparaîtront pas d’après l’Assemblée nationale : le fonctionnement en cascade reste au cœur de l’utilisation des réseaux sociaux, dont la finalité est de donner l’opportunité à plusieurs utilisateurs de réagir à un même contenu.


Le rapport note à cet égard que le taux de retrait des contenus signalés est, en 2021, inférieur à 2020. 81 % des contenus signalés dans les 24 heures seraient supprimés, contre 90,4 % en 2020.
De même, 62 % des contenus considérés comme des discours de haine illégaux seraient supprimés en 2021, également en baisse par rapport à 2020.

Prolifération de la désinformation et manque de transparence des plateformes

80 % des Européens ont fait face, au moins une fois par mois, à des informations qu’ils considéraient fausses ou trompeuses.
Le modèle économique des plateformes en ligne, qui repose sur l’économie de l’attention, accroît mécaniquement la diffusion de contenus clivants ou douteux.
Or, cette situation renforce de ce fait la désinformation. Avec ce système de fonctionnement, la consultation de contenus contenant de fausses nouvelles conduit l’usager à consulter davantage de contenus désinformatifs.

Sans réelle surprise, les Facebook Files, soit les révélations récentes par Frances Haugen sur le fonctionnement des algorithmes de l’entreprise Facebook, ont démontré que les contenus clivants sont davantage mis en avant que les autres publications, en raison du nombre de réactions suscitées.


La rapport ajoute que le manque de transparence est notamment dû à l’idée selon laquelle, dans le monde informatique, « code is law ».
L’opacité du code informatique engendre, de fait, une opacité du système de régulation.
De façon plus inquiétante encore, les Facebook Files ont révélé que les algorithmes de Facebook sont devenus d’une complexité telle qu’ils semblent parfois échapper à leurs propres auteurs.

Les ingénieurs des différents départements de l’entreprise développent en effet des solutions d’amélioration de l’algorithme sans qu’il n’existe de vision systémique unifiée, contribuant aux difficultés de compréhension de l’ensemble.

L’opacité est également due à une volonté de protection de la part des entreprises du numérique. L’algorithme est en effet l’actif immatériel sur lequel la plupart des plateformes en ligne fondent leurs activités.


De quoi parle-t-on ?


En complément de la révision du code de bonnes pratiques contre la désinformation en ligne en 2018, la Commission européenne a publié le 15 décembre 2021, une proposition de règlement relatif à un marché intérieur des services numériques, ou Digital Services Act (DSA). 
La proposition de règlement DSA a pour objectif de permettre une essentielle actualisation des principes posés par la directive e-commerce du 8 juin 2000.

La proposition de règlement DSA a pour objectif de lutter contre tout type de contenu illicite, quel qu’en soit le format.
Les plateformes ont également la possibilité de qualifier un contenu illicite au regard de leurs conditions générales d’utilisation et de le retirer.
Cette proposition prévoit en effet que les fournisseurs de services intermédiaires peuvent indiquer dans leurs conditions générales les renseignements relatifs aux éventuelles restrictions qu’ils imposent dans l’utilisation de leur service.

 
1e avancée : des obligations spécifiques aux grandes plate-formes

La proposition de règlement DSA est une réglementation transversale, qui s’applique à l’ensemble des fournisseurs de services en ligne.
Les plateformes en lignes doivent, en sus, remplir d’autres obligations, notamment liées à la transparence de la publicité en ligne ou à la mise en place de mécanismes de recours et de règlements extrajudiciaires des litiges.


Les très grandes plateformes en ligne doivent en outre évaluer les risques systémiques, assurer une transparence renforcée de la publicité en ligne et garantir aux régulateurs nationaux un accès à leurs données.
À ce propos, laproposition de règlement DSA crée aussi une catégorie spécifique d’acteur, selon un critère de taille : les très grandes plateformes en ligne, soit les plateformes dont le nombre mensuel moyen de bénéficiaires actifs du service au sein de l’Union est égal ou supérieur à 45 millions.


Quelle est la position de l’Assemblée nationale ?


L’Assemblée nationale se félicite de l’existence de cette proposition de règlement DSA.
La régulation asymétrique et le renforcement des obligations de diligence doivent permettre de renforcer le processus de contrôle des contenus illicites.

Il paraît particulièrement urgent de lutter contre la prolifération des discours de haine en ligne, des publications à caractère terroriste ou pédopornographique, particulièrement dommageables pour notre démocratie.
L’Assemblée nationale insiste sur la nécessité d’aboutir rapidement à l’adoption de ce texte, sous présidence française du Conseil de l’Union européenne.

La principale interrogation de l’Assemblée nationale porte néanmoins sur l’opportunité de maintien dans la durée du régime atténué de responsabilité des fournisseurs de services intermédiaires.
Aujourd’hui déjà, les nouvelles technologies permettent en effet de détecter et d’agir rapidement sur les contenus illicites, sans nécessité de signalement de la part des utilisateurs.

Il peut être utile de lancer le débat dès à présent sur ce sujet crucial, qui permettrait une responsabilisation forte des fournisseurs de services intermédiaires vis-à-vis des contenus qu’ils hébergent.

Une forte   La transparence du fonctionnement des algorithmes

La proposition de règlement DSA prévoit la possibilité pour la Commission d’ordonner aux très grandes plateformes en ligne, de donner accès à ses bases de données et à ses algorithmes. La très grande plateforme doit également fournir des explications sur leur fonctionnement.

L’Assemblée nationale se prononce fermement en faveur de cette disposition, dans la mesure où les algorithmes des plateformes sont à l’origine du classement de l’ordre d’apparition des contenus, et peuvent contribuer à la mise en avant de contenus haineux. Il est également essentiel que le suivi soit le plus continu possible.

Par ailleurs, la rapporteure au Parlement européen, a proposé de prévoir un moyen d’engagement de la responsabilité juridique des très grandes plateformes dans l’hypothèse où le paramétrage de leurs algorithmes favoriserait la mise en avant de contenus haineux.
L’Assemblée nationale soutient cette proposition, qui n’est qu’un approfondissement de la logique d’exemption conditionnelle de responsabilité des fournisseurs de services numériques.


Une position en faveur d’une responsabilité forte

Le principe général posé par la proposition de règlement est que le fournisseur de services en ligne ne peut pas être tenu responsable d’un contenu illicite qu’il transmet, stocke ou héberge, uniquement dans la mesure où il n’a aucune influence sur ce contenu.


Si la proposition de règlement est sans conteste une avancée souhaitable, la proposition de la Commission reste toutefois très favorable aux fournisseurs de services en ligne, avec un maintien des principes préexistants de la directive e-commerce.
Le décalage entre la volonté de réguler ce « Far West numérique » et la reprise du principe de responsabilité limitée des fournisseurs de services en ligne, est à ce titre regrettable.

L’ambition de protection des citoyens et des entreprises européennes aurait pu conduire à une limitation du champ d’application de ce principe, voire à sa disparition, sans pour autant conduire les plateformes à assumer une responsabilité éditoriale qui incombe aux médias « classiques ».


Autre faiblesse : l’absence d’harmonisation de la définition des contenus illicites

La proposition de règlement DSA ne procède pas à une définition des contenus illicites, mais renvoie au droit européen et aux droits nationaux : la création au niveau européen d’une liste de contenus illicites reviendrait à la rédaction d’un code pénal européen.
La définition des infractions demeure sensible au niveau national. Au regard de la nécessité d’adoption rapide de ce texte sous présidence française, la proposition de règlement DSA ne propose donc pas de définition de l’illicéité d’un contenu.

Ceci étant dit, certaines infractions sont harmonisées au niveau européen, par exemple en matière de terrorisme, de pédopornographie, de contenus racistes ou xénophobes.
D’autres enceintes au niveau européen, notamment la formation « justice et affaires intérieures » du Conseil travaillent actuellement à compléter la liste des infractions harmonisées.
L’objectif serait ainsi d’y ajouter les crimes et les discours appelant à la haine sur la base du sexe, de l’orientation sexuelle, du handicap ou de l’âge.



Autre faiblesse encore : la désinformation ou fort avec les faibles et faibles avec les forts

La proposition de règlement DSA prévoit que la Commission soutiendra et encouragera l’élaboration de codes de conduite pour faire face aux risques systémiques, notamment la désinformation.
La nouvelle version du code européen sur la désinformation s’inscrirait ainsi dans ce cadre : son succès ou son échec déterminera la solidité du contrôle de l’exécutif européen sur les très grandes plateformes.

La Commission souhaite réorienter le code sur un retrait des financements à la désinformation en intégrant toute la chaîne des intermédiaires qui contribuent à monétiser ces contenus.
L’exécutif européen a néanmoins annoncé le report de la présentation de la nouvelle version de ce code de décembre 2021 à mars 2022.



Des différends de fond se nouent en raison de la volonté des plateformes de maintenir le principe de l’autorégulation et de ne pas intégrer de modèle de sanctions avant l’arrivée de la proposition de règlement DSA.
La société civile insiste de son côté pour obtenir un droit de regard dans l’activité des plateformes.


synthèse du rapport
par Pierre Berthelet alias securiteinterieure.fr





A lire  sur securiteinterieure.fr  : 


 

Aucun commentaire:

Enregistrer un commentaire

remarques et suggestions à formuler à securiteinterieure [à] securiteinterieure.fr

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.