Pages

samedi 7 mars 2020

Sécurité & IA : la Commission préconise un cadre normatif européen... sans moratoire pour la reconnaissance faciale


Après l’élaboration de lignes directrices non contraignantes, la Commission européenne veut franchir un pas supplémentaire en permettant à l’UE de se doter d’un cadre juridique contraignant accompagné d’une « structure de gouvernance » européenne.

Ce mouvement de « durcissement du droit », proposé dans le Livre blanc accompagné d’un rapport sur le cadre en matière de sécurité, rappelle le mouvement qu’a connu la surveillance d’Internet aux fins de la lutte antiterroriste.


Il s’agit de baliser le développement de l’IA dans les domaines où des atteintes directes aux droits des citoyens sont les plus susceptibles de se produire, par exemple l'utilisation d'applications d’IA par l'appareil judiciaire et répressif.

En ce sens, il est question de poursuivre au plan interne le mouvement de régulation entrepris au plan international.

A noter que  l'idée d'un vaste moratoire sur la reconnaissance faciale, qui figurait dans une mouture du texte, et qui a été largement reprise dans la presse, n'a pas été reprise dans la version définitive.
Le livre blanc déclare seulement que " la Commission lancera un vaste débat européen sur les circonstances particulières, le cas échéant, qui pourraient justifier une telle utilisation, ainsi que sur les garanties communes à mettre en place".

De quoi parle-t-on ? 

Dans le cadre de ce Livre blanc et du rapport sur le cadre en matière de sécurité et de responsabilité qui l’accompagne, la Commission lance une vaste consultation pour une approche européenne en matière d’IA.
Cette consultation porte à la fois sur des moyens d’action visant à stimuler les investissements dans la recherche et l’innovation, à renforcer le développement des compétences et à soutenir l’adoption de l’IA par les PME, et sur les éléments clés d’un futur cadre réglementaire.
Elle sera l’occasion d’entamer un dialogue approfondi avec toutes les parties concernées, qui orientera les prochaines mesures de la Commission.


Ce Livre blanc expose des options qui permettront un développement sûr et digne de confiance de l’IA en Europe, dans le plein respect des valeurs et des droits des citoyens européens. Ses principaux piliers sont :
  • 1. le cadre de politique publique définissant les mesures destinées à harmoniser les efforts aux niveaux européen, national et régional. Par un partenariat entre les secteurs privé et public, le cadre vise à:
    • mobiliser des ressources pour parvenir à un «écosystème d’excellence» tout au long de la chaîne de valeur, en commençant par la recherche et l’innovation,
    • à créer les incitations appropriées pour accélérer l’adoption de solutions fondées sur l’IA, notamment par les petites et moyennes entreprises (PME).
  • 2. les éléments clés d’un futur cadre réglementaire pour l’IA en Europe, qui créera un «écosystème de confiance». Pour ce faire, il devra garantir le respect des règles de l’UE, notamment celles qui protègent les droits fondamentaux. 

L’idée ? Générer le développement de cet écosystème européen de confiance

La recherche européenne doit sa force, en partie, au programme de financement de l’UE qui a permis d’agir de manière concertée, d’éviter les doubles emplois et de mobiliser des investissements publics et privés dans les États membres par effet de levier. Au cours des trois dernières années, le financement de l’UE en faveur de la recherche et de l’innovation dans le domaine de l’IA a atteint 1,5 milliard d’euros, soit une augmentation de 70 % par rapport à la période précédente.
Toutefois, le montant des investissements consacrés à la recherche et à l’innovation en Europe reste bien inférieur aux investissements publics et privés alloués à ce domaine dans d’autres régions du monde. 3,2 milliards d’euros ont été investis dans l’IA en Europe en 2016, contre environ 12,1 milliards d’euros en Amérique du Nord et 6,5 milliards d’euros en Asie.


Conformément à l’annonce faite dans le cadre de sa stratégie sur l’IA adoptée en avril 2018  , la Commission a présenté en décembre 2018 un plan coordonné - élaboré en concertation avec les États membres - pour favoriser le développement et l’utilisation de l’IA en Europ.


Un tel plan propose quelque 70 actions conjointes en faveur d’une coopération plus étroite et plus efficace entre les États membres et la Commission dans des domaines clés tels que la recherche, l’investissement, la commercialisation, les compétences et les talents, les données et la coopération internationale.
Ce plan, dont l’exécution devrait prendre fin en 2027, fera l’objet d’un suivi et de réexamens réguliers.

D’où vient-on et où va-t-on ? Les lignes directrices sur l’IA

Le 25 avril 2018, la Commission a présenté une stratégie en matière d’IA 28 qui aborde les aspects socio-économiques parallèlement à l’accroissement des investissements dans la recherche, l'innovation et les capacités en matière d’IA dans l’ensemble de l’UE.
Elle a établi un plan coordonné  avec les États membres afin d’harmoniser les stratégies.
La Commission a également mis sur pied un groupe d’experts de haut niveau, qui a publié en avril 2019 des lignes directrices pour une IA digne de confiance.

La Commission a publié une communication dans laquelle elle salue les sept exigences essentielles énumérées dans les lignes directrices du groupe d’experts de haut niveau, notamment la robustesse technique et sécurité,  le respect de la vie privée et gouvernance des données, et la transparence.
Les lignes directrices contiennent également une liste d'évaluation pratique à l'usage des entreprises.

Au cours du second semestre de 2019, plus de 350 organisations l’ont utilisée à titre d’essai et ont fait part de leurs réactions. Le groupe de haut niveau procède actuellement à une révision de ses lignes directrices en fonction des réactions reçues et devrait terminer ses travaux d’ici à juin 2020.

Le principal résultat de ce retour d’information est que les régimes législatifs ou réglementaires existants tiennent déjà compte d’un certain nombre d’exigences, mais que, dans de nombreux secteurs économiques, celles qui concernent la transparence, la traçabilité et le contrôle humain ne sont pas spécifiquement couvertes par la législation en vigueur.


Parallèlement à cela, lors de l’élaboration de ses lignes directrices en matière d’éthique, le groupe d’experts de haut niveau a associé à ses travaux un certain nombre d’organisations non membres de l’UE et plusieurs observateurs gouvernementaux.
En parallèle, l’UE a pris une part active à l’élaboration des principes éthiques de l’OCDE sur l’IA.
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle de juin 2019 sur le commerce et l’économie numérique.

Où va-t-on ? La création d’un cadre réglementaire

L’UE continuera à coopérer sur l’IA avec des partenaires partageant les mêmes valeurs, mais aussi avec des acteurs mondiaux, selon une approche qui promeut les règles et les valeurs de l’UE (le respect des droits fondamentaux, notamment la dignité humaine, la transparence et la protection de la vie privée et des données à caractère personnel).

Outre cet ensemble de lignes directrices non contraignantes du groupe de haut niveau, et conformément aux orientations politiques de la présidente, la Commission se montre favorable à l’adoption d’un cadre réglementaire européen.
Un cadre réglementaire clair permettrait de :
  • susciter la confiance à l’égard de l'IA et, partant, d’accélérer l’adoption de cette technologie
  • promouvoir la capacité d’innovation et la compétitivité de l’Europe dans ce domaine.
  • garantir le respect de la législation, des principes et des valeurs de l'UE.
Cela est particulièrement important dans les domaines où des atteintes directes aux droits des citoyens sont les plus susceptibles de se produire, par exemple l'utilisation d'applications d’IA par l'appareil judiciaire et répressif.

Compte tenu de la vitesse à laquelle évolue l'IA, le cadre réglementaire doit prévoir une marge pour d’éventuels aménagements.
Les modifications éventuelles devraient se limiter à des problèmes nettement circonscrits pour lesquels il existe des solutions réalisables.

Quels sont les enjeux ?

Le recours à l'IA peut porter atteinte aux valeurs sur lesquelles l’UE est fondée et entraîner des violations des droits fondamentaux, tels que les droits à la liberté d'expression, la dignité humaine, la protection des données à caractère personnel, le respect de la vie privée u le droit à un recours juridictionnel effectif.

Certains programmes d'IA pour l'analyse faciale sont entachés de biais de nature sexiste ou raciale, qui se traduisent par un faible taux d'erreur dans la détermination du sexe des hommes à peau claire mais un taux d'erreur élevé dans la détermination du sexe des femmes à peau foncée.

Les biais et la discrimination sont des risques inhérents à toute activité sociétale ou économique. Les décisions prises par des humains ne sont pas à l’abri d'erreurs et de biais.
Cependant, s'ils entachent l'IA, les mêmes biais pourraient avoir un effet bien plus important, entraînant des conséquences et créant des discriminations pour beaucoup de personnes en l'absence des mécanismes de contrôle social qui régissent le comportement humain. Ces biais peuvent également prendre naissance lorsque le système «apprend» pendant qu’il fonctionne.

Les particularités qui caractérisent de nombreuses technologies de l'IA, notamment l'opacité («effet de boîte noire»), la complexité, l'imprévisibilité et le comportement partiellement autonome, peuvent rendre difficile la vérification de la conformité aux règles du droit de l’UE en vigueur destinées à protéger les droits fondamentaux et peuvent entraver le contrôle de l’application de celles-ci.
Les autorités répressives et les personnes concernées ne disposent pas nécessairement de moyens suffisants pour vérifier comment une décision donnée, résultant de l’utilisation de l’IA, a été prise et, par conséquent, pour déterminer si les règles applicables ont été respectées.
Les particuliers et les entités juridiques peuvent se heurter à des difficultés en ce qui concerne l’accès effectif à la justice lorsque ces décisions sont susceptibles d’avoir des effets négatifs pour eux.

L'absence de règles claires en matière de sécurité pour faire face à ces risques peut, outre les risques pour les individus concernés, créer une insécurité juridique pour les entreprises qui commercialisent leurs produits reposant sur l’IA dans l’UE.
Les autorités de surveillance du marché et les autorités répressives peuvent se trouver dans une situation où elles ne savent pas si elles peuvent intervenir, parce qu’elles n'y sont peut-être pas habilitées et/ou ne disposent pas des capacités techniques appropriées pour inspecter les systèmes. L’insécurité juridique risque donc de faire baisser les niveaux de sécurité globaux et de nuire à la compétitivité des entreprises européennes.

Quelles sont les 5 actions préconisées

Outre le développement d’un cadre réglementaire, pour la Commission, l’objectif est de :
  • maximiser l’impact des investissements dans la recherche, l’innovation et le déploiement,
  • d’évaluer les stratégies nationales en matière d’IA, 
  • de s’inspirer du plan coordonné dans le domaine de l’IA avec les États membres et de le développer.

Pour ce faire, elle propose :
  • Action 1: en tenant compte des résultats de la consultation publique sur le Livre blanc, la Commission proposera aux États membres une révision du plan coordonné en vue d’une adoption d’ici à la fin 2020.
    Le financement au niveau de l’UE dans le domaine de l’IA devrait permettre d’attirer et de mutualiser les investissements dans des domaines où l’action requise va au-delà de ce qu’un État membre peut réaliser seul.
    L’objectif est d’attirer, dans l’UE, un montant total de plus de 20 milliards d’euros d’investissements par an dans l’IA au cours de la prochaine décennie.
  • Action 2: la Commission facilitera la création de centres d’essai et d’excellence faisant appel à des investissements européens, nationaux et privés, y compris éventuellement un nouvel instrument juridique.
    La Commission a proposé de consacrer un montant ambitieux au soutien de centres d’essai de calibre mondial établis en Europe dans le cadre du programme pour une Europe numérique et de compléter ces mesures, le cas échéant, par des actions de recherche et d’innovation dans le cadre du programme Horizon Europe au titre du cadre financier pluriannuel pour la période 2021-2027.
  • Action 3: mettre en place et soutenir, par l’intermédiaire du pilier «compétences avancées» du programme pour une Europe numérique, des réseaux d’universités et d’établissements d’enseignement supérieur de premier plan pour attirer les meilleurs professeurs et chercheurs et proposer des programmes de masters de classe internationale dans le domaine de l’IA.
    La Commission et le Fonds européen d’investissement lanceront, au premier trimestre 2020, un programme pilote de 100 millions d’euros afin de fournir un financement en fonds propres aux développements innovants dans le domaine de l’IA.
    Sous réserve de l’accord final sur le cadre financier pluri-annuel (CFP), la Commission a l’intention de développer considérablement cet instrument à partir de 2021 par l’intermédiaire d’InvestEU.
  • Action 5: dans le contexte d’Horizon Europe, la Commission mettra en place un nouveau partenariat public-privé dans le domaine de l’IA, des données et de la robotique afin de conjuguer les efforts, d’assurer la coordination de la recherche et de l’innovation dans le domaine de l’IA, de coopérer avec d’autres partenariats public-privé dans le cadre du programme Horizon Europe et de collaborer avec les installations d’essai et les pôles d’innovation numérique susmentionnés.
  • Action 6: la Commission entamera des dialogues sectoriels ouverts et transparents, en accordant la priorité aux prestataires de soins de santé et aux opérateurs de service public, afin de présenter un plan d’action pour faciliter le développement, l’expérimentation et l’adoption.
    Les dialogues sectoriels serviront à élaborer un programme spécifique consacré à l’adoption de l’IA qui soutiendra les marchés publics portant sur des systèmes d’IA et contribuera à transformer les processus de passation de marchés publics proprement dits.

Une « structure de gouvernance européenne sur l’IA », cheville ouvrière du cadre réglementaire

Selon le livre blanc, il apparaît nécessaire à la Commission de mettre en place une structure de gouvernance européenne sur l’IA.
Cette structure prendrait la forme d’un cadre pour la coopération des autorités nationales compétentes.

Elle devrait faciliter la mise en œuvre du cadre réglementaire, notamment en publiant des orientations, des avis et des connaissances spécialisées.
À cet effet, elle devrait s’appuyer sur un réseau d’autorités nationales, ainsi que sur des réseaux sectoriels et des autorités de réglementation, tant au niveau national qu’au niveau de l’UE.
Un comité d’experts pourrait par ailleurs fournir une assistance à la Commission.

Il s’agit de :
  • éviter une fragmentation des responsabilités,
  • renforcer les capacités dans les États membres,
  • faire en sorte que l’Europe se dote progressivement des capacités nécessaires pour tester et certifier les produits et services reposant sur l’IA.
Les travaux de la structure de gouvernance européenne pourraient consister notamment :
  • à offrir une enceinte propice à l’échange régulier d’informations et de bonnes pratiques,
  • à recenser les tendances émergentes,
  • à donner des conseils en matière d’activités de normalisation et de certification.


synthèse du texte par Pierre Berthelet alias securiteinterieure.fr


Sur la reconnaissance faciale, voir Reconnaissance faciale : vers un moratoire européen ?  (Club Prévention  Sécurité sur Gazette.fr - site de la Gazette des communes)


A lire également sur securiteinterieure.fr :




Votre attention est le carburant de ma passion.


  Merci pour votre fidélité !
 

Aucun commentaire:

Enregistrer un commentaire

remarques et suggestions à formuler à securiteinterieure [à] securiteinterieure.fr

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.