Le projet de règlement européen « Artificial Intelligence Act » a été publié par la Commission Européenne le 21 avril 2021. Il s’agit d’améliorer le fonctionnement du marché intérieur de l’UE concernant l’intelligence artificielle par un cadre juridique uniforme.
Ce projet de règlement est associé à deux autres documents soit :
La proposition d’un plan coordonné, sur l’intelligence artificielle, vise toutes les actions devant être mises en œuvre par les états membres.
Elle doit préparer l’Europe à devenir un leader mondial de l’intelligence artificielle.
Y figurent les recommandations pour faire émerger, au niveau européen, des prestataires de services « Cloud computing » conformes aux immenses besoins de l’Europe en matière de plateforme de puissance de calcul. (Calcul à haute performance ou HPC).
Le texte d’une future directive, « machines et équipements », a pour but de fixer les nouvelles normes d’intégration de l’intelligence artificielle dans les « machines ».
Le contrôle et la régulation de l’application du règlement européen doit s’accompagner de la création d’un « Conseil européen de l’intelligence artificielle ».
Pour soutenir l’innovation et réduire la charge réglementaire des PME et des start-ups, chaque État sera incité à mettre en place des « bacs à sable réglementaires pour l’intelligence artificielle ».
Ce projet de règlement, sur l’intelligence artificielle, devra être en cohérence avec la législation existante dans l’Union, applicable au secteur des systèmes d’intelligence artificielle (à haut risque) déjà utilisés ou susceptibles de l’être dans un avenir proche.
Le règlement devra être en cohérence avec la Charte des droits fondamentaux de l’UE, le droit dérivé de l’union existant en matière de protection des données, de protection des consommateurs et d’égalité des sexes.
Il complétera également le Règlement Général sur la Protection des Données (RGPD), et la directive relative à l’application de la Loi « police justice» (directive UE 2016/680).
La proposition de règlement complète également le droit de l’Union en matière de non-discrimination algorithmique par des exigences spécifiques concernant :
Le règlement prévoit deux types de risques dans la fourniture et l’utilisation d’un système d’intelligence artificielle.
Elle concerne les systèmes utilisés pour la santé, la sécurité ou lorsque le système d’IA mettra en œuvre des traitements ayant des effets sur les droits fondamentaux des personnes.
Ces systèmes devront se conformer à une série d’exigences obligatoires pour une « intelligence artificielle digne de confiance » et suivre des procédures d’évaluation et de conformité avant de pouvoir être mis sur le marché de l’Union.
Cette obligation d’évaluation et de conformité sera exigée pendant toute la durée de l’utilisation du système.
Certains systèmes d’intelligence artificielle, dits « spécifiques », devront respecter les obligations minimales de transparence, notamment en cas d’utilisation de « Chatbots » ou « faux profond » (Deepfake).
Pour ces systèmes d’intelligence artificielle des obligations de transparence limitées, seront imposées. Elles devront comprendre une documentation de gouvernance interne justifiant en tout état de cause du respect des Droits fondamentaux garantis par le droit de l’Union et bien sur du RGPD.
Cette notion des « droits fondamentaux » relève de l’application cumulée de 3 normes qui sont :
La granularité de cette information, transparente, justifiant du respect des Droits fondamentaux dépendra des secteurs d’activité.
Ce projet de règlement européen sur l’intelligence artificielle, particulièrement volumineux, est riche de bien d’autres spécificités qui mériteront d’autres commentaires au fur et à mesure de l’évolution des travaux de rédaction du règlement.
Il ne peut être que recommander donc déjà d’intégrer dans toute démarche de développement d’un « système d’intelligence artificielle », l’anticipation de la réglementation européenne à venir qui s’appuie sur les nombreux travaux de diverses commissions.
Ce d’autant plus que le futur en matière de développement de système d’Intelligence Artificielle passera par la certification « Ex ante » pour les systèmes à haut risque.
Le texte définitif ne devrait pas être substantiellement différent du projet rendu public le 21 avril 2021.
Il ne peut qu’être recommandé d’intégrer dans vos équipes « Recherche-Développement » en intelligence artificielle un juriste spécialisé, notre cabinet se tient à votre disposition.
Article rédigé à Marseille le 26 Juillet 2021
Véronique RONDEAU ABOULY
Avocat au barreau de Marseille et DPO externe.
La rédaction de cet article a été conçue et organisée pour vous soumettre des informations utiles, des axes de réflexion pour une utilisation personnelle ou à visée professionnelle.
Il est mis à jour régulièrement, mais dans un contexte réglementaire et jurisprudentiel évoluant, nous soulignons que nous ne pouvons être responsables de toute péremption du contenu, ou de toute erreur juridique et/ou inexactitude qui pourrait se révéler en fonction de l’évolution, le lecteur voudra bien considérer qu’en tout état de cause, pour une application personnalisée, chaque cas est unique et que bien sûr, le cabinet reste à votre disposition si vous avez une question précise à poser en lien avec cet article, nous nous ferons un plaisir de collaborer avec vous, n’hésitez pas à prendre contact ou à nous téléphoner.
Mots Clefs :
Intelligence artificielle; IA; AI; risque; RGPD; droits fondamentaux; Big Data
Crédit Photo : Laurent sur Adobe Stock