Parler de la responsabilité de l’intelligence artificielle IA c’est encore pour partie de la prospective. Actuellement, de nombreux robots fonctionnent grâce à l’intelligence artificielle IA, on citera selon liste non exhaustive :
Pour l’utilisation de ces robots qui ne sont rien d’autre que des « machines » et qui utilisent de l’IA, des règles de responsabilité sont déjà applicables. Pour la robotique actuelle au sens très large du terme, se cumulent deux régimes de responsabilité :
Ces deux régimes s’appliquent du fait de l’usage et du fonctionnement et du robot dans son aspect technique général. Mais l’utilisation d’un robot peut aussi engendrer d’autres régimes de responsabilité relativement à leur détention (brevets, responsabilité sur les dessins et modèles, droit d’auteur, savoir-faire…), sans compter également la responsabilité du fait des nouveaux droits comme la protection des données à caractère personnel notamment pour l’ensemble des objets connectés. Par contre, l’intelligence artificielle IA dépasse de beaucoup la robotique puisque c’est une discipline scientifique qui repose sur un triptyque qui lie ensemble :
En matière d’intelligence artificielle IA forte ou faible, la « donnée » c’est une « information scientifique et technique » qui elle-même a fait l’objet de traitement et de structuration, pour l’apprentissage du système du « logiciel et d’un algorithme » avec l’objectif :
L’intelligence artificielle IA forte n’est pas à ce jour opérationnelle même si les recherches sont toujours en cours. C’est donc de la responsabilité de l’intelligence artificielle IA faible dont il est question dans cet article. Dans son rapport, Cédric VILLANI met en exergue que l’IA doit dès maintenant répondre à des impératifs d’éthique desquels s’engendreront les régimes de responsabilité à venir, qui sont en pleine construction et où chacun a sa part à prendre : Chercheurs, industriels, clients – juristes – utilisateurs. Donc l’utilisation de l’IA en termes de responsabilité va au-delà du régime particulier applicable au robot. En page 139 et suivantes, le rapport de « Cédric VILLANI » pose le problème ainsi.
Actuellement, les réflexions sur l’intelligence artificielle IA se sont cristallisées autour des algorithmes du quotidien, c’est-à-dire ceux qui organisent nos fils d’actualité, qui déterminent nos décisions d’achat, bref, ils affectent notre accès à l’information, à la culture, à l’emploi et au crédit. |
Rapport VILLANI page 139 Donc nécessairement, ces « algorithmes du quotidien » ne sont pas neutres dans l’organisation d’une vie, et il faut que les « potentialités offertes par cette technologie » fonctionnent dans le respect de nos valeurs et formes sociales, et il est indispensable que l’intelligence artificielle IA respecte une éthique. Son rapport donne en page 139 sur l’éthique appliquée à l’intelligence artificielle IA la définition suivante : « L’éthique est précisément cette branche de la philosophie qui tente de distinguer le bien du mal en tentant de définir l’idéal vers lequel tendre en soulignant les chemins qui nous en éloignent ». Et justement, Cédric VILLANI propose de développer un cadre éthique pour le développement de l’intelligence artificielle IA qui pourrait reposer sur cinq piliers :
On va reprendre en synthèse les propositions faites pour établir ces cinq piliers de l’éthique non sans avoir insisté sur un point important, dont il ressort que pour Cédric VILLANI c’est le cinquième pilier de l’IA ,soit son explicabilité ,qui sera pour l’organisation des systèmes de responsabilité à venir très importante. Dans sa déclaration liminaire sur la nécessité pour l’intelligence artificielle IA d’un fonctionnement éthique, le rapport met en exergue que l’éthique c’est l’étude de la distinction entre le bien et le mal. Bien sûr que oui, mais avec toute la difficulté de définir ces deux notions du bien et du mal qui sont polarisées et en mouvement d’autodéfinition permanent et toujours à renouveler. Et si donc pour parler d’éthique en matière d’intelligence artificielle IA, il fallait aller « au-delà du bien et du mal » en recherchant du côté du philosophe Gilles DELEUZE, qui en donnait la définition suivante : « L’éthique ce n’est pas ce que l’on dit qu’on veut faire, qu’on voulait faire, que l’on pourrait faire, l’éthique au final, c’est ce que l’on fait ». En un mot, l’éthique, c’est la « valeur que l’on porte au quotidien ». Rapportée à l’intelligence artificielle IA, la vérification de l’éthique alors devrait se focaliser sur son explicabilité c’est-à-dire :
Ce que souligne le rapport de Cédric VILLANI en page 140 où l’on relève que :
Il faut adapter la protection des droits et des libertés au regard des abus potentiels liés à l’utilisation des systèmes d’apprentissage machine.Or, il s’avère que la législation actuelle, centrée sur la protection de l’individu, n’est pas en phase avec la logique introduite par ces systèmes, c’est-à-dire l’analyse d’une masse considérable d’informations afin d’identifier des tendances et des comportements masqués et leurs effets sur des groupes d’individus.Pour combler ce décalage, il est nécessaire d’agir en créant des droits collectifs sur les données. |
Parallèlement, il faut s’assurer que les organisations qui déploient et utilisent ces systèmes demeurent responsables devant la loi des éventuels dommages causés par ceux-ci. Et le rapport confirme que bien sûr, les modalités de ce régime de responsabilité s’ils restent à définir, la loi informatique et liberté de 1978 et le RGPD de 2018 en posent déjà les principes et les bases. Néanmoins, rapporté à l’intelligence artificielle IA, il faut aller beaucoup plus loin justement par son explicabilité, ce qui suppose de pouvoir avoir accès à la boîte noire des systèmes algorithmiques. Pour Cédric VILLANI, il convient de ne pas se tromper de débat dans l’explicabilité du système algorithmique, ce n’est pas de la vérification du code qu’il s’agira, mais de pouvoir observer :
Donc, l’explicabilité de l’intelligence artificielle IA ici, c’est celle des systèmes à base d’apprentissage particulièrement la technique d’apprentissage profond ou deep learningdont pour faire simple on rappellera que :
Il comporte en lui-même une part d’incompréhension naturelle, où l’on est dans l’incapacité à décrire de façon intelligible le résultat produit au regard du poids absolument immense des données d’input. L’immensité produite par son cheminement dans l’algorithme de calcul, par des millions de paramètres à prendre en compte, engendre des choix propres dont on ne peut inférer à l’avance les conclusions. Le rapport VILLANI souligne en page 142 que dès lors :
Dès lors que l’intelligence artificielle IA intervient aujourd’hui dans des domaines aussi décisifs pour la vie des particuliers que l’accès au crédit, à l’emploi, au logement, à la justice, ou à la santé, l’acceptabilité sociale de l’intelligence artificielle IA repose donc bien sur son explicabilité c’est-à-dire sa justification de l’éthique du faire, chère au philosophe Gilles DELEUZE. Pour justifier les solutions d’explicabilité, le rapport VILLANI met en évidence par des exemples de fonctionnement que Google ou YouTube en citant également des retours d’expérience américaine où il apparait que l’intelligence artificielle IA peut donner lieu à la reproduction de discriminations :
Ainsi, l’intelligence artificielle IA peut amplifier des discriminations, et/ou des inégalités sociales. Quel est le facteur qui dans l’apprentissage profond ou deep learning peut générer ces « biais » discriminatoires et/ou rendre la décision non équitable ? La donnée bien sûr, et c’est finalement elle qui prend une valeur déterminante dans le tryptique de fonctionnement de l’intelligence artificielle IA : (Logiciel + algorithme + donnée). En conclusion de son développement sur l’éthique de l’intelligence artificielle IA, Cédric VILLANI conclut au nécessaire développement des audits d’intelligence artificielle IAen proposant des solutions : Sur la garantie pour les conséquences des résultats de l’IA :
Il y a donc bien un besoin général de configurer une fonction tampon entre les sphères du secret et de l’information légitime. Rapport VILLANI page 143. La solution passe au sens large par le développement de l’audit des intelligences artificielles IA, ce qui implique d’explorer les pistes suivantes :
Ceci supposerait d’ailleurs que des instances de régulation sectorielle puissent déterminer ces règles d’audit en les appliquant également à des domaines spécifiques.
Et notamment, à l’occasion d’une enquête judiciaire, ou d’une autorité administrative indépendante, il pourra être nécessaire de vérifier sur pièces.
Rapport VILLANI page 143. Et c’est bien sur les données d’entrée, et le traitement des données de sortie que devront être testées l’équité, la loyauté, et la transparence d’un programme d’intelligence artificielle IA. Le système de responsabilité de l’intelligence artificielle IA en construction et à venir reposera sur des fondements spécifiques et le critère de l’explicabilité du système d’IA ne pourra être uniquement la seule affaire des développeurs et des informaticiens. Développer un système d’intelligence artificielle IA, requiert aux côtés du chercheur du développeur et de l’informaticien le juriste de la donnée qui aura de plus en plus sa place à prendre. Il faut que ces spécialités transversales s’unissent pour respecter ensemble :
Et cette explicabilité sur l’éthique de la donnée amènera nécessairement à instaurer des études d’impact sur les discriminations que le rapport désigne par l’acronyme DIA(Discrimination Impact Assessment) qui pourrait emprunter la même finalité et fonctionnement que les études d’impact quant à l’impact potentiel des activités de traitement des données personnelles sur les droits et intérêts des personnes concernées (Privacy Impact Assessment) ou PIA. Ainsi, les « exploitants » et « constructeurs » des systèmes d’intelligence artificielle IA auront à charge d’évaluer eux-mêmes les impacts de cette activité, d’y apporter préventivement les correctifs requis et de pouvoir justifier en cas de contrôle qu’ils ont mis en œuvre toutes les mesures nécessaires pour maitriser l’ensemble du processus. Pour Cédric VILLANI, il est plus que recommandé de capitaliser sur cette logique qui fait du Droit un soutien à l’innovation en concrétisant un effort d’innovation en faveur de l’égalité à l’ère numérique. Penser « l’éthique dès la conception » doit et devra être une préoccupation essentielle pour tout chercheur, constructeur, client, utilisateur d’un système d’intelligence artificielle IA fut-elle déjà en fonctionnement. Les règles sur l’explicabilité, l’éthique et la loyauté doivent être respectées dès maintenant et déjà la Commission Européenne s’en préoccupe puisque des discussions sont menées actuellement et ces nouveaux principes et cette réglementation s’esquissent maintenant. L’intelligence artificielle, c’est donc bien un travail d’équipe fédérée autour de compétences transversales qui impliquent aussi l’intervention d’un juriste qualifié sur la connaissance et le droit applicable à la donnée. Pour tous vos projets d’intelligence artificielle IA, n’hésitez pas à rechercher les conseils d’un juriste « Data Scientist », le Cabinet Rondeau-Abouly peut être consulté utilement à cet égard : Maître RONDEAU-ABOULY, Avocat à Marseille 51, rue Sainte 13001 Tel : 04 91 55 52 61, mail : cabinet@rondeau-abouly.com.