02/02/2023
Cybersecurity Insights
La prise de conscience internationale de l’importance de la question éthique
La notion d’éthique a toujours été beaucoup questionnée et définie. Souvent appréciée dans un prisme plutôt philosophique, on observe que chaque grande avancée qu’elle soit médicale ou industrielle est accompagnée de son questionnement éthique. La définition du dictionnaire aujourd’hui, pour le mot éthique, est la suivante : « Ensemble des principes moraux qui sont à la base de la conduite de quelqu’un » [1].
Ainsi, on comprend que l’éthique est un cadre moral composé de règles qui guident les comportements. Un cadre éthique est donc observable à l’échelle individuelle, on parle alors des valeurs personnelles d’un individu. À l’échelle d’un pays, l’établissement de lois a pour vocation d’encadrer les comportements, néanmoins, elles peuvent être remises en question au nom de la morale. Comme il est difficile de convenir d’une universalité de la morale, le cadre à cette échelle est un compromis.
Ce même besoin d’encadrement s’observe en parallèle de l’avancement et de l’innovation dans un domaine. Il est par exemple nécessaire de se poser des questions sur les finalités et les conséquences sur l’Homme d’un projet scientifique. Si cela peut sembler évident quand la recherche concerne la santé, il n’en est pas moins important concernant les avancées technologiques. Ce premier état des lieux autour de la question éthique, nous offre de nombreuses pistes d’approfondissement que nous verrons dans des analyses dédiées.
Les débuts du questionnement
Les législateurs en ont pris conscience au cours des dernières années, faisant naître de nombreux projets de loi concernant l’éthique numérique, et plus particulièrement concernant les projets en lien avec l’Intelligence Artificielle (IA). Ces nouveaux enjeux sont aujourd’hui compris et le risque de dérive incite aux réflexions sur la nécessité de proposer un cadre éthique.
Les projets liés à l’intelligence artificielle sont particulièrement concernés car ils ont déjà un impact direct sur nos vies et celui-ci ne va faire qu’augmenter au fil du temps. La réglementation commence donc là mais il est pertinent de penser que les recommandations seront élargies à l’ensemble des projets technologiques. Ces impacts peuvent être positifs et révolutionner la vie de nombreuses personnes dans le bon sens mais il a rapidement été mis en avant que le risque d’impacts négatifs, souvent non anticipés par les initiateurs du projet, sont loin d’être négligeables.
Les conséquences pouvant être observées à large échelle, il est apparu nécessaire que les discussions sur la régulation soient faites sur la scène internationale. En novembre 2021, l’UNESCO a publié une recommandation sur l’éthique de l’intelligence artificielle, même si ce n’est pas la première initiative en ce sens, c’est la première regroupant autant de pays.[2] Elle met en avant les valeurs suivantes : « le respect, la protection et la promotion des droits de l’homme, des libertés fondamentales et de la dignité humaine », « la prospérité de l’environnement et des écosystèmes », « l’assurance de la diversité et de l’inclusion » et « l’édification de sociétés pacifiques, justes et interdépendantes ». Elle propose ensuite des pistes sur la manière de garantir la protection de ces valeurs au travers du respect de différents principes et l’identification de différents domaines d’actions stratégiques.
Des initiatives de réglementation régionales sont également en cours, prés existants ou non à la publication de cette recommandation, elles seront nécessairement influencées par son contenu.
On peut parmi elles citer :
- Le projet de règlement européen sur l’intelligence artificielle (IA ACT)[3] : dernière proposition de texte en date de novembre 2022[4].
- Le dossier « Spécifications éthiques de l’intelligence artificielle de nouvelle génération » publié par la Chine [5] en septembre 2021.
- Le National Defense Authorisation Act[6] (NDAA) des Etats-Unis pour l’année 2021/2022 propose également plusieurs mesures concernant la stratégie américaine en intelligence artificielle et le AI Risk management framework[7] publié par le NIST en janvier 2023. Les états américains individuellement se positionnent également sur la question[8].
Les normes comme outil d’influence
L’établissement rapide d’un cadre normatif concernant l’Intelligence Artificielle est stratégiquement intéressant. Les normes sont des outils d’influence non-négligeable et l’état des lieux des projets réglementaires nous donne des indices sur les différents choix stratégiques de chacun.
Certains ont pour ambition de se positionner comme leader sur les questions d’éthique de l’IA et espèrent instaurer des « modèles à suivre ». D’autres ont un positionnement plus défensif et veillent à la protection de leurs intérêts économiques en premier lieu. D’autres encore, sont un peu plus en retrait, suive les tendances tout en cherchant comment faire leur place et se rendre indispensable.
On peut donc différencier plusieurs acteurs de la scène internationale jouant un rôle dans la construction d’un cadre éthique de l’IA :
- À une échelle nationale de nombreux pays ont lancé une initiative de régulation comme : la France, l’Allemagne, le Brésil, la Chine, le Japon, la Corée du Sud, le Rwanda, le Ghana ou encore le Sénégal.
- À une échelle supranationale l’Union Européenne, n’est pas la seule à avoir initiée des travaux, c’est également le cas de l’Union Africaine.
Des recommandations ont également été publiées par l’OCDE, basées sur les recommandations européennes du EU High Level Experts Group (2019)[9]. Les recommandations de l’UNESCO proposent la première approche globale prenant en compte les différences culturelles existantes entre les nations.
Des initiatives privées de standardisation ont également créé des comités pour réfléchir sur les questions d’éthiques liées à l’intelligence artificielle notamment. On retrouve par exemple le projet de norme ISO[10] : ISO/IEC JTC 1/SC 42 Intelligence artificielle et l’initiative d’IEEE sur l’éthique des systèmes autonome et intelligent[11].
Une adaptation inévitable du secteur privé : une anticipation nécessaire
Les entreprises du secteur privé ont tout à gagner à être des éléments moteurs de cette évolution. On observe de plus en plus d’initiative en ce sens comme :
Le financement de recherches à l’Institut pour l’éthique de l’intelligence artificielle à l’université technique de Munich (TUM IEAI) en Allemagne qui a pour objectif de « recherches indépendantes et scientifiques pour apporter des connaissances et des conseils à la société, l’industrie, les législateurs et les décisionnaires des secteurs privé et public »[12]. On retrouve parmi leurs partenaires Fujitsu ou encore META.
À plus petite échelle, il apparaît aujourd’hui indispensable pour les entreprises d’anticiper les conséquences de la mise en place de ce cadre éthique sur leurs activités et cela que l’intelligence artificielle soit ou non au cœur de leur métier.
Plusieurs actions peuvent être mises en place comme :
- Une veille réglementaire ciblée
- La mise en place d’un comité de réflexion sur le cadre éthique
- Une analyse des risques et des conséquences ciblant les enjeux éthiques
L’actualité sur le sujet est riche mais il est nécessaire de la suivre pour ne pas se laisser dépasser et voir des projets prometteurs pénalisés par manque d’anticipation.
Références
[1] Définitions : éthique – Dictionnaire de français Larousse
[2] Recommandation sur l’éthique de l’intelligence artificielle – UNESCO Bibliothèque Numérique
[3] https://artificialintelligenceact.eu/the-act/
[4] https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf
[5] https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html
[6] https://www.congress.gov/bill/117th-congress/house-bill/4350/text
[7] https://www.nist.gov/itl/ai-risk-management-framework
[8] https://www.ncsl.org/technology-and-communication/legislation-related-to-artificial-intelligence
[9] Forty-two countries adopt new OECD Principles on Artificial Intelligence – OECD
[10] ISO – Éthique et intelligence artificielle…
[11] IEEE SA – The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems
[12] Home – Institute for Ethics in Artificial Intelligence (tum.de)
Alia SAADI
Consultante Governance, Risks & Compliance