Intelligence artificielle éthique et droits humains 

Qu’il s’agisse de robots d’assistance, de services, de vidéosurveillance, de drones, de prothèses robotisées ou encore d’assistants vocaux sur les téléphones portables, le déploiement de l’intelligence artificielle se réalise au plus près de l’Homme. 

Enjeux : Pourquoi militer pour une intelligence artificielle éthique respectueuse des droits fondamentaux ?  

Les techniques utilisées par les intelligences artificielles ont des implications éthiques et juridiques souvent ignorées du grand public.  

Tout d’abord, pour atteindre les objectifs définis, elles s’alimentent d’importants volumes de données numériques sous différents formats : texte, son, image. Parmi ces données, se trouvent fréquemment des données privées et des renseignements personnels. Ces renseignements personnels constituent des morceaux de vies privées. Leur utilisation soulève, par conséquent, d’importants enjeux de risques d’atteinte à la vie privée, mais aussi à la confidentialité et à la sécurité de ces données.  

Tant les acteurs publics que privés, tous souhaitent saisir les enjeux éthiques mis en exergue par l’utilisation d’algorithmes utilisant un système d’IA qui pour se former utilisent des données.  

D’autre part, les intelligences artificielles risquent lors de leur programmation d’intégrer des biais reproduisant les préjugés et discriminations du monde réel.  

Il est donc nécessaire de mettre en place des garde-fous éthiques pour s’assurer que les IA soient développées selon une approche humaniste fondée sur des valeurs respectueuses des droits de l’Homme. Il faut veiller à ce que les données collectées ne soient pas utilisées à des fins préjudiciables ou discriminatoires pour les citoyens.  

Usages / Risques : Quels risques engendre l’utilisation des intelligences artificielles pour les droits fondamentaux ?  

  • Atteinte aux données personnelles 

Lors d’utilisations d’applications ou de plateformes de réseaux sociaux, de grandes quantités de données à caractère personnel sont collectées, souvent à l’insu de l’utilisateur. Ces données collectées peuvent servir à établir un profil et à prédire les futurs comportements de ce dernier. Sont massivement fournies des informations sur la santé, les opinions politiques, et la vie de famille sans connaître la finalité de leurs collectes.  

Par exemple, aux Etats-Unis, la Federal Trade Commission (FTC) a infligé une amende de 25 millions de dollars à Amazon pour atteinte à la vie privée des enfants via son assistante vocale connectée, Alexa. L’entreprise collectait et conservait indéfiniment les enregistrements des enfants et utilisait des données vocales et de géolocalisation pour ses propres fins.  

Autre exemple, la sonnette connectée Ring appartenant également à Amazon a été accusée par la FTC d’avoir porté atteinte à la vie privée de ses utilisateurs. La société permettait à ses employés et ses sous-traitants d’accéder aux vidéos enregistrées privées de ses clients. 

  • Discriminations

Un constat est souvent réalisé, l’IA tend à reproduire, voire accentuer les erreurs humaines en matière de discriminations. Les algorithmes d’intelligences artificielles figent souvent des stéréotypes racistes ou sexistes. Ils perpétuent les biais existants déjà dans nos sociétés qui impactent directement les groupes vulnérables (englobant notamment les femmes et les groupes ethniques). Le CESE souligne que « Le développement de l'IA se déroule dans un environnement homogène, composé principalement de jeunes hommes blancs, ce qui contribue à ancrer (sciemment ou non) les disparités culturelles et de genre dans l'IA, notamment du fait que les systèmes d'IA apprennent sur la base de données de formation ».  

À titre d’exemple, une étude sur les performances des systèmes de reconnaissance faciale a démontré que les femmes noires étaient particulièrement exposées aux erreurs et biais de l’IA.  

En matière pénale, il a été relevé des cas où certains systèmes d’IA utilisés dans le système de justice pour prédire les comportements criminels futurs renforçaient la discrimination et portaient atteinte aux droits fondamentaux, notamment à la présomption d’innocence.  

Autre exemple, l’IA a pu être utilisée pour déterminer qui pouvait bénéficier de services publics, ou encore de prestation de sécurité sociale. Les résultats ont pu démontrer que certains étaient traités injustement, l’IA se fondant sur des biais ancrés pour fonder sa décision.  

En matière de recrutement, si en France, l’article L.1131-2 du Code du travail5 instaure une obligation de formation du recruteur à la non-discrimination à l’embauche, ces dispositions ne sont pas applicables en cas de recours par l’entreprise à un logiciel de recrutement utilisant l’IA. Certaines entreprises font usage d’outils d’aide au recrutement axés sur des algorithmes mobilisant du Big Data. C’est par exemple le cas d’Amazon dont les analystes s’étaient aperçus que leur programme, basé sur un système de notation automatisé, pénalisait les candidatures où figurait une référence aux femmes. En effet, lors de sa création, l’algorithme avait été entraîné avec des banques de CV d’anciens candidats majoritairement de sexe masculin.  

  • Atteinte à la vie privée 

Les IA peuvent être utilisés dans le cadre de la surveillance de masse. Les forces de l’ordre usent de plus en plus de méthodes prédictives impliquant l’usage de l’IA. Ces technologies utilisent des données biométriques incluant la reconnaissance faciale pour identifier les personnes en temps réel et à distance, ce qui permet potentiellement un suivi illimité des individus. Aujourd’hui, il devient de plus en plus facile pour les gouvernements de surveiller les citoyens et ce en permanence ce qui peut restreindre le droit à la vie privée, la liberté de réunion, de circulation, de presse.  

Propositions de solutions : Quelles sont les solutions mises en œuvre pour encadrer l’intelligence artificielle afin de garantir une protection des droits humains ?  

Face à ces risques avérés et connus de tous, il apparaît nécessaire d’intégrer l’éthique à l’intelligence artificielle et ce, dès la conception des algorithmes. Il apparaît indispensable de réglementer le développement des IA ainsi que leurs applications pour qu’elles respectent les droits fondamentaux.  

Cette prise de conscience et de position doit être l’affaire de tous, à toutes les échelles.  

  • Au niveau mondial

En 2021, l’ONU avait demandé un moratoire sur certaines IA arguant qu’il était temps de mettre en place un dispositif pour protéger les droits humains quant à leur utilisation.  

  • Au niveau européen 

Déjà en 2018, le Parlement européen et le Conseil européen publiaient une communication intitulée « L’intelligence artificielle pour l’Europe» pour concevoir et mettre en œuvre une stratégie relative à l’IA destinée à promouvoir au sein de l’Union européenne une politique d’innovation respectant autant que possible la Charte des droits fondamentaux de l’Union Européenne.  

C’est en suivant la même ligne de conduite qu’en juin 2023, ils ont adopté une proposition de règlement établissant des règles harmonisées concernant l’IA. Le choix est fait d’adopter deux approches.  

La première, une approche par les risques. Il s’agit de classifier en différentes catégories de systèmes d’IA selon le niveau de risque de préjudice pour la santé, la sécurité, et les incidences négatives sur les droits fondamentaux. Les risques sont déterminés en fonction de critères comme : la destination et l’utilisation du système d’IA, le potentiel préjudice, le niveau de dépendance des personnes à l’égard du système d’IA, la vulnérabilité des personnes concernées etc.  

Selon la catégorie de risques dans laquelle elles seront classées, les technologies IA, autant les fournisseurs que les utilisateurs, devront répondre à des obligations plus ou moins strictes. 

La deuxième approche est celle d’intégrer les droits de l’homme dans l’ensemble du cycle de vie de l’IA. Du début à la fin, les principes des droits de l’homme doivent être inclus dans la collecte et la sélection des données, mais aussi dans la conception, le développement, le déploiement et l’utilisation des modèles, outils et services qui en résultent. Il faut veiller à ce que le concepteur ou le développeur du code de l’algorithme de l’IA ne reproduise pas ses croyances biaisées.  

Ainsi, le Parlement européen préconise que tout encadrement de l'intelligence artificielle veille au respect de la Charte des droits fondamentaux de l’Union européenne. L’objectif étant de protéger la dignité humaine, éviter les préjudices, promouvoir l'équité, l'inclusion et la transparence. Imposer le respect de cette Charte permettrait d’éliminer les biais et les discriminations, y compris en ce qui concerne les groupes minoritaires, de respecter et d’appliquer les principes de limitation des externalités négatives des technologies utilisées.  

  • Au niveau national 

Au niveau national, la CNIL s’est aussi emparée du sujet. Dans une logique préventive, elle préconise le respect de deux principes fondateurs pour une intelligence artificielle éthique au service de l’homme. Tout algorithme, qu’il traite ou non des données personnelles doit être respectueux du droit des personnes dont l’intérêt doit toujours primer. Elle rappelle en outre, l’obligation de respecter le RGPD si des données personnelles sont traitées par le système d’intelligence artificielle.  

Par exemple, elle souligne que le principe de finalité impose aux systèmes d’IA de n’utiliser des données personnelles que pour un objectif précis défini à l’avance. Pour l’entraînement des algorithmes, les données utilisées devront avoir été sélectionnées pour optimiser l’entraînement de l’algorithme en évitant l’utilisation de données personnelles inutiles conformément au principe de minimisation des données. Si pour son entraînement, le système d’IA utilise des données publiquement accessibles sur Internet, le concepteur doit vérifier notamment qu’elles n’ont pas été collectées de manières illicites.  

Concilier le développement de systèmes d’IA avec les enjeux de protection de la vie privée permet de faire émerger des dispositifs, outils et applications éthiques et respectueux des valeurs européennes. 

De surcroît, par la voie de recommandations, la CNIL s’adresse aux entreprises pour les guider vers un renforcement de la fonction éthique via la mise en place de comités d’éthique, l’adoption de chartes de bonnes pratiques sectorielles ou déontologiques.  

  • Au niveau privé

Le secteur privé doit donc devenir responsable de la conception, à la programmation en passant par la mise en œuvre et l’usage des intelligences artificielles afin de respecter les normes des droits de l’Homme.  

Cette prise de conscience débute par le respect des dispositions du RGPD qui, à travers ses cinq grands principes (finalité, proportionnalité et pertinence, durée de conservation limitée, sécurité et confidentialité) permet de protéger les données personnelles lorsqu’elles sont traitées par un système d’IA conçu ou utilisé par l’entreprise. 

Par exemple, si l’entreprise utilise un système d’IA dans le cadre d’une prise de décision, l’article 13-2-f du RGPD8 prévoit que le responsable de traitement doit informer la personne concernée « de l’existence d’une prise de décision automatisée, y compris un profilage et, au moins en pareils cas, des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement pour la personne concernée ».  

Ces dispositions contraignantes sont parfois couplées à des initiatives privées. En effet, certaines entreprises technologiques avaient déjà tenté de devancer la réglementation en s’autorégulant par l’adoption de lignes directrices. Ce fut le cas, en 2016, de Facebook, Microsoft, Amazon, IBM, Apple et Google qui s’étaient alliés pour un partenariat pour l’intelligence artificielle au bénéfice des citoyens de la société.  

Google avait déclaré qu’il ne mettrait jamais sur le marché des produits d’IA dont la finalité serait contraire aux droits humains. À ce titre, avait été publiée, en 2018, une liste des 7 principes éthiques liés au développement de l’IA pour éviter tout impact « injuste », discriminant sur les personnes. En 2019, l’entreprise a créé un comité d’éthique de l’intelligence artificielle.

Conclusion

La question de l’éthique de l’intelligence artificielle revêt une importance cruciale de la nature des données utilisées pour l’entraînement de l’IA, à leur combinaison, jusqu’aux résultats au sortir du traitement. L’utilisation de l’intelligence artificielle est une révolution dans nos quotidiens qui soulève une question importante, celle de savoir quel type de société nous souhaitons pour demain. Pour le Parlement, il faut tendre vers « une intelligence artificielle axée sur l'homme et développée par l’homme ». 

Précédent
Précédent

Les lignes directrices du CEPD : les assistants virtuels vocaux

Suivant
Suivant

L’élaboration d’une décision d’adéquation et son application