Intelligence artificielle et discrimination

Photo of head made of code

L’incidence de l’intelligence artificielle (IA) sur les droits humains est l’un des facteurs les plus cruciaux qui définiront la période dans laquelle nous vivons. La technologie fondée sur l'IA pénètre de plus en plus d'aspects de la vie de chaque individu, des appareils électroménagers intelligents aux applications de réseaux sociaux, et elle est de plus en plus utilisée par les pouvoirs publics pour évaluer la personnalité ou les compétences des individus, allouer des ressources et prendre des décisions qui peuvent avoir des conséquences réelles et significatives pour les droits humains des individus.

De nombreuses études ont mis en évidence les risques que font peser les systèmes dits d'intelligence artificielle et de prise de décision automatisée sur les principes d'égalité et de non-discrimination en matière d'emploi, de prestation de biens ou de services dans les secteurs public et privé, de politiques de sécurité publique ou encore dans la lutte contre la fraude.

L'étude intitulée «Discrimination, intelligence artificielle et décisions algorithmiques», mandatée par la Commission européenne contre le racisme et l'intolérance (ECRI) du Conseil de l'Europe, a identifié de nombreux défis de ce type et a déclaré que les organismes de promotion de l'égalité ont un rôle clé à jouer dans la sensibilisation, la prévention et la réparation.  L'étude a également montré que la discrimination causée par les systèmes d'IA et de prise de décision automatisée (ADM) peut être combattue grâce à différents outils réglementaires, notamment la protection des données et la réglementation sectorielle telle que le droit du travail. Cela nécessite une coopération intersectorielle entre les régulateurs nationaux afin de fournir des recours efficaces, de partager l'expertise et la charge de travail.

Le Comité directeur sur l'anti-discrimination, la diversité et l'inclusion (CDADI) et la Commission pour l'égalité de genre (GEC) du Conseil de l'Europe ont mandaté l’élaboration d’une étude sur l'impact des systèmes d'intelligence artificielle, leur potentiel pour promouvoir l'égalité - y compris l'égalité de genre - et les risques qu'ils peuvent engendrer en matière de non-discrimination. Sous réserve des résultats de l'étude mentionnée ci-dessus, le CDADI, en coopération avec la GEC et la Commission sur l'intelligence artificielle (CAI), élaborera éventuellement un instrument juridique spécifique traitant de cette question. L'étude s'appuie sur les travaux actuels du CAI et les travaux antérieurs du Comité ad hoc sur l'intelligence artificielle (CAHAI) en 2020 et 2021, en particulier son étude de faisabilité et son document Éléments possibles d'un cadre juridique sur l'intelligence artificielle, basé sur les normes du Conseil de l'Europe sur les droits de l’homme, de démocratie et d'État de droit.

Le Conseil de l'Europe, en partenariat avec des organismes de promotion de l'égalité et d'autres institutions publiques, a mis en place des programmes de formation portant sur l'impact de l'IA sur la discrimination. Les formations aident les participants à acquérir une première expertise sur ces sujets afin de mieux les préparer à identifier et répondre aux discriminations causées par les technologies numériques de la part de leurs institutions. Ces formations sont également l'occasion de rappeler le cadre juridique de la non-discrimination, qui s'applique aux décisions prises sur la base de traitements algorithmiques. Enfin, ces formations soutiennent la création d'un réseau d’acteurs intéressés par le sujet, établissant la communication et les aidant à discuter de leur travail et de leurs tâches respectives.

 

La formation en France a été mise en œuvre en partenariat avec le Défenseur des droits. Le Défenseur des droits est une autorité administrative indépendante, chargée de défendre les droits des citoyens vis-à-vis de l'administration (médiateur) mais qui dispose également de prérogatives spécifiques en matière de promotion des droits de l'enfant, de lutte contre les discriminations et de respect de la déontologie par les personnels de sécurité.


 

Le cours au Royaume-Uni a été mis en œuvre en partenariat avec le Centre pour l'éthique des données et l'innovation / Centre for Data Ethics and Innovation (CDEI), un organisme d'experts du gouvernement britannique permettant une utilisation fiable des données et de l'IA, avec une expertise couvrant la politique des données, l'engagement public et l'informatique.