Le Conseil de l'Europe a organisé l'un des débats pré-événement sur l'intelligence artificielle (IA) à EuroDIG 2019. Les intervenants ont examiné les risques que l'intelligence artificielle représente pour renforcer la discrimination et les éventuelles mesures d'atténuation en s'appuyant sur l'étude de l'ECRI « Discrimination, intelligence artificielle et décision algorithmique » par le modérateur Prof. Frederik Zuiderveen Borgesius.

Krisi Pimiä, Médiateur pour la non-discrimination en Finlande, a expliqué que dans les secteurs public et privé, les décisions fondées sur l'IA sont prises dans de nombreux domaines clés de la vie. Comme nous l'avons montré dans la première affaire de discrimination fondée sur l'IA soumise au Tribunal en 2017, nous pouvons tous être affectés: « Il est difficile d'entamer une procédure. Heureusement, notre mandat couvrait le secteur privé et nous pouvions demander des informations sur le système d'IA utilisé et nous avons pu prouver que les repères utilisés couvraient des terrains protégés, mais aussi que la surveillance humaine et la révision humaine secondaire faisaient défaut.

Des données inexactes peuvent avoir des conséquences étendues. Des personnes inscrites à tort dans une base de données de la police britannique ont été expulsées de leur logement et certaines ont même été expulsées parce que le secteur public avait eu recours à l'IA et à des bases de données combinées. La plupart des gens ne savaient pas qu'ils figuraient dans la base de données de la police et il était impossible de corriger leurs données car tous les services étaient liés, a expliqué Ariane Adam d'Amnesty International.

Des évaluations d'impact sur les droits de l'homme concernant l'utilisation de l'IA spécialement par le secteur public, la transparence et le débat public sont nécessaires, mais également l'alphabétisation de l'IA auprès du grand public.

Meeri Haataja, PDG de Saidot.ai : « La transparence dans l’utilisation de l’IA signifie la communication dans des langues compréhensibles aux utilisateurs finaux. Par exemple, un projet pilote mené avec des municipalités en Finlande teste l’utilisation de formulaires et d’explications normalisés lorsque l’IA est utilisé pour la prestation de services publics. Une telle approche a également renforcé l’alphabétisation de la population en matière d’IA ».

En se référant à la recommandation du commissaire aux droits de l'homme du CdE sur Unboxing AI, 10 étapes pour protéger les droits de l'homme, la discussion a conclu qu'une approche multipartite et globale est nécessaire et qu'en tant que société, nous devrions diriger l'utilisation de l'IA. AI n'est pas objectif et peut-être n’est pas la solution à tous les défis de la société.