Résumé

La Commission de Venise du Conseil de l’Europe a organisé la 19e Conférence européenne des administrations électorales (EMB) à Strasbourg et en ligne les 14-15 novembre 2022.

Le thème de la conférence était "Intelligence artificielle et intégrité électorale". Les participants ont discuté plus spécifiquement de quatre questions, après une session d’introduction sur l’acquis du Conseil de l’Europe et les principes en jeu:

  • Intelligence artificielle (IA) et équité dans les processus électoraux;
  • L’impact de l’IA sur la participation et le choix des électeurs vs. protection des données;
  • IA vs. supervision et transparence des processus électoraux;
  • AI et contenus préjudiciables.

Srdjan Darmanović, président du Conseil des élections démocratiques, membre de la Commission de Venise au titre du Monténégro, a ouvert la conférence.

Environ 130 participants ont pris part à la conférence, à savoir des représentants des administrations électorales nationales, ainsi que d’autres profils tels que des universitaires, des praticiens, des experts et des représentants de la société civile.

D’autres institutions du Conseil de l’Europe, notamment l’Assemblée parlementaire et le Congrès des pouvoirs locaux et régionaux, ont participé à la conférence. D’autres institutions internationales ont également participé à l’événement, notamment l’Organisation pour la sécurité et la coopération en Europe/Bureau des institutions démocratiques et des droits de l’homme (OSCE/BIDDH) et le Parlement européen.

Conclusions

Le Conseil de l’Europe a beaucoup travaillé dans le domaine des technologies de l’information et de la communication (TIC) dans les processus électoraux, comme le Comité des Ministres (voir par exemple leurs Lignes directrices de 2022 sur l’utilisation des technologies de l’information et de la communication (TIC) dans les processus électoraux des États membres du Conseil de l’Europe). En outre, la Commission de Venise et les EMB ont déjà eu plusieurs occasions d’aborder les nouvelles technologies dans les élections, notamment à l’occasion de la conférence des EMB qui s’est tenue à Oslo en 2018 sur "la sécurité dans les élections" et surtout par l’élaboration en 2020 des "Principes pour un usage conforme aux droits fondamentaux des technologies numériques dans les processus électoraux".

Au-delà des TIC, les systèmes d’IA nécessitent également le plein respect des principes des élections et des référendums démocratiques. À cet égard, les travaux en cours du Comité sur l’intelligence artificielle du Conseil de l’Europe et son objectif d’élaborer un cadre juridiquement contraignant sur le développement, la conception et l’application de l’intelligence artificielle, à livrer d’ici la fin de 2023, sont d’une importance cruciale. Ces principes juridiques généraux devraient être traduits dans les législations nationales appropriées et conformes aux principes du patrimoine électoral européen.

Compte tenu des différentes acceptions de l’IA, la Conférence a décidé de retenir la définition donnée par le Conseil de l’Europe et l’Institut Alan Turing, à savoir "des modèles algorithmiques qui accomplissent dans le monde des fonctions cognitives et perceptives autrefois réservées aux êtres humains, lesquels ont la faculté de penser, juger et raisonner".

Quel que soit l’impact positif ou négatif des systèmes d’IA sur les processus électoraux, les EMB ont néanmoins commencé dans un certain nombre de pays à utiliser l’IA dans diverses phases de leurs processus électoraux, comme le redécoupage des circonscriptions, l’inscription des électeurs, le test et la certification du matériel de vote, la correspondance des signatures, le décompte des voix ou la vérification des résultats des élections.

Compte tenu des droits fondamentaux en jeu, les EMB et les acteurs électoraux dans leur ensemble devront examiner attentivement l’introduction de systèmes d’IA dans les processus électoraux et trouver un équilibre entre les méthodes traditionnelles d’organisation des élections et l’introduction de ces systèmes dans leurs processus.

Cela n’empêche pas l’utilisation de solutions hybrides impliquant à la fois des humains et l’IA, en gardant à l’esprit que la complexité est un ennemi de l’intégrité électorale et que l’IA pourrait contribuer à nuire à l’intégrité électorale. En outre, l’utilisation de l’IA doit toujours garantir la sécurité et l’accessibilité pour les citoyens.

En ce qui concerne l’IA et l’équité dans les processus électoraux, un inconvénient des outils d’IA peut être le risque d’une utilisation abusive dans le but de manipuler les idées et les messages, créant une exposition sélective des électeurs à des informations à caractère politique et déformant par conséquent l’information et la réalité.

Dans ce contexte, les EMB, qui sont en première ligne pour garantir l’équité d’un processus électoral, doivent être conscients de l’utilisation abusive de ces outils pendant un processus électoral et chercher à prévenir ce type d’utilisation afin de protéger les électeurs, en particulier les femmes et les groupes vulnérables.

L’IA peut toutefois contribuer à un contenu médiatique plus équilibré, aider à identifier les informations biaisées et à détecter les contenus préjudiciables, ainsi qu’à fournir une couverture alternative (par exemple avec des robots détectant les fausses informations connues).

En ce qui concerne l’impact de l’IA sur la participation et le choix des électeurs vs. La protection des données, l’IA devrait viser à augmenter le nombre d’électeurs mieux informés, ce qui garantirait un taux de participation plus élevé et une meilleure inclusion des électeurs. L’IA pourrait également contribuer à optimiser le déplacement des électeurs ou à mieux comprendre les mécanismes de leur comportement.

Il existe deux points de vue concernant l’impact de l’IA sur la participation et le choix des électeurs : certains encouragent l’IA dans les processus électoraux par le biais de la publicité personnalisée comme un moyen légitime de transmettre des informations aux électeurs et de promouvoir l’éducation des électeurs (y compris par des campagnes de micro-ciblage). D’autres soutiennent que l’utilisation de l’IA devrait toujours être limitée dans le contexte des processus électoraux, car elle pourrait également être un moyen d’accroître la manipulation des électeurs, notamment par le biais du micro-ciblage, et représenter un danger potentiel de manipulation et de réduction de l’offre politique.

L’objectif est in fine de garantir des processus électoraux équitables en permettant aux électeurs de librement se forger une opinion et de l’exprimer.

La conférence a également abordé la question de la protection des données. Le scandale Cambridge Analytica et d’autres situations similaires qui se sont produites, ainsi que le développement exponentiel du micro-ciblage, ont sérieusement mis en danger la protection des données personnelles des citoyens et la confiance dans les processus électoraux dans leur ensemble. Les États auraient dû y faire face par une réaction forte et des mesures juridiques.

Les données étant la matière première de l’IA, la personnalisation des informations en fonction des préférences personnelles des citoyens doit avoir des limites afin d’assurer la protection des données. Si l’on considère que la plupart des données liées aux élections sont considérées comme sensibles, les données personnelles nécessitent donc un niveau de protection approprié, surtout dans un contexte où les infrastructures affectées par l’IA mettent en jeu la cybersécurité et in fine la sécurité de l’ensemble d’un processus électoral. L’utilisation des données personnelles doit en tout cas être conforme à la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (Convention 108+) et au Règlement général sur la protection des données (RGPD) de l’Union européenne pour les États membres concernés.

Les électeurs doivent donner leur consentement pour les données traitées par tout acteur électoral, y compris les acteurs privés, et être informés en conséquence du traitement des données, y compris des informations de base sur l’organisme qui contrôle ces données, la finalité du traitement des données, le stockage, etc.

En outre, toutes les données personnelles utilisées par l’apprentissage automatique doivent être anonymisées. De plus, l’équilibre entre la publicité détaillée des résultats anonymes et la segmentation doivent également être pris en compte, tout en garantissant le respect du suffrage secret.

En ce qui concerne l’IA vs. supervision et transparence des processus électoraux, les géants de la Tech ont une responsabilité majeure pour contribuer au bon déroulement des processus électoraux. Ils doivent rendre des comptes quant au contenu de leurs plateformes et à l’impact de ce contenu sur le discours démocratique public. Ils doivent expliquer de manière transparente et compréhensible quelles mesures comprennent leurs règlements internes et doivent démontrer que les données qu’ils utilisent sont impartiales et représentatives.

Une autre contribution à la transparence des processus électoraux est l’obligation d’étiqueter le contenu généré par l’IA (médias synthétiques). La proposition de règlement de la Commission européenne sur l’IA prévoit déjà une obligation d’étiquetage correspondante. L’obligation d’enregistrer et de stocker les données générées par l’utilisation de systèmes d’IA pourrait également être ajoutée, ainsi que le droit d’accéder aux enregistrements pertinents.

Une société démocratique ne devrait cependant pas laisser cette tâche essentielle aux seuls acteurs privés et selon leur propre ensemble de règles. Les acteurs publics devraient d’abord discuter et décider si l’IA va être utilisée dans les processus électoraux. Ensuite, ils doivent rédiger les exigences auxquelles l’IA doit répondre et définir les mécanismes capables de contrôler efficacement que l’IA répond à ces exigences. Ils doivent également superviser son utilisation et mettre en place des mécanismes permettant de détecter, de contester et de corriger les problèmes éventuels.

Avant tout, les acteurs électoraux devraient être impliqués dans la sécurité des processus électoraux en assurant la supervision des infrastructures impactées par l’IA. Tout système d’IA affectant les citoyens, en particulier lorsque ce système prend des décisions touchant aux droits de l’homme et aux libertés fondamentales, doit être ouvert à leur examen. Cela devrait, par conséquent, laisser suffisamment de temps aux parties prenantes concernées pour analyser ces mécanismes tout en garantissant la stabilité des systèmes qui ne devraient pas être modifiés en cours de processus. Cela concerne également le droit des citoyens à savoir qu’ils interagissent avec un système d’IA.

En outre, les observateurs électoraux nationaux et internationaux devraient avoir un rôle dans l’observation des processus électoraux affectés par l’IA et participer à la transparence de ces processus.

Outre la nécessité d’un cadre juridique renforcé, les mesures qui pourraient être prises pour contrer les risques éventuels liés à l’utilisation de systèmes d’IA dans les processus électoraux ont été discutées, notamment l’adoption de diverses mesures éthiques et techniques; la création de conseils indépendants composés d’experts et de représentants de la société civile; la collaboration accrue des géants de la Tech avec les chercheurs pour une meilleure compréhension des risques et des conséquences.

En ce qui concerne l’IA et les contenus préjudiciables, l’IA est souvent utilisée pour diffuser des contenus préjudiciables en ligne, plus précisément de la désinformation, des discours haineux, des fake news et des deep fakes (c’est-à-dire pour ces derniers des images, des vidéos ou des fichiers audio manipulés par l’IA) qui brouillent la frontière entre réalité et fiction.

Les systèmes d’IA sont donc de plus en plus utilisés dans le cadre de stratégies de gestion des risques, telles que la "modération du contenu électoral" pour supprimer les contenus nuisibles. Certains systèmes ont été critiqués pour leur opacité et leur manque de transparence, notamment en ce qui concerne les raisons pour lesquelles certains contenus sont supprimés et d’autres non.

Il est donc conseillé que les décisions soient supervisées par des humains ou au moins susceptibles de faire l’objet d’un appel auprès de l’EMB ou de l’organe compétent, éventuellement judiciaire. Étant donné que les sites et plateformes de médias sociaux doivent mettre en œuvre la législation électorale nationale et les décisions judiciaires afférentes, il faut également prévoir des possibilités de renforcer leur rôle et leurs ressources et d’institutionnaliser la collaboration entre les EMB et ces acteurs.

Si l’utilisation de l’IA dans les processus électoraux accroît la responsabilité des acteurs privés dans la lutte contre les contenus préjudiciables, les autorités publiques et la société civile ont également un rôle essentiel à jouer pour surveiller ces contenus sur les plateformes politiques. En outre, les autorités publiques compétentes ont un rôle crucial à jouer pour avertir les citoyens en cas de contenu préjudiciable et limiter la diffusion de ce contenu, ainsi que pour sanctionner ces violations lorsque la loi le permet.