Le carnet des droits humains de la Commissaire

Retour Le profilage ethnique : une pratique persistante en Europe

Le Carnet des droits de l'homme
Le profilage ethnique : une pratique persistante en Europe

Le profilage racial ou ethnique dans les activités de la police a été défini comme « l’utilisation par la police, sans justification objective et raisonnable, de motifs tels que la race, la couleur, la langue, la religion, la nationalité ou l’origine nationale ou ethnique dans des activités de contrôle, de surveillance ou d’investigation».[1] Bien que ce phénomène ne soit pas nouveau, il reste très répandu dans l’ensemble des États membres du Conseil de l’Europe, malgré une prise de conscience accrue de la nécessité de le combattre, favorisée par une jurisprudence toujours plus abondante.

Description du problème

Il y a plusieurs domaines dans lesquels le profilage ethnique peut se manifester plus particulièrement. Par exemple, les politiques publiques peuvent conférer des pouvoirs discrétionnaires excessifs aux forces de l’ordre, qui en font ensuite usage pour cibler des groupes ou des individus en fonction de leur couleur de peau ou de leur langue. Le plus souvent, le profilage ethnique est mû par des préjugés tacites. Le recours aux procédures d’interpellation et de fouille à l’égard des groupes minoritaires et des étrangers est l’une de ses formes les plus courantes. La multiplication des contrôles d’identité ou des interrogatoires de personnes ou de groupes aux points de passage frontaliers, ainsi que dans les aéroports, les stations de métro et les gares ferroviaires ou routières, est une autre caractéristique du phénomène. Dans certains contextes, des personnes appartenant à des groupes minoritaires ont été empêchées de quitter le pays dont elles sont ressortissantes.[2] Le profilage racial et ethnique est également pratiqué dans le système de justice pénale : les membres de groupes minoritaires se voient souvent imposer des sanctions pénales plus lourdes,[3] parfois aussi en raison de préjugés implicites, qui sont de plus en plus perpétués par des algorithmes d’apprentissage automatique.

D’après les résultats d’une enquête menée à l’échelle de l’Union européenne[4] en 2015-2016 auprès de plus de 25 000 répondants issus de minorités ethniques ou d’origine immigrée, 14 % avaient été contrôlés par la police au cours des 12 mois précédant l’enquête. En France, selon les résultats d’une enquête nationale portant sur un échantillon de plus de 5 000 personnes,[5] les jeunes hommes d’origine arabe ou africaine ont une probabilité 20 fois plus élevée d’être contrôlés et fouillés que tout autre groupe d’hommes. S’agissant du Royaume-Uni, où la police est tenue par la loi de collecter et publier des données ventilées sur ses pratiques en matière de contrôle et de fouille, les statistiques établies par le Home Office (ministère de l’Intérieur) pour 2017-2018 montrent qu’en Angleterre et au pays de Galles, les Noirs avaient neuf fois et demie plus de risques d’être contrôlés que les Blancs.[6]

Le profilage ethnique des Roms est une réalité dans toute l’Europe. Par ailleurs, les contrôles d’identité arbitraires de personnes originaires du Caucase du Nord seraient des pratiques courantes en Fédération de Russie,[7] et des abus et harcèlements policiers contre des migrants suspectés d’être en situation irrégulière ou contre des Noirs ont été signalés en Ukraine [8] et en République de Moldova.[9]

Un corpus croissant de décisions judiciaires

Des juridictions nationales et internationales ont mis en lumière ces tendances inquiétantes. Dans l’affaire Timichev c. Russie,[10] la Cour européenne des droits de l’homme a considéré qu’aucune différence de traitement fondée exclusivement ou de manière déterminante sur l’origine ethnique d’un individu ne peut passer pour objectivement justifiée dans une société démocratique contemporaine, fondée sur les principes du pluralisme et du respect de la diversité culturelle. En ce qui concerne la charge de la preuve, la Cour a estimé que, une fois que le requérant a démontré qu’il y avait eu une différence de traitement, il incombe au gouvernement défendeur de prouver que celle-ci était légitime. Plus récemment, dans l’arrêtLingurar c. Romania[11] la Cour a conclu à des violations de l’article 14 (interdiction de la discrimination) de la Convention européenne des droits de l’homme (la Convention) combiné avec l’article 3 (interdiction des traitements inhumains ou dégradants) dans une affaire portant sur une descente de police à caractère raciste effectuée en 2011 au domicile d’une famille rom en Roumanie. Dans cet arrêt, qui traite de ce que la Cour a qualifié de « racisme institutionnalisé » dirigé contre les Roms, cette dernière emploie pour la première fois le terme de « profilage ethnique » pour décrire les activités de la police. Elle constate notamment que les autorités ont établi un lien direct entre origine ethnique et comportement délinquant, ce qui a rendu leur action discriminatoire.

Dans une affaire concernant une famille d’origine africaine dont les membres furent les seules personnes à faire l’objet d’un contrôle d’identité dans un train allemand, la juridiction administrative supérieure de Rhénanie-Palatinat a statué en faveur de la famille, faisant valoir que les contrôles d’identité de la police fondés sur la couleur de la peau d’une personne en tant que critère de sélection pour cette pratique étaient contraires au principe de l’égalité devant la loi.[12] Aux Pays-Bas, la Cour suprême a qualifié de discriminatoire un programme de la police nationale (connu sous le nom de projet « Moelander ») qui autorise les policiers effectuant des contrôles routiers à cibler les véhicules immatriculés en Europe orientale.[13]

En Suède, la cour d’appel de Svea a examiné une plainte déposée par plusieurs Roms concernant leur inscription dans un registre de la police suédoise, fondée uniquement sur leur origine ethnique. La cour a demandé au gouvernement d’établir qu’il existait une autre raison valable de faire figurer ces personnes dans le registre. Devant l’incapacité des autorités à fournir les éléments de preuve requis, la cour a conclu que l’origine ethnique des personnes était le seul motif de cette inscription, ce qui constituait une violation de la loi suédoise relative aux données de la police et de l’article 14 (interdiction de la discrimination) de la Convention combiné avec l’article 8 (droit au respect de la vie privée et familiale).[14] En France, dans une affaire concernant 13 personnes qui se plaignaient d’avoir été soumises à un contrôle d’identité par la police en raison de leur apparence physique, la Cour de cassation a estimé que la charge de la preuve incombe aux autorités dès lors que des éléments crédibles laissent présumer l’existence d’une pratique discriminatoire.[15]

Profilage algorithmique

Bien qu’elle en soit encore à un stade expérimental, l’utilisation d’algorithmes d’apprentissage automatique dans les systèmes de justice pénale devient de plus en plus courante. Plusieurs pays européens, dont le Royaume-Uni, les Pays-Bas, l’Allemagne et la Suisse, testent cette méthode, notamment dans le domaine de la police « prédictive ».

Les algorithmes d’apprentissage automatique utilisés par la police et dans le système de justice pénale provoquent de vifs débats au sujet de leur efficacité et de leurs effets potentiellement discriminatoires. Trois de ces outils sont particulièrement connus: PredPol, utilisé pour prévoir où des infractions risquent de se produire et pour savoir ainsi comment déployer au mieux les ressources policières ; HART (Harm Assessment Risk Tool), qui évalue le risque de récidive, afin de permettre de décider d’engager ou non des poursuites ; et COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), qui évalue lui aussi le risque de récidive, mais aux fins de décisions concernant la détention provisoire, la peine à imposer et la possibilité de libération conditionnelle. Il est principalement à craindre que l’utilisation du profilage algorithmique n’entraîne, outre des discriminations, des atteintes au droit à la vie privée et à la protection des données. Dans un rapport de 2018, le Royal United Services Institute for Defence and Security Studies, groupe de réflexion britannique sur la défense et la sécurité, reconnaissait que des systèmes d’apprentissage automatique comme HART reproduiraient inévitablement les préjugés véhiculés par les données qui alimentent ces systèmes, d’où un risque accru de ciblage disproportionné des minorités ethniques et religieuses.[16] Une étude réalisée en 2016 par ProPublica a mis en doute la neutralité de COMPAS : selon cette étude, COMPAS faisait presque la même proportion d’erreurs pour les Blancs que pour les Noirs, mais le logiciel avait tendance à produire nettement plus de faux positifs (c'est-à-dire des prévisions erronées de « risque élevé ») pour les Noirs et à produire plus de faux négatifs (des prévisions erronées de « risque faible ») pour les Blancs.[17]

En finir avec le profilage discriminatoire : prévention et recours

La collecte et la publication de données statistiques sur les activités de la police – ventilées par nationalité, langue, religion et origine nationale ou ethnique – constituent un moyen essentiel de repérer les pratiques de profilage et d’améliorer la transparence et la responsabilisation des forces de l’ordre. En outre, des recours stratégiques exercés à bon escient par des avocats, des ONG et des structures des droits de l'homme contribueraient à mieux faire prendre conscience du problème et inciteraient à trouver des solutions appropriées.

Les États devraient adopter des lois qui définissent et interdisent clairement le profilage discriminatoire et qui limitent les pouvoirs discrétionnaires des membres des forces de l’ordre. Les méthodes de maintien de l’ordre, pour être efficaces, devraient se fonder sur le comportement individuel et sur des informations concrètes. Le critère de soupçon raisonnable devrait s’appliquer aux opérations d’interpellation et de fouille ; les policiers devraient suivre une formation continue pour être en mesure de l’appliquer dans leurs activités quotidiennes. Il faudrait aussi conseiller aux membres des forces de l’ordre d’expliquer pourquoi ils interpellent une personne, même si celle-ci ne leur pose pas la question, car une telle attitude contribue à éviter que le profilage soit perçu comme motivé par des préjugés et renforce ainsi la confiance de la population dans la police. Les communautés locales devraient être associées à la lutte contre le profilage discriminatoire ; c’est en dialoguant avec la population que les forces de l’ordre gagneront sa confiance et se feront respecter.

Par ailleurs, dans sa communication avec les médias, la police devrait veiller à ne pas diffuser et perpétuer de préjugés en établissant un lien entre, d’une part, l’origine nationale ou ethnique ou la situation au regard de la législation sur l’immigration et, d’autre part, un comportement délinquant. Quant aux médias, ils devraient éviter de donner une image stéréotypée des personnes appartenant à des groupes minoritaires comme les migrants, les réfugiés et les demandeurs d'asile ; ces stéréotypes risquent en effet d’alimenter le racisme et la haine et de contribuer à « normaliser » des pratiques discriminatoires, dont le profilage ethnique. Les médias devraient plutôt s’attacher à rendre pleinement compte de la contribution positive que les groupes minoritaires apportent aux collectivités dans lesquelles ils vivent, ainsi qu’à créer des partenariats avec des établissements scolaires, avec des institutions nationales des droits de l'homme et avec la société civile pour bâtir ensemble des sociétés plus inclusives et tolérantes, y compris en mettant en œuvre des programmes d’éducation aux droits de l'homme.

Tant que les algorithmes d’apprentissage automatique ne sont encore utilisés dans la police qu’à titre expérimental, les gouvernements devraient mettre en place un ensemble clair de dispositions régissant les essais et l’utilisation ultérieure d’outils logarithmiques destinés à aider la police dans son travail. Il faudrait notamment définir la phase d’essai, prévoir des études d’impact sur les droits de l'homme menées par une autorité indépendante et renforcer les obligations de transparence et d’information, sans oublier de se doter d’une législation solide en matière de protection des données, qui tienne compte des risques liés à l’utilisation de l’intelligence artificielle. Pour tout système d’apprentissage automatique, des autorités compétentes indépendantes devraient délivrer au préalable un certificat de conformité, qui atteste que des mesures ont été prises pour éviter les violations des droits de l'homme à toutes les étapes du cycle de vie du système : planification et conception, vérification et validation, déploiement, utilisation et fin de vie.

Il est indispensable d’utiliser des données sûres et vérifiées lors de la conception d’algorithmes destinés aux forces de l’ordre. En effet, si un algorithme est alimenté par des données qui reproduisent des préjugés ou qui proviennent de sources douteuses, il donnera des résultats biaisés et non fiables. Pour évaluer la probabilité qu’un individu commette une infraction, les services de police ne devraient pas s’appuyer uniquement sur des statistiques établies par une machine ; ils devraient aussi prendre en compte d’autres éléments révélant des faits avérés ou concordants. La législation devrait comporter des garanties claires permettant de protéger le droit de chacun à être informé, notamment à recevoir des informations sur les données à caractère personnel et sur la manière dont elles peuvent être collectées, enregistrées et traitées.[18]

Ce qui importe aussi, c’est d’avoir accès à des recours judiciaires et non judiciaires en cas de soupçon de profilage ethnique, y compris lorsque le profilage a été réalisé à l’aide d’algorithmes d’apprentissage automatique. Les structures nationales des droits de l'homme, dont les organismes de promotion de l’égalité, ainsi que les autorités indépendantes chargées de surveiller les activités de la police, devraient jouer un rôle de plus en plus actif dans la détection et l’atténuation des risques associés à l’utilisation d’algorithmes dans les systèmes de justice pénale. Ces structures devraient travailler en étroite collaboration avec les autorités de protection des données, qui possèdent une expérience et des compétences techniques très utiles. Les juridictions et les structures des droits de l'homme devraient être préparées et habilitées à traiter ces cas ; elles devraient notamment suivre l’évolution rapide des nouvelles technologies. Enfin, les gouvernements devraient investir dans des programmes de sensibilisation et d’éducation destinés à permettre à chacun d’acquérir les compétences nécessaires pour faire un bon usage des techniques d’apprentissage automatique et pour mieux comprendre leur influence sur sa vie.

Dunja Mijatović


[1] Commission européenne contre le racisme et l’intolérance (ECRI), Recommandation de politique générale n° 11 sur la lutte contre le racisme et la discrimination raciale dans les activités de la police, CRI(2007)39, 29 juin 2007, page 4.

[2] « Le droit de quitter un pays »,Document thématique publié par le Commissaire aux droits de l’homme du Conseil de l’Europe, 2013.

[3] Au Royaume-Uni, le rapport Lammy (2017) a montré que les membres de minorités ethniques risquaient davantage d’être condamnés à une peine d’emprisonnement que les justiciables issus de la population majoritaire.

[4] Deuxième enquête de l'Union européenne sur les minorités et la discrimination (EU-MIDIS II) réalisée par l’Agence des droits fondamentaux de l’Union européenne.

[5] Enquête sur l’accès aux droits, Volume 1 – Relations police/population : le cas des contrôles d’identité, Défenseur des droits, République Française.

[6] https://www.ethnicity-facts-figures.service.gov.uk/crime-justice-and-the-law/policing/stop-and-search/latest

[7] Comité consultatif de la Convention-cadre pour la protection des minorités nationales, Quatrième Avis sur la Fédération de Russie, adopté le 20 février 2018, ACFC/OP/IV(2018)001.

[8] Comité consultatif de la Convention-cadre pour la protection des minorités nationales, Quatrième Avis sur l’Ukraine, adopté le 10 mars 2017, ACFC/OP/IV(2017)002.

[9] Commission européenne contre le racisme et l’intolérance, Rapport sur la République de Moldova (cinquième cycle de monitoring), adopté le 20 juin 2018, CRI(2018)34.

[10] Arrêt du 13 décembre 2005, requêtes n° 55762/00 et n° 55974/00.

[11] Lingurar c. Roumanie, arrêt du 16 avril 2019, requête n° 48474/14.

[12] http://www.bug-ev.org/en/activities/lawsuits/public-actors/discriminatory-stop-and-search-cases/racial-profiling-on-the-regional-train-to-bonn.html

[13] https://www.fairtrials.org/news/plate-profiling-dutch-supreme-court-questions-discriminatory-police-road-checks

[14] https://crd.org/2018/03/25/historic-victory-in-the-court-of-appeal/

[15] https://www.courdecassation.fr/communiques_4309/contr_identite_discriminatoires_09.11.16_35479.html

[16] https://rusi.org/sites/default/files/20180329_rusi_newsbrief_vol.38_no.2_babuta_web.pdf

[17] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[18] Voir Conseil de l'Europe, Convention pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel, 1981.

Strasbourg 09/05/2019
  • Diminuer la taille du texte
  • Augmenter la taille du texte
  • Imprimer la page