Session 2 : le profilage
Comment aborder les derniers défis posés par le profilage à l’ère de l’intelligence artificielle ?
1er juillet (mercredi)
16:10-17:10 Profilage
- Yves POULLET, Professeur émérite à l’UNamur, Expert du Conseil de l’Europe
- Wojciech WIEWIOROWSKI, Contrôleur européen de la protection des données
- Gabriela ZANFIR-FORTUNA, Conseillère, Future of Privacy Forum
- Alessandro MANTELERO, Professeur associé, Politecnico Torino - Italie
Voir le programme intégral sur la page principale
Visitez la page web dédiée aux Vues de Strasbourg en visio sur la protection des données (1er au 3 juillet) and et découvrez d'autres thèmes :
Session 1 : Comment s‘assurer que les pays engagés par la Convention 108+ respectent ses exigences ? Pourquoi un mécanisme de suivi et d’évaluation est-il nécessaire et lequel ?
Session 2 : Comment aborder les derniers défis posés par le profilage à l’ère de l’intelligence artificielle ?
Session 3 : Qu’implique le droit à la protection des données personnelles dans le contexte éducatif ? Que doivent faire les écoles et qu’est-ce qu’elles ne doivent plus faire ?
Session 4 : Les programmes d’identité numérique sont-ils développés selon le principe de la vie privée dès la conception (privacy by design) ?
Session 5 : Les miroirs de nos âmes : retenir les leçons de Ciceron et aborder les risques de la reconnaissance faciale
Session 6 : Campagnes politiques et élections : pourquoi la protection des données est cruciale
Towards CoE NEW recommendations on profiling?, Y.POULLET, B.FRENAY
Résumé
Dix ans après son adoption, la Recommandation CM/Rec(2010)13 du Comité des Ministres aux États membres sur la protection des personnes à l’égard du traitement automatisé des données à caractère personnel dans le cadre du profilage est-elle toujours d'actualité ?
Le panel constate qu'il est de plus en plus nécessaire de la réviser, principalement parce que l'IA a substantiellement modifié le fonctionnement du profilage et l'étendue du risque qu'il peut générer pour les individus. Des pratiques identifiées récemment (ex: Cambridge Analitica) montrent comment le profilage peut saper les démocraties. Il est donc nécessaire d’élargir le champ d'application de la recommandation d'origine et de renforcer les droits des personnes concernées, mais il faut aussi passer de la protection de l'individu à la protection des communautés et de secteurs entiers. Dans le domaine de la justice prédictive, par exemple, la monétisation des capacités de profilage créé déjà aux États-Unis un vaste marché autour de la prédiction des affaires judiciaires. Ces évolutions, où les juges n’ont aucune conscience qu’ils font l’objet d’un profilage, exposent l'ensemble du pouvoir judiciaire à des risques sans précédent. Le panel recommande, par conséquent, de recentrer les discussions vers le sens originel de la jurisprudence.
En intégrant l'IA dans les processus, le « profilage moderne » aux États-Unis a déjà rendu le profilage classique obsolète et il n’y a que quelques instruments juridiques «modernes» (Fair Credit Reporting Act, California Consumer Privacy Act, ACT concernant l'utilisation des services de reconnaissance faciale dans l’État de Washington) pour défendre les valeurs traditionnelles de protection des individus et d’équité dans la société. Le panel alerte donc sur la nécessité que ces valeurs soient garanties en permanence par la jurisprudence. Dans l’évaluation du « profilage moderne », l'impact sociétal collectif doit être pris en compte, en plus de la transparence, du choix d’une bonne base juridique pour le traitement, du rôle de la co-conception et des comités d'experts indépendants, qui méritent une analyse attentive.
Le panel conclut en suggérant qu'une approche participative centrée sur l'humain doit être privilégiée et qu'une vigilance de tous les acteurs sur les algorithmes est requise.
Au cours de la session de questions-réponses, les sujets portant sur l'imposition de contraintes sur des utilisations spécifiques, la labellisation, la certification, les options de l’opt-out et « l’affichage éthique » sont discutés.