Médias - liberté d'expression et d'information

Forum paneuropéen

LES DROITS DE L’HOMME DANS LA SOCIÉTÉ DE L’INFORMATION :
UN COMPORTEMENT ÉCLAIRÉ DES PRINCIPAUX ACTEURS

Palais de l'Europe, Strasbourg, France
12 et 13 septembre 2005

Résumé

Les discussions qui se sont déroulées pendant le forum soulignent la nécessité :

(i) d’intensifier la protection et la promotion des droits de l’homme dans la société de l’information en s’appuyant sur une approche participative et à plusieurs niveaux.

(ii) de chercher à mieux comprendre comment les enfants et les jeunes interprètent les risques de préjudices émanant d’activités en ligne ou d’activités hors ligne s’y rapportant, comment ils y réagissent dans le contexte de leur vie quotidienne et comment ils utilisent les technologies nouvelles et émergentes de mise en réseau social et de communication.

(iii) d’« éprouver » le respect des droits de l’homme dans toutes les actions, décisions et technologies essentielles exerçant une influence sur la société de l’information.

(iv) de multiplier les initiatives axées sur l’éducation aux médias afin de réduire les risques de préjudice liés aux activités en ligne et aux activités hors ligne s’y rapportant (en étroite relation avec les responsabilités des Etats membres en matière de protection et de promotion des droits de l’homme en application de la Convention européenne des droits de l’homme), combinées à une meilleure utilisation de la société civile et des médias pour mettre en place des systèmes d’évaluation cohérents, destinés à mesurer l’efficacité des initiatives éducatives.

Rapport général

Dr Rachel O’Connell et Dr Jo Bryce,
University of Central Lancashire, Royaume-Uni

Introduction

Contexte

Afin de donner suite aux précédents forums organisés par le Conseil de l’Europe sur la société de l’information1 et dans le cadre du travail du groupe intergouvernemental de spécialistes sur les droits de l’homme dans la société de l’information (MC-S-IS), le présent forum a pour but d’examiner les rôles et les responsabilités des principaux groupes de parties intéressées dans le domaine de la protection et de la promotion des droits de l’homme dans la société de l’information. Il se fonde en particulier sur la Déclaration du Comité des Ministres sur les droits de l’homme et l’état de droit dans la société de l’information de mai 2005 et fait référence à la Convention européenne des droits de l’homme de novembre 1950.

Approche et objectifs du Forum

Le travail du Forum est axé sur les environnements en ligne et sur les questions liées au droit à la protection de la vie privée et à la liberté d’expression, à concilier avec la protection de la dignité humaine et du bien-être des personnes, dans l’optique particulière de la protection des enfants et des jeunes et de la prévention des activités criminelles2.

La nécessité de concilier les droits et les libertés est d’autant plus importante qu’elle s’inscrit dans le contexte d’une rapide évolution technologique et économique de la société, tant à l’échelle des Etats membres, qu’à l’échelle européenne et mondiale. Le développement, la commercialisation et l’utilisation des contenus et des services interactifs doivent être examinés sous l’angle des défis et des opportunités qu’ils représentent pour la protection et la promotion des droits de l’homme dans la société de l’information.

L’un des principaux objectifs du Forum est d’examiner les caractéristiques de l’approche participative telles que définie dans la Déclaration mentionnée ci-dessus ; il réunit à cet effet les principaux groupes de représentants de l’industrie de la société de l’information, des Etats membres, de la société civile et des médias pour promouvoir le dialogue, la collaboration et l’échange de bonnes pratiques. A cet égard, les tables rondes ont permis de présenter des exemples concrets d’actions existantes et de dispositifs mis en place par divers partenaires clés pour protéger et promouvoir les droits de l’homme. Elles ont également mis en évidence la nécessité d’évaluer l’efficacité de ces actions et d’envisager leur évolution sous l’angle des mutations technologiques et économiques.

Questions émergentes fondamentales

Contenus créés par l’usager

Pendant toute la durée du Forum, les participants sont constamment revenus sur les conséquences des contenus créés par l’usager et des blogs sur les droits de l’homme dans la société de l’information.

Les nouveaux services et technologies permettent désormais aux usagers de créer, produire et diffuser des contenus, des communications et des services. Cette nouvelle donnée transforme de façon considérable la manière dont nous traitons l’information et le développement d’une société européenne participative à l’échelle planétaire. La technologie permet aux usagers d’accéder et de partager immédiatement – presque en temps réel – les informations et les images les plus récentes, comme par exemple celles des attentats à la bombe de Londres en juillet 2005.

Si ces changements ont des conséquences considérables sur le développement de la démocratie électronique et des sociétés participatives, ils en ont aussi sur la protection des enfants et la prévention de la criminalité. Les participants ont mis l’accent lors des discussions sur des exemples d’opportunités, de risques et de défis potentiels résultant du blogage et ont insisté sur les problèmes de réglementation découlant des contenus créés par l’usager. L’attention est en outre portée sur la faisabilité des interventions directes des Etats ou des mesures de réglementation juridique dans le domaine de la vie et des espaces privés des personnes utilisant les services offerts par ces nouvelles technologies.

Les participants se sont également penchés sur les enjeux majeurs de la répartition des responsabilités en matière de réglementation des contenus créés par les usagers et ils ont notamment évoqué la possibilité de confier aux principaux acteurs de l’industrie de l’information la tâche d’élaborer des codes de bonnes pratiques. Face à la proposition controversée visant à transférer ces responsabilités de l’Etat aux principaux acteurs de cette industrie et des conséquences de ce transfert en matière de droits de l’homme, les participants du Forum ont réaffirmé l’importance de l’éducation et de l’éducation aux médias comme éléments stratégiques de la gestion des contenus créés par l’usager.

Le rôle des services publics de radiodiffusion en matière d’information et de sensibilisation des usagers aux droits de l’homme dans le cyberespace public a également fait l’objet de nombreuses discussions. Les participants proposent notamment que les principes du Conseil de l’Europe constituent la base pour mettre en œuvre ce type d’initiatives et inviter les Etats membres à ne pas soumettre les contenus en ligne à des restrictions allant au-delà de celles qui s’appliquent aux autres moyens de diffusion de l’information3. Ainsi, les services publics de radiodiffusion pourraient s’appuyer sur la relation de confiance qu’ils entretiennent avec leurs usagers pour développer des engagements visant à partager les responsabilités en matière de production et de diffusion des contenus créés par les usagers, comme les blogs.

Education aux médias

Les participants du Forum ont souligné l’importance du nombre d’initiatives d’éducation aux médias en vue de réduire le risque de préjudice découlant des activités en ligne et hors ligne qui s’y réfèrent et leur étroite relation avec la responsabilité des Etats en matière de protection et de promotion des droits de l’homme, conformément à la Convention européenne des droits de l’homme.

Les participants ont examiné la question des compétences clés associées à l’éducation aux médias, de même que la nécessité d’intégrer les connaissances existantes et les bonnes pratiques en se référant aux initiatives mises en œuvre dans différents pays européens.

Ces compétences clés doivent s’appuyer sur des programmes de recherche portant sur le contexte de diffusion, les méthodes d’enseignement et les profils des apprenants. A cet égard, la participation d’enfants et de jeunes à la production de matériels éducatifs et le mentorat par les pairs ont un rôle positif et décisif à jouer. L’éducation à la citoyenneté démocratique ne se limite pas uniquement à une information sur les droits, mais consiste aussi à développer l’esprit critique. Etant donné que les travaux de cette nature se font à un rythme soutenu depuis la fin des années 90, le but est de garantir le bon partage de l’information et la mise en commun des ressources, sans essayer de « réinventer le monde ».

Il serait également utile d’associer les professionnels des médias au processus de production de matériels éducatifs et d’élaboration de systèmes concrets d’évaluation de l’efficacité des initiatives éducatives. Sans fonctions d’évaluation intégrées, il sera difficile de tirer des conclusions fiables sur leur efficacité. Les actions de ce type contribuent au processus d’élaboration de lignes directrices pour promouvoir une éducation aux médias qui devra être actualisée en permanence afin de suivre la perpétuelle évolution des innovations technologiques. Ce processus devrait se présenter comme principal objectif visant à éduquer et informer les usagers en conséquence, afin que ceux-ci puissent assumer une plus grande part de responsabilité dans leur accès aux contenus et aux services. Si cela vaut surtout pour les enfants et les jeunes, ce processus doit toutefois être envisagé comme faisant partie d’une formation continue, devant intégrer les perspectives théoriques actuelles d’enseignement et d’apprentissage.

« Contenu préjudiciable » et « risque de préjudice »

Les programmes de recherche traditionnels, destinés à étudier les conséquences de l’exposition aux « contenus préjudiciables », se heurtent à maints égards à l’assimilation des usagers à des consommateurs d’information passifs. Le fait d’étudier sous cet angle le comportement des enfants et des jeunes dans les environnements en ligne pose problème et freine la progression vers une compréhension plus globale des facteurs interdépendants qui sous-tendent la participation, les expériences et les interprétations des enfants et des jeunes dans le cadre des activités en ligne et des activités hors ligne qui s’y réfèrent. La possibilité de modifier notre perception des enfants et des jeunes et de les considérer comme des consommateurs et des producteurs actifs de contenus et de communications en ligne a des effets notables sur la protection de leurs droits humains ainsi que sur les mesures de réglementation et d’éducation qui en découlent. A cet égard, les participants estiment utile de mettre en place un schéma théorique et de recherche permettant d’aborder les difficultés liées à l’étude et à l’évaluation des risques de préjudice découlant des activités et des comportements dans un environnement en ligne.

Le concept de contenu préjudiciable apparaît comme trop limité pour désigner l’ampleur, les contours et la portée des activités auxquelles les enfants et les jeunes peuvent participer et les comportements qu’ils peuvent adopter dans des environnements en ligne et hors ligne. Les participants estiment en effet que la notion de contenu préjudiciable se définit davantage comme une sous catégorie d’activités plus vastes et qu’il faut trouver un terme générique, plus large, capable de tenir compte des véritable occasions s’offrant aux enfants et aux jeunes d’exploiter les technologies de la communication interactive – qui leur permettent par exemple de devenir créateur, producteur et diffuseur de contenus et de communications –, mais également capable d’en épingler les menaces potentielles.

Dans ce contexte, une taxinomie du « risque de préjudice » inhérente aux activités en ligne et aux activités hors ligne qui s’y réfèrent a été présentée (O’Connell & Bryce, 2005). Celle-ci détaille les activités et les comportements susceptibles de présenter un « risque de préjudice » pour les enfants et les jeunes, mais permet surtout de les situer par rapport à des activités à la fois normales et illicites. Cette contextualisation du « risque de préjudice » découlant des activités en ligne permet de mieux cerner le caractère inhérent du risque associé aux activités en ligne et à celles hors ligne qui s’y réfèrent.

Certains participants craignent toutefois que cette taxinomie puisse servir à légitimer la censure et les restrictions de la liberté d’expression et que ce processus de catégorisation des activités présentant un « risque de préjudice » puisse rendre ces activités, certes préjudiciables, illicites. Cela étant, la possibilité de regrouper certaines activités sous les dénominations licite, potentiellement préjudiciable et illicite peut permettre d’expliquer comment des comportements « normaux » peuvent, dans certaines, circonstances, apparaître comme des activités potentiellement préjudiciables (par exemple dans le contexte de l’accès des jeunes à des forums en ligne prônant l’anorexie).

Il est essentiel pour un certain nombre de participants que les enseignants et les responsables politiques étudient ces questions sous un angle global, prenant en compte la façon dont les enfants, les jeunes et les adultes vulnérables interprètent le caractère potentiellement préjudiciable des activités en ligne et hors ligne et y réagissent dans le cadre de leur vie quotidienne et de leur utilisation d’un réseau social et de technologies de la communication nouvelles et émergentes, mais aussi des canaux d’information traditionnels.

Concilier le droit à la liberté d’expression, le droit à la vie privée et la dignité humaine

Pendant le Forum, plusieurs acteurs de premier plan se sont exprimés sur la difficulté de concilier la liberté d’expression, le respect de la vie privée, la dignité humaine et une société de l’information non discriminatoire. Les participants conviennent que l’Etat est et doit rester le premier garant des droits de l’homme, tout en ayant le sentiment que la responsabilité de l’Etat ne devrait s’exercer que dans le cadre d’une collaboration avec l’industrie de l’information et les organisations non gouvernementales au sein de la société civile. Ces arguments font écho à l’inquiétude suscitée par le rôle de l’Etat dans la réglementation et son éventuelle position de censeur, en particulier dans les systèmes politiques moins démocratiques.

Les participants du Forum saluent le modèle australien, exemple particulièrement intéressant de responsabilité et de collaboration réussie entre l’Etat et l’industrie de la société de l’information en matière de réglementation des contenus préjudiciables. Ce système se fonde sur une législation imposant aux fournisseurs d’accès à Internet (FAI) et à d’autres acteurs clés de protéger les enfants et les jeunes des cybercontenus préjudiciables et de faire face aux défis qui se posent en termes de technologie et de communication. Le modèle australien accorde une importance capitale à l’élaboration et à la mise à disposition d’outils techniques (filtres) visant à réglementer l’accès des enfants à l’Internet, ainsi qu’à l’élaboration et à la diffusion d’informations permettant aux usagers de décider s’ils souhaitent utiliser ces outils et à quel niveau, pour eux-mêmes ou leurs enfants. D’une manière générale, il semblerait qu’il s’agisse d’un modèle d’initiative réussie et efficace en matière de réglementation conjointe entre plusieurs parties prenantes.

Un autre exemple de bonnes pratiques a été examiné, à savoir le système de classification des contenus des logiciels de jeux PEGI. Ce système de réglementation conjointe, mis en place avec succès et harmonisé au niveau européen, permet aux éditeurs et aux créateurs de logiciels de loisirs d’agir de manière responsable grâce à ce dispositif d’autoévaluation. Ce système propose un cadre clair et cohérent à l’intérieur duquel les consommateurs peuvent décider de leurs achats en connaissance de cause.

Les travaux de la Fondation internationale pour la responsabilité en ligne et la mise en place du domaine « .xxx » pour les services de divertissements pour adultes illustrent également la volonté de cette industrie d’assumer ses responsabilités d’auto réglementation et de marquage grâce à la collaboration d’organisations de défense des droits de l’homme, d’avocats spécialistes de la protection de l’enfance et d’organismes de contrôle.

L’évaluation des contenus, les technologies de filtrage, mais aussi l’élaboration de systèmes d’évaluation par les pairs sont également perçus comme des outils aidant les parents à réglementer l’accès de leurs enfants à l’Internet. Les participants, tout en reconnaissant les limites des solutions techniques actuelles, saluent les efforts constants visant à améliorer l’efficacité des solutions de filtrage et de marquage (comme, par exemple, le développement de la confiance de l’usager dans ces outils techniques et le rôle du web sémantique dans la mise à disposition d’outils de marquage et de filtrage flexibles et efficaces). Dans ce contexte, plusieurs participants ont exprimé un certain nombre d’inquiétudes : à qui sera confié le rôle d’encourager les usagers à évaluer les contenus eux-mêmes ? Quel type de dispositif ou d’organe indépendant pourrait être chargé d’évaluer l’efficacité de cette méthode ? Quel sera le rôle de l’Etat ou de l’industrie de l’information dans la protection des usagers finaux ?

Vers une approche participative et à plusieurs niveaux de la protection et de la promotion des droits de l’homme dans la société de l’information

D’une manière générale, la société de l’information est tenue de respecter les droits de l’homme et, à cette fin, elle devrait chercher à mettre en place une approche participative et à plusieurs niveaux, fondée sur les valeurs communes de la participation universelle, du respect et de l’acceptation de toutes les parties intéressées, notamment des usagers, de la responsabilité de leurs actions.

Les participants sont convenus qu’il était essentiel d’aborder dans le respect des droits de l’homme les questions soulevées au cours du Forum. Réaffirmant les aspirations technologiques de la société de l’information, les participants ont en outre rappelé la nécessité de garantir que toutes les parties intéressées poursuivront leurs efforts en faveur de la protection et de la protection des droits de l’homme.

A cet égard, les participants du Forum jugent important de mettre à l’épreuve des droits de l’homme toutes les actions clés, décisions et technologies touchant à la société de l’information et d’axer les efforts sur l’élaboration d’initiatives de sensibilisation et d’éducation. Les participants ont également souligné la nécessité d’élaborer des recommandations claires pour gérer en toute transparence les intérêts et les inquiétudes des principaux acteurs dans ce domaine.


1 Forum européen sur l’ “Internet à visage humain – la responsabilité de tous” organisée par le groupement SafeBorders, en collaboration avec le Conseil de l’Europe et dans le cadre du Plan d’action de la Commission européenne pour un Internet plus sûr (Varsovie, 26 et 27 mars 2004) ; Forum européen sur les cybercontenus illégaux et préjudiciables (Strasbourg, 28 novembre 2001).

2 Par exemple à travers l’application de la Convention sur la cybercriminalité de novembre 2001 et du Protocole additionnel sur la Convention sur la cybercriminalité de janvier 2003 relatif à l’incrimination d’actes de nature raciste et xénophobe commis par le biais de systèmes informatiques.

3 Principe 1 : Règles à l’égard des contenus sur l’Internet, Déclaration sur la liberté de la communication sur l’Internet du Conseil de l’Europe de mai 2003.