Médias - liberté d'expression et d'information

CONSEIL DE L’EUROPE
COMITE DES MINISTRES

________

RECOMMANDATION N° R (2001) 8

DU COMITE DES MINISTRES AUX ETATS MEMBRES
SUR L'AUTOREGULATION DES CYBER-CONTENUS
(L'AUTOREGULATION ET LA PROTECTION DES UTILISATEURS
CONTRE LES CONTENUS ILLICITES OU PREJUDICIABLES DIFFUSES
SUR LES NOUVEAUX SERVICES DE COMMUNICATION ET D'INFORMATION)

(adoptée par le Comité des Ministres le 5 septembre 2001,
lors de la 762e réunion des Délégués des Ministres)

Le Comité des Ministres, en vertu de l’article 15.b du statut du Conseil de l’Europe,

Considérant que le but du Conseil de l’Europe est de réaliser une union plus étroite entre ses membres afin de sauvegarder et de promouvoir les idéaux et les principes qui sont leur patrimoine commun ;

Compte tenu de sa Déclaration relative à une politique européenne pour les nouvelles technologies de l’information, adoptée à l’occasion du 50e anniversaire du Conseil de l’Europe en 1999 ;

Rappelant l’engagement des Etats membres à l’égard du droit fondamental à la liberté d’expression et d’information, tel qu’il est garanti par l’article 10 de la Convention de Sauvegarde des Droits de l’Homme et des Libertés fondamentales, et leur engagement à confier le contrôle de son application à la Cour européenne des Droits de l’Homme ;

Réaffirmant que la liberté d’expression et d’information est nécessaire pour le développement social, économique, culturel et politique de tout être humain, et constitue une condition pour le progrès harmonieux des groupes sociaux et culturels, des nations et de la communauté internationale, comme le proclame sa Déclaration de 1982 sur la liberté d’expression et d’information ;

Soulignant que le développement continu des nouveaux services de communication et d’information devrait servir à promouvoir le droit de chacun, sans considération de frontières, à exprimer, chercher, recevoir et communiquer des informations et des idées, dans l’intérêt de chacun et de la culture démocratique de toute société ;

Soulignant que la liberté d’utiliser de nouveaux services de communication et d’information ne devrait pas porter préjudice à la dignité humaine ni aux droits de l’homme ni aux libertés fondamentales d’autrui, et notamment des mineurs ;

Rappelant sa Recommandation n° R (89) 7 concernant des principes relatifs à la distribution de vidéogrammes à contenu violent, brutal ou pornographique, sa Recommandation n° R (92) 19 relative aux jeux vidéo à contenu raciste, sa Recommandation n° R (97) 19 sur la représentation de la violence dans les médias électroniques, sa Recommandation n° R (97) 20 sur le «discours de haine» et l’article 4, alinéa a de la Convention internationale sur l’élimination de toutes formes de discrimination raciale des Nations Unies ;

Gardant à l’esprit les différences entre les législations pénales nationales relatives aux contenus illicites ainsi que les différences dans ce qu’on peut percevoir comme contenus potentiellement préjudiciables, tout particulièrement pour les mineurs et leur développement physique, mental et moral, ci-après dénommés «contenus préjudiciables» ;

Gardant à l’esprit que les organismes d’autorégulation pourraient, en fonction des situations et traditions nationales, être impliqués dans le suivi du respect de certaines normes, éventuellement dans un cadre de corégulation, tel que défini dans un pays donné ;

Conscient des initiatives prises en matière d’autorégulation par les nouvelles industries de la communication et de l’information, parfois en coopération avec l’Etat, pour la suppression des contenus illicites et la protection des utilisateurs contre les contenus préjudiciables, ainsi que de l’existence de normes et de dispositifs techniques permettant aux utilisateurs de sélectionner et de filtrer les contenus ;

Désireux de promouvoir et de renforcer l’autorégulation et la protection des utilisateurs contre les contenus illicites ou préjudiciables,

Recommande aux gouvernements des Etats membres :

1. de mettre en œuvre dans leur droit et/ou leur pratique internes les principes annexés à la présente Recommandation ;

2. de diffuser largement cette Recommandation et les principes qui lui sont annexés, en les assortissant le cas échéant d’une traduction ; et

3. de porter en particulier ces textes à l’attention des médias, des nouvelles industries de la communication et de l’information, des utilisateurs et de leurs organisations, ainsi que des autorités de régulation des médias et des nouveaux services de communication et d’information et des pouvoirs publics concernés.

Annexe à la Recommandation n° R (2001) 8

Principes et mécanismes concernant l’autorégulation et
la protection des utilisateurs contre les contenus illicites ou préjudiciables
diffusés sur les nouveaux services de communication et d’information

Chapitre I – Organismes d’autorégulation

1. Les Etats membres devraient encourager la création d’organisations représentatives des acteurs d’Internet, par exemple les fournisseurs de services Internet, les fournisseurs de contenus et les utilisateurs.

2. Les Etats membres devraient encourager ces organisations elles-mêmes à établir des mécanismes de régulation dans le cadre de leurs attributions, notamment en ce qui concerne l’élaboration de codes de conduite et le contrôle du respect de ces codes.

3. Les Etats membres devraient encourager les organisations dans le domaine des médias dotées de normes d’autorégulation à appliquer ces normes, dans la mesure du possible, aux nouveaux services de communication et d’information.

4. Les Etats membres devraient encourager ces organisations à participer aux processus législatifs les concernant, par exemple par le biais de consultations, d’auditions et d’avis d’experts, ainsi qu’à la mise en oeuvre des normes les concernant, en particulier en contrôlant le respect de ces normes.

5. Les Etats membres devraient encourager la coopération entre ces organisations au niveau de l’ensemble de l’Europe et à l’échelon international.

Chapitre II – Descripteurs de contenus

6. Les Etats membres devraient encourager la définition, au niveau géographique le plus large possible et en coopération avec les organisations mentionnées au Chapitre I, d’un ensemble de descripteurs de contenus qui devraient permettre une labellisation neutre des contenus qui donne aux utilisateurs la possibilité de se faire leur propre jugement de valeur sur ces contenus.

7. Ces descripteurs de contenus devraient, par exemple, indiquer les contenus violents et pornographiques ainsi que les contenus invitant à la consommation de tabac ou d’alcool, incitant aux jeux d’argent, et les contenus permettant des contacts non contrôlés et anonymes entre mineurs et adultes.

8. Les fournisseurs de contenus devraient être encouragés à appliquer ces descripteurs de contenus, pour permettre aux utilisateurs de reconnaître et de filtrer ces contenus, quelle que soit leur origine.

Chapitre III – Outils de sélection des contenus

9. Les Etats membres devraient encourager la mise au point d’une large gamme d’outils de recherche et de profils de filtrage qui donnent aux utilisateurs, sur la base de descripteurs de contenus, la possibilité de sélectionner des contenus.

10. Le filtrage devrait être laissé au libre choix des utilisateurs.

11. Les Etats membres devraient encourager les fournisseurs de contenus et les fournisseurs de services à utiliser des outils d’accès conditionnel en ce qui concerne les contenus préjudiciables pour les mineurs, comme par exemple des systèmes de vérification de l’âge, des codes d’identification personnels, des mots de passe, des systèmes de cryptage et de décodage ou l’accès par cartes à code électronique.

Chapitre IV – Systèmes de plaintes relatives aux contenus

12. Les Etats membres devraient encourager la création de systèmes de plaintes relatives aux contenus, tels que des lignes directes, par les fournisseurs de services Internet, les fournisseurs de contenus, les associations d’utilisateurs ou d’autres institutions. Ces systèmes de plaintes relatives aux contenus devraient, si cela s’avère nécessaire pour garantir une réaction appropriée contre des contenus présumés illicites, être complétés par des lignes directes mises à disposition par les pouvoirs publics.

13. Les Etats membres devraient encourager le développement de conditions minimales et de pratiques communes concernant ces systèmes de plaintes. Ces conditions pourraient comprendre par exemple :

a. la mise à la disposition d’une adresse Internet spécifique et permanente,

b. la disponibilité des systèmes de plaintes relatives aux contenus 24 heures sur 24,

c. la mise à la disposition du public d’informations sur les personnes et les entités juridiquement responsables au sein des organismes proposant des systèmes de plaintes relatives aux contenus,

d. la mise à la disposition du public d’informations sur les règles et les pratiques de traitement des plaintes relatives aux contenus, y compris sur la coopération avec les autorités judiciaires et de police concernant les contenus présumés illicites,

e. la mise en place, à l’intention des utilisateurs, de réponses sur les modalités de traitement de leurs plaintes relatives aux contenus,

f. la mise en place de liens vers d’autres systèmes de plaintes à l’étranger.

14. Les Etats membres devraient mettre en place, au niveau interne, un cadre approprié de coopération entre ces instances de plaintes relatives aux contenus et les pouvoirs publics, concernant les contenus présumés illicites. A cette fin, les Etats membres devraient définir les responsabilités et les privilèges juridiques des organismes proposant des systèmes de plaintes relatives aux contenus lorsqu’ils accèdent à, copient, recueillent des contenus présumés illicites et les envoient aux autorités judiciaires et de police.

15. Les Etats membres devraient favoriser la coopération entre organismes de plaintes relatives aux contenus au niveau de l’ensemble de l’Europe et à l’échelon international.

16. Les Etats membres devraient prendre toutes les mesures juridiques et administratives nécessaires pour instaurer, entre leurs autorités judiciaires et de police compétentes, une coopération transfrontalière en ce qui concerne les plaintes et les enquêtes relatives aux contenus présumés illicites provenant de l’étranger.

Chapitre V – Médiation et arbitrage

17. Les Etats membres devraient encourager la création au niveau interne d’organes ou de procédures volontaires, équitables, indépendants, accessibles et efficaces de médiation ainsi que des mécanismes d’arbitrage à l’amiable pour les litiges portant sur les contenus.

18. Les Etats membres devraient encourager la coopération entre ces organes de médiation et d’arbitrage au niveau de l’ensemble de l’Europe et à l’échelon international, l’accès libre pour tous à ces procédures de médiation et d’arbitrage, sans limitation de frontières, et la reconnaissance et l’application mutuelles des accords à l’amiable ainsi conclus, en tenant dûment compte de l’ordre public national et des garanties de procédure fondamentales.

Chapitre VI – Information des utilisateurs et sensibilisation

19. Les Etats membres devraient encourager le développement de labels de qualité pour les contenus diffusés sur Internet, par exemple les contenus issus des organes gouvernementaux, les contenus à caractère pédagogique et les contenus adaptés aux enfants, afin de permettre aux utilisateurs de reconnaître ou rechercher ces contenus.

20. Les Etats membres devraient encourager la sensibilisation et l’information du public en ce qui concerne les mécanismes d’autorégulation, les descripteurs de contenus, les outils de filtrage, les outils de restriction de l’accès, les systèmes de plaintes relatives aux contenus et les procédures de médiation et d’arbitrage à l’amiable.

* * *

Exposé des Motifs

I. Introduction
 
1. Le développement rapide au cours de la dernière décennie des nouvelles technologies de la communication et de l’information, en particulier d’Internet, au niveau mondial a d’un côté généré une augmentation très importante de l’accès à l’information et aux moyens de communication de masse, ce qui a conduit l’opinion publique à percevoir la société comme se définissant par le niveau d’informations accessibles à travers le concept de «société de l’information». Cela a créé de nouvelles possibilités pour l’exercice de la liberté d’expression et d’information par delà les frontières.
 
2. D’un autre côté, ce développement a créé une certaine incertitude en ce qui concerne le statut juridique de ces nouveaux services de communication et d’information. La distinction entre correspondance privée et communication de masse s’est atténuée. Les normes et codes de conduite professionnels établis pour les médias du secteur de la presse écrite et de la radiodiffusion semblent être liés à ce type particulier de médias, distincts des « médias » tels qu’Internet. Les dispositions juridiques existant au niveau national en matière de protection de la jeunesse, de pornographie, de représentation de la violence, de publicité, de décence ou de protection du droit d’auteur et des droits voisins semblent être mises au défi de par le caractère global des nouveaux services de communication et d’information, ainsi que par le fait que se pose la question de déterminer où se rattachent ces services du point de vue géographique pour établir quel Etat a compétence à leur égard.
 
3. Compte tenu de ce qui précède, le Comité directeur sur les moyens de communication de masse (CDMM) du Conseil de l’Europe a estimé opportun que le Conseil de l’Europe traite de la question des contenus illégaux et préjudiciables diffusés sur les nouveaux services de communication et d’information en prenant comme point de départ l’autorégulation, afin de protéger la liberté d’expression et d’information ainsi que d’autres valeurs fondamentales. Le droit pénal n’a pas été retenu comme point d’ancrage de ces travaux.
 
4. Etant donné que l’autorégulation des médias est devenue un mécanisme important et reconnu permettant à ceux-ci d’éviter que les Etats ne légifèrent de manière restrictive en matière de diffusion d’informations par ces médias, en particulier sur les questions de décence et de valeurs morales qui diffèrent largement selon les individus et les Etats, tout en assurant le respect de certaines normes, certains acteurs du secteur des nouveaux services de communication et d’information ont pris l’initiative de créer leurs propres mécanismes d’autorégulation.
 
5. Les Ministres ayant participé à la 5e Conférence ministérielle européenne sur la politique des communications de masse sur le thème de «la Société de l’Information: un défi pour l’Europe» (Thessalonique, 11-12 décembre 1997) se sont référés dans leur Déclaration au développement des nouveaux services de communication et d’information en étant «soucieux, en particulier, de veiller à ce que ce développement contribue à promouvoir la liberté d'expression et d'information, la création artistique et les échanges entre les cultures, l'éducation et la participation des individus à la vie publique, dans le respect et au service des droits de l'homme, des valeurs démocratiques et de la cohésion sociale» et en «se félicitant des opportunités offertes ou promises à cet égard par les nouvelles technologies et les nouveaux services de communication et d'information, tout en notant le risque que ces nouvelles technologies et ces nouveaux services puissent, dans certaines circonstances, être utilisés au détriment ou à l'encontre du respect des droits de l'homme et de la dignité humaine, de la protection des mineurs et des valeurs de base de la démocratie».
 
6. Compte tenu de ce qui précède, le Plan d’Action adopté à Thessalonique a inclus les activités suivantes:
 
a. «encourager, en particulier au niveau transnational, l'autorégulation des fournisseurs et opérateurs de nouveaux services de communication et d'information, notamment des fournisseurs de contenus, sous la forme de codes de conduite ou d'autres mesures, en vue d'assurer le respect des droits de l'homme et de la dignité humaine, de la protection des mineurs et des valeurs démocratiques, ainsi que la crédibilité des media eux-mêmes» ;
 
b. «intensifier les travaux sur l'impact des nouvelles technologies et des nouveaux services de communication sur les droits de l'homme et les valeurs démocratiques en vue de préparer dans le cadre du Conseil de l'Europe tous instruments juridiques ou autres mesures qui pourraient s'avérer nécessaires pour promouvoir la liberté d'expression et d'information, en particulier à l'échelon transfrontière, et garantir la protection des droits de l'homme et des valeurs démocratiques» ;
 
c. «surveiller les cas d'usage impropre des nouvelles technologies et des nouveaux services de communication et d'information en faveur de toute idéologie ou activité contraire aux droits de l'homme, à la dignité de la personne humaine et aux droits fondamentaux d'autrui, ainsi qu'à la protection des mineurs et aux valeurs démocratiques et, si nécessaire, formuler toutes propositions d'actions juridiques ou autres pour combattre ce type d'utilisation» ;
 
d. «étudier l'opportunité et la possibilité de mettre en place des procédures d'alerte, d'entraide et de coopération, y compris judiciaire, en liaison avec d'autres instances, en vue de mener des actions concertées à l'échelon le plus large possible contre ce type d'usage impropre» ; et
 
e. «étudier les problèmes pratiques et juridiques que pose la lutte contre la diffusion du discours de haine, de la violence et de la pornographie via les nouveaux services de communication et d'information, en vue de prendre des initiatives appropriées dans un cadre paneuropéen commun» ;
 
7. Par ailleurs, dans sa Déclaration sur une politique européenne pour les nouvelles technologies de l’information (Budapest, 7 mai 1999), le Comité des Ministres a exhorté les gouvernements des Etats membres, en agissant le cas échéant avec des partenaires publics ou privés à «assurer le respect des droits de l’homme et de la dignité humaine, notamment de la liberté d’expression, ainsi que la protection des mineurs, la protection de la vie privée et des données personnelles, et la protection de l’individu contre toute forme de discrimination raciale dans l’utilisation et le développement des nouvelles technologies de l’information, par le biais de la régulation et de l’autorégulation, et par le développement de normes et systèmes techniques, de codes de conduite et d’autres mesures».
 
8. A la lumière du Plan d’Action de Thessalonique, le Comité des Ministres a chargé le Groupe de Spécialistes sur l’impact des nouvelles technologies de la communication sur les droits de l’homme et les valeurs démocratiques (MM-S-NT) d’analyser d’éventuelles mesures d’autorégulation à l’encontre des contenus illégaux ou préjudiciables.
 
9. Lors de l’élaboration de la Recommandation (2001) 8, le MM-S-NT a pris note des différentes initiatives prises en la matière aux niveaux national et international et a organisé plusieurs auditions avec des instances compétentes du secteur d’Internet comme la « European Internet Service Provider Association (EuroISPA) », « Internet Watch Foundation » au Royaume-Uni, la « Freiwillige Selbstkontrolle Multimedia-Diensteanbiete »  (organisme d’autorégulation des fournisseurs de services multimedia) en Allemagne, « Internet Content Rating Association (ICRA) », « Entertainment Software Rating Board », « Internet Hotline Providers in Europe (INHOPE) Association » et « Childnet International ».
 
10. Lors de la 762ème réunion des Délégués des Ministres le 5 septembre 2001, la présente Recommandation a été adoptée par le Comité des Ministres, qui a autorisé la publication de cet Exposé des Motifs.
 
II. Remarques générales
 
11. La Recommandation utilise le terme «nouveaux services de communication et d’information» sans définir ces services. Ce terme ou des formules similaires sont largement utilisés et font habituellement référence aux services de communication et d’information numériques tels qu’Internet avec son «World Wide Web» et ses services de courrier électronique. Si le mot «Internet» est communément utilisé comme terme générique pour désigner les nouveaux services de communication et d’information, la Recommandation évite de mentionner expressément Internet, compte tenu des développements technologies rapides et partiellement imprévisibles dans ce domaine et du caractère limitatif que pourrait avoir une référence exclusive à Internet. A cet égard, l’adjectif «nouveaux» souligne ce développement récent et toujours en cours, même si certains aspects de ce développement pourraient dans un proche avenir ne plus être considérés comme véritablement nouveaux. Au vu du caractère descriptif de ce terme, les Etats membres peuvent être plus spécifiques en fonction de leur situation et de leur politique nationale.

12. La présente Recommandation s’adresse aux gouvernements des Etats membres. Les Recommandations du Comité des Ministres sont des instrument marquant un engagement politique et non pas des instruments ayant force juridique. A travers leur adoption par le Comité des Ministres, elles lient tous les Etats membres et n’exigent pas l’adhésion individuelle de ceux-ci.
 
13. La Recommandation ne spécifie pas quels moyens doivent être utilisés pour mettre en œuvre la Recommandation et les principes qu’elle contient. Cela permet aux Etats de choisir de manière discrétionnaire tous moyens de mise en œuvre qu’ils jugent appropriés, en tenant compte de leur droit et pratique internes, de leurs engagements internationaux et de leur situation particulière. A cet égard, le Préambule de la Recommandation se réfère à la Convention internationale des Nations Unies de 1965 sur l’élimination de toutes les formes de discrimination raciale.
 
14. Aux termes de l’article 4 (a) de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale, les Etats Parties à cet instrument s’engagent «à déclarer délits punissables par la loi toute diffusion d’idées fondées sur la supériorité ou la haine raciale, toute incitation à la discrimination raciale, ainsi que tous actes de violence ou provocation à de tels actes dirigés contre toute race ou tout groupe de personnes d’une autre couleur ou d’une autre origine ethnique, de même que toute assistance apportée à des activités racistes y compris leur financement». Etant donné que l’article 4 ne vise de manière spécifique aucune forme d’expression, il s’applique à tous les types de médias, y compris les nouveaux services de communication et d’information. La Recommandation ne limite ou ne déroge en aucune manière aux obligations des Etats en application de cette Convention ou d’autres instruments juridiques internationaux.
 
15. La Recommandation ne vise pas à s’adresser directement au secteur privé, et en particulier à l’industrie des nouveaux services de communication et d’information. Il appartient aux Etats membres de prendre toutes les dispositions appropriées pour faire en sorte que le secteur privé prenne part à la mise en œuvre de la Recommandation.
 
16. Enfin, les Etats membres sont tenus de «diffuser largement cette Recommandation et les principes qui lui sont annexés, en les assortissant le cas échéant d’une traduction» étant donné que la diffusion de la Recommandation est un préalable à sa mise en œuvre effective.
 
III. Commentaires sur la Recommandation
 
17. Les recommandations ou principes spécifiques figurent en annexe à la Recommandation. Cette annexe fait partie intégrante de la Recommandation. Ce n’est que dans un souci de clarté que les «principes et mécanismes concernant l’autorégulation et la protection des utilisateurs à l’encontre des contenus illicites ou préjudiciables diffusés sur les nouveaux services de communication et d’information» sont regroupés dans l’annexe.
 
18. La Recommandation vise tant les contenus illicites que les contenus préjudiciables. Les contenus illicites devraient être entendus comme étant les contenus qui violent le droit national. Quant aux contenus préjudiciables, le préambule de la Recommandation s’y réfère comme étant les contenus perçus comme étant potentiellement dommageables, en particulier pour les mineurs et leur développement physique, mental ou moral, sans qu’ils soient nécessairement illégaux.
 
19. La Recommandation utilise le mot «contenu» en tant que terme générique recouvrant tous les types de contenus, y inclus les textes, les images, les sons et les communications interactives, étant donné que les nouveaux services de communication et d’information ont pour caractéristique d’offrir une combinaison de ces éléments.
 
Chapitre I – Organismes d’autorégulation
 
20. L’autorégulation des acteurs concernés du secteur des nouveaux services de communication et d’information peut être facilitée par le fait que ceux-ci se sont par exemple organisés en associations. L’article 11 de la Convention de Sauvegarde des Droits de l’Homme et des Libertés fondamentales (ci-après dénommée Convention européenne des Droits de l’Homme ou CEDH) garantit le droit à la liberté d’assemblée et d’association. Les Etats membres sont tenus de ne pas restreindre cette liberté en application de l’article 11 de la CEDH. Le paragraphe 1 de la Recommandation va plus loin en recommandant que les Etats membres encouragent la création de tels organismes. Les moyens effectifs de cet encouragement restent à la discrétion de chaque Etat membre.
 
21. Ces organismes devraient être encouragés à établir des mécanismes d’autorégulation comme des codes de conduite. Les Etats membres pourraient décider de concentrer cet encouragement en particulier sur les organisations qui ont une large représentativité dans leur secteur, c’est-à-dire les organisations qui rassemblent un nombre suffisant de membres disposant de certaines possibilités techniques ou autres pour déterminer les contenus mis à disposition sur les nouveaux services de communication et d’information. Le paragraphe 1 de la Recommandation mentionne par exemple les fournisseurs de services Internet, les fournisseurs de contenus et les utilisateurs.

22. Le paragraphe 2 de la Recommandation vise à surveiller le respect des mécanismes d’autorégulation tels que les codes de conduite. Cette surveillance devrait conduire à encourager le respect de ces codes, le cas échéant en le renforçant par des sanctions telles que la suspension de la qualité de membre ou la publication des violations des codes de conduite. Les sanctions imposées en application de mécanismes d’autorégulation ne doivent pas prendre la forme de sanctions pénales.
 
23. Entre autres exemples de codes de conduite, on peut citer ceux de la «European Internet Service Provider Association» (http://www.euroispa.org) ou de la «Internet Hotline Providers in Europe Association» (http://www.inhope.org)». En dehors de l’Europe, des codes de conduite ont été mis en place par exemple par «Internet Industry Association of Australia» (http://www.iia.net.au), la «Canadian Association of Internet Providers» (http://www.caip.ca) et «Electronic Network Consortium of Japan» (http://www.nmda.or.jp/enc/guideline.html). Ces exemples ne sont mentionnés qu’à titre d’information.
 
24. Des mécanismes d’autorégulation tels que des codes de conduite ont existé depuis plusieurs décennies dans les secteurs de la presse écrite, de la radio et de la télévision, tandis que des secteurs connexes tels que celui de la publicité ont développé leurs propres normes. Le paragraphe 3 de la Recommandation encourage l’application de ces normes en vigueur, dans la mesure du possible, aux nouveaux services de communication et d’information. La Chambre Internationale de Commerce a par exemple développé un code publicitaire pour Internet (http://www.iccwbo.org/home/statements_rules/rules/1998/internet_guidelines.asp ).
 
25. Les organismes d’autorégulation constituent un centre-ressource d’information, de connaissance et d’expérience dans un secteur en développement rapide et de ce fait fréquemment «nouveaux». Ils constituent également un forum où les différents acteurs peuvent exprimer leurs intérêts et contribuent à former l’opinion publique. Leur participation à la préparation des textes législatifs les concernant peut donc contribuer à approfondir le débat technique et faciliter une large acceptation de nouvelles normes. Aussi, les Etats membres sont encouragés en application du paragraphe 4 de la Recommandation à impliquer ces organisations. Cette implication peut varier en fonction des situations et traditions nationales, les Etats membres ayant une large discrétion à cet égard. Un exemple que l’on peut citer est la création d’une instance nationale de corégulation en France au début de 2001 par le gouvernement français (voir http://www.internet.gouv.fr/francais/textesref/pagsi2/lsi/coregulation. htm ), tout comme on peut citer également les nombreuses consultations menées par les gouvernements d’autres Etats membres.
 
26. Les organismes d’autorégulation pourraient également, en fonction des situations et traditions nationales, être impliqués dans le suivi du respect de certaines normes dans un cadre de corégulation. La Recommandation ne spécifie aucun concept ou modèle particulier. Une certaine expérience a été acquise à cet égard par l’Organisme Volontaire d’Autorégulation des Fournisseurs de Services Multimedia (FSM) en Allemagne (http://www.fsm.de), qui a été établi à la lumière de la législation spécifique mise en place en Allemagne en matière de régulation et d’autorégulation des services multimedia, ainsi que par l’Autorité Australienne de la Radiodiffusion (Australian Broadcasting Authority) qui, en application du droit australien, a reçu pouvoir d’enregistrer les codes de conduite volontairement soumis par l’industrie d’Internet, de gérer une ligne directe auprès de laquelle il est possible de se plaindre des contenus diffusés sur Internet, ainsi que d’appliquer aux contenus d’Internet qui ont fait l’objet de plaintes à travers cette ligne directe les normes en matière de classification de contenus utilisées dans les secteurs du film et de la télévision (http://www.aba.gov.au).
 
27. Le paragraphe 5 de la Recommandation recommande la mise en place d’une coopération au niveau européen et international entre ces organisations. Etant donné en effet la dimension mondiale des nouveaux services de communication et d’information, il est probable que les mesures d’autorégulation prises au niveau national seront confrontées aux limites inhérentes à leur aire d’application. Par ailleurs, la coopération et l’échange d’informations et d’expériences sont utiles pour éviter des résultats conflictuels au niveau international.
 

Chapitre II – Descripteurs de contenus
 
28. Du fait de la multitude de contenus accessibles via les nouveaux services de communication et d'information, la reconnaissance de ces contenus deviendra essentielle pour aider les utilisateurs à rechercher les contenus de manière efficace, ainsi que pour leur permettre de filtrer les contenus jugés indésirables. L'utilisation d'un ensemble de descripteurs de contenus par les fournisseurs de contenus facilitera cela. C'est pourquoi, le paragraphe 6 de la Recommandation recommande que soient définis des descripteurs de contenus qui devraient « permettre une labellisation neutre des contenus qui donne aux utilisateurs la possibilité de se faire leur propre jugement de valeur sur ces contenus ». Cela permettra aux utilisateurs de sélectionner les contenus d'une manière neutre qui respecte leurs propres valeurs morales, et à ces descripteurs de contenus de pouvoir être utilisés au plan international, à travers différentes cultures, et à travers le temps.
 
29. Des systèmes de classification des contenus ont été largement appliqués au niveau national depuis de nombreuses années dans les domaines de la presse écrite, du film, de la radio-télévision et des jeux vidéos. Les lois nationales exigent habituellement que ces médias classifient les contenus violents et pornographiques, outre qu'elles interdisent les contenus à caractère raciste. Il est rappelé que dans ce domaine, le Comité des Ministres a adopté plusieurs Recommandations: Recommandation n° R (89) 7 concernant des principes relatifs à la distribution de vidéogrammes à contenu violent, brutal ou pornographique, Recommandation n° R (92) 19 relative aux jeux vidéos à contenu raciste, Recommandation n° R (97) 19 sur la représentation de la violence dans les médias électroniques et Recommandation N° R (97) 20 sur «le discours de haine». Par ailleurs, l'article 7 de la Convention européenne sur la Télévision Transfrontière vise à restreindre les services de programmes qui contiennent des émissions à caractère pornographique ou violente, incitent à la haine raciale ou sont susceptibles de nuire au développement physique, mental ou moral des enfants ou des adolescents, tandis que l'article 15 restreint la publicité et le télé-achat pour les produits du tabac, les boissons alcoolisées et les médicaments.
 
30. Au cours de la préparation de cette Recommandation, il a été admis que, au niveau national, il serait préférable que le contenu des médias soit qualifié ou classifié de manière identique, quel que soit le type de médias. Il n'a pas été considéré que les nouveaux services de communication et d'information fonctionnent dans un vide juridique ou qu'il s'agit d'un moyen de communication échappant aux systèmes juridiques nationaux. Toutefois, les systèmes juridiques nationaux sont très différents lorsqu’il s’agit de déterminer ce qui constitue un contenu illicite, par exemple en ce qui concerne les contenus à caractère pornographique. La Recommandation ne vise pas à harmoniser les législations nationales sur ce point.
 
31. Les législations nationales régissant les secteurs de la presse écrite, du film ou de la radiodiffusion réglementent, par exemple, les contenus à caractère violent ou pornographique. La plupart des Etats membres ont également introduit des limitations à l’égard des contenus qui, dans les médias, promeuvent la consommation du tabac ou d'alcool, ainsi qu’à l’égard des services de jeux. Le paragraphe 7 de la Recommandation fait donc référence à ces types de contenus.
 
32. Les nouveaux services de communication et d'information ont été et sont utilisés par des pédophiles pour contacter des enfants, principalement à travers ce qu'on appelle des « forums de discussion », c'est-à-dire des sites web où les utilisateurs peuvent poster, accéder à et échanger des messages écrits ou vocaux et des images. Le paragraphe 7 de la Recommandation inclut donc la recommandation d'indiquer les services qui permettent des contacts non contrôlés et anonymes entre mineurs et adultes par exemple. Les exemples mentionnés au paragraphe 7 ne sont ni exhaustifs ni contraignants, mais ont été considérés comme étant les plus pertinents et les plus importants. Les contenus à caractère raciste doivent être considérés comme un délit punissable en droit en application de l'article 4 de la Convention internationale de 1965 sur l'élimination de toutes les formes de discrimination raciale.
 
33. Lorsque des descripteurs de contenus sont utilisés, les utilisateurs des nouveaux services de communication et d'information peuvent reconnaître le type de contenu concerné visuellement ou techniquement à travers un logiciel particulier. Cela permet aux utilisateurs de filtrer les contenus auxquels il ne veulent pas avoir accès, par exemple lorsqu'ils recherchent des contenus sur l'Internet à travers des dispositifs de recherche. Cela permet également aux parents de contrôler les contenus auxquels ont accès leurs enfants.
 
34. Les fournisseurs de contenus sont encouragés à appliquer eux-mêmes des descripteurs de contenus. De tels descripteurs ont été développés au niveau international, par exemple par l'Internet Content Rating Association (http://www.icra.org), qui encourage les fournisseurs de contenus à labelliser volontairement eux-mêmes leurs contenus en utilisant un ensemble de déscripteurs de contenus qui sont compatibles avec la « Platform for Internet Content Selection » (PICS), développée et offerte gratuitement par le World Wide Web Consortium (http://www.w3c.org/PICS). Les utilisateurs d'Internet peuvent ainsi installer leurs propres filtres utilisant la technologie PICS pour eux-mêmes et leurs enfants.

35. En lieu et place d'une auto-labellisation par les fournisseurs de contenus, les contenus peuvent aussi être classifié à l'intention des utilisateurs par un tiers de confiance de leur choix. Un tel service de classification, qui est compatible avec PICS, est offert par exemple aux utilisateurs par le «Entertainment Software Rating Board» (http://www.esrb.org). Le classement par des tiers peut aussi inclure l’identification de contenus illégaux comme les contenus à caractère raciste et peut ainsi permettre aux utilisateurs, en particulier aux parents, aux écoles ou aux bibliothèques publiques, de se protéger contre des contenus racistes en les filtrant. L'identification des sites web racistes est offerte par exemple par le Centre Simon Wiesenthal (http://www.wiesenthal.com).
 
Chapitre III – Outils de sélection des contenus
 
36. L'augmentation très importante et continue du volume des contenus mis à disposition sur les nouveaux service de communication et d'information requiert que les utilisateurs soient capables de rechercher et sélectionner les contenus qui les intéressent. Pour cette recherche, des logiciels particuliers peuvent être utilisés, ces derniers appliquant habituellement certains critères de sélection lorsqu'ils présentent les résultats de leur recherche par ordre hiérarchique. De la même façon, les contenus peuvent être filtrés. Aussi, le paragraphe 9 de la Recommandation recommande que le développement d'un large éventail d'outils de recherche et de profils de filtrage basés sur des descripteurs de contenus soit encouragé. Cela permettra aux utilisateurs de choisir les outils de recherche ou profils de filtrage de leur choix lorsqu'ils sélectionnent des contenus sur la base de descripteurs de contenus.
 
37. L'article 10 de la Convention européenne des Droits de l'Homme garantit le droit à la liberté d'expression et d'information sans ingérence des autorités publiques et sans considération de frontière, quels que soient les moyens de communication de masse utilisés. Le paragraphe 10 de la Recommandation recommande donc que le filtrage devrait être laissé au libre choix des utilisateurs, sur une base volontaire. Les systèmes de filtrage peuvent ainsi donner aux utilisateurs le moyen de choisir en connaissance de cause les types de contenus licites auxquels ils souhaitent accéder, comme par exemple aux parents ou aux autres personnes ou institutions qui ont la responsabilité de ces enfants de déterminer quels contenus devraient être accessibles à ces derniers.
 
38. Les contenus diffusés sur les nouveaux services de communication et d'information peuvent également être filtrés par les fournisseurs de contenus eux-mêmes à travers l'utilisation de systèmes d'accès conditionnel comme les codes d'identification personnelle ou les mots de passe, les systèmes de cryptage qui requièrent un décodeur ainsi que les codes ou cartes électroniques qui doivent être utilisés avant de pouvoir accéder à un contenu. Le paragraphe 11 recommande que les Etats membres encouragent l'utilisation de systèmes d'accès conditionnel par les fournisseurs de contenus qui offrent des contenus pouvant être considérés comme préjudiciables pour les mineurs par leurs parents ou le public.
 
Chapitre IV – Systèmes de plaintes relatives aux contenus
 
39. Les contenus illégaux ou préjudiciables mis à la disposition sur les nouveaux services de communication et d'information sont généralement accessibles à un grand nombre d'utilisateurs. Le fait que ce type de contenu soit sous les yeux du grand public a permis dans de nombreux cas d'identifier des contenus illégaux. Afin de permettre aux utilisateurs de réagir face à des contenus présumés illégaux, le paragraphe 12 de la Recommandation recommande aux Etats membres d’encourager la mise en place de mécanismes de plainte à l'égard des contenus tels que les lignes directes.

40. Ces mécanismes de plainte à l'égard des contenus pourraient être offerts par exemple par les fournisseurs de services Internet, les fournisseurs de contenus et les associations d'usagers, ainsi que d'autres institutions comme les associations privées s'occupant de la protection de la jeunesse. En Europe, la « Internet Hotline Providers in Europe Association » (http://www.inhope.org) rassemble un certain nombre de lignes directes nationales. Dans les pays où une réponse adéquate aux contenus présumés illégaux n'est pas offerte par ces institutions privées, les Etats membres devraient prévoir des mécanismes de plainte à l'égard des contenus gérés par les pouvoirs publics comme par exemple certaines forces de police spécialisées ou les instances publiques qui ont des responsabilités en matière de protection de l'enfance.
 
41. Les mécanismes de plainte à l'égard des contenus ou lignes directes offrent aux utilisateurs un outil leur permettant de prendre confiance dans les nouveaux services de communication et d'information ainsi qu'en ces mécanismes et la façon dont ils traitent les plaintes qu'ils reçoivent. Afin d'éviter que le public ne soit mal informé et de s'assurer que les mécanismes de plainte à l'égard de contenus répondent à certains standards, le paragraphe 13 de la Recommandation dispose que les Etats membres devraient encourager le développement d'exigences et de pratiques minimales communes en ce qui concerne ces mécanismes. Celles-ci devraient inclure par exemple : (a) la mise à disposition d’une adresse Internet permanente dont les utilisateurs se souviendront grâce à cette permanence, (b) la disponibilité des systèmes de plaintes relatives aux contenus 24 heures sur 24 permettant aux utilisateurs de les contacter à tout moment, (c) la mise à la disposition du public d’informations sur les personnes et les entités juridiquement responsables au sein des organismes proposant des systèmes de plaintes relatives aux contenus, ce qui peut contribuer à assurer la transparence nécessaire pour obtenir la confiance des utilisateurs et permettre au public d’exercer un droit de regard sur les mécanismes de traitement des plaintes, (d) la mise à la disposition du public d’informations sur les règles et les pratiques de traitement des plaintes relatives aux contenus, y compris sur la coopération avec les autorités judiciaires et de police, afin que les utilisateurs prennent conscience des éventuels résultats de leurs plaintes, (e) la mise en place, à l’intention des utilisateurs, de réponses sur les modalités de traitement de leurs plaintes relatives aux contenus, afin de signaler aux utilisateurs, si possible sous forme automatique, la réception et le traitement de leurs plaintes et (f) la mise en place de liens vers d’autres systèmes de plaintes à l’étranger, qui permettront aux utilisateurs d’adresser des plaintes à des systèmes de plaintes dans le pays d’où provient le contenu en cause.
 
42. Le paragraphe 14 de la Recommandation dispose que, afin d'assurer le bon fonctionnement des mécanismes de plainte en matière de contenu ainsi que la coopération entre ceux-ci et les pouvoirs publics en ce qui concerne les contenus présumés illégaux, les pouvoirs publics compétents, comme la police et les autorités judiciaires, devraient mettre en place un cadre adéquat pour assurer cette coopération. Un tel cadre pourrait inclure des exigences pratiques comme la fourniture d'un point de contact pour les mécanismes de plainte à l'égard des contenus ou la formation du personnel au traitement de plaintes concernant les contenus diffusés sur les nouveaux services de communication et d'information.
 
43. Le paragraphe 14 mentionne de manière spécifique que les Etats membres devraient définir les responsabilités et privilèges juridiques des organismes offrant des systèmes de plainte à l'égard des contenus lorsqu'ils accèdent à des contenus illicites, les copient, les collectent et les adressent aux autorités judiciaires et de police. Cela est rendu nécessaire par le fait qu’il se peut que le droit interne les Etats membres considère comme un délit tombant sous le coup du droit pénal le fait d'accéder à, de copier, de collecter et d'adresser des contenus illégaux, en particulier lorsqu'ils concernent la pornographie infantile. A défaut, les organismes de traitement des plaintes commettraient un délit pénal si par exemple ils venaient à traiter une plainte concernant un cas de pornographie infantile.
 
44. Les plaintes en matière de contenu peuvent très souvent avoir trait à des contenus émanant de pays autres que celui où l'organisme qui traite la plainte a son siège. Aussi, le paragraphe 15 de la Recommandation dispose que la coopération au niveau européen et international entre organismes de traitement de plaintes en matière de contenus devraient être encouragée.
 
45. Enfin, le paragraphe 16 de la Recommandation recommande aux Etats membres de prendre toutes les mesures juridiques et administratives nécessaires pour développer la coopération transfrontalière entre les autorités judiciaires et de police compétentes en ce qui concerne les plaintes et les enquêtes concernant les contenus présumés illégaux provenant de l'étranger. Il est logique que les autorités judiciaires et de police devraient coopérer par delà les frontières nationales, en particulier lorsque la coopération entre organismes de traitement des plaintes en matière de contenu existant dans les Etats membres a été recommandée, comme indiqué précédemment. Le cadre de cette coopération peut dépendre des accords bilatéraux ou multilatéraux conclus par chaque Etat membre, par exemple en matière d'assistance judiciaire et de reconnaissance et d'application des jugements rendus à l'étranger. Dans ce contexte, les Etats membres pourraient se référer à la Convention européenne de 1959 d’entraide judiciaire en matière pénale et à son Protocole additionnel de 1978.
 
Chapitre V – Médiation et arbitrage
 
46. Les plaintes à l'égard des contenus peuvent aisément déboucher sur des conflits à caractère juridique. Ce type de conflit pourrait aisément se trouver confronté au problème de l'incertitude qui pèse quant à la compétence des juridictions nationales, outre les problèmes posés par le fait que les parties au conflit peuvent se trouver dans des pays différents et éventuellement très éloignés l'un de l'autre. Le paragraphe 17 de la Recommandation recommande donc la création d'instances ou de procédures volontaires équitables, indépendantes, accessibles et efficaces en matière de médiation ainsi que de mécanismes d'arbitrage des différends portant sur des questions de contenus.
 
47. Le paragraphe 18 de la Recommandation recommande le développement d'une coopération entre ces instances de médiation et d'arbitrage au niveau européen et international, le libre accès de tous aux procédures de médiation et d'arbitrage sans considération de frontière ainsi que la reconnaissance mutuelle et l'application des règlements à l’amiable trouvés par ce biais, en tenant dûment compte de l'ordre public et des sauvegardes fondamentales existant en matière de procédure au niveau national.
 
48. Dans ce contexte, il convient de faire référence à la Convention européenne portant loi uniforme en matière d’arbitrage (1966), la Convention européenne sur l’arbitrage commercial international (1961) et l’Arrangement du Conseil de l’Europe de 1962 relatif à l’application de cette Convention, ainsi que la Recommandation N° R (99) 19 du Comité des Ministres sur la médiation en matière pénale.
 

Chapitre VI – Information des utilisateurs et sensibilisation
 
49. Le Chapitre III de la présente Recommandation traite des outils de sélection des contenus, comme par exemple les outils de recherche et les profils de filtrage, qui empêchent l'accès à des contenus préjudiciables. Ces outils de sélection des contenus peuvent également être utilisés pour sélectionner des contenus répondant à une certaine qualification comme les contenus émanant des institutions gouvernementales, les contenus éducatifs ou les contenus adaptés aux enfants. Le paragraphe 19 de la Recommandation recommande donc d’encourager le développement de labels de qualité pour les contenus diffusés sur les nouveaux services de communication et d'information.
 
50. Les utilisateurs des nouveaux services de communication et d'information ne pourront bénéficier du développement de mécanismes d'autorégulation, d'outils techniques de sélection de contenus, de mécanismes de plainte à l'égard des contenus et de procédures à l’amiable de médiation et d'arbitrage que dans la mesure où ils auront été sensibilisés à l'existence de ceux-ci et disposeront de connaissances suffisantes quant à leur utilisation. Aussi, en application du paragraphe 20 de la Recommandation, les Etats membres devraient encourager la sensibilisation et l'information du public à cet égard. Cette information devrait être accessible à tous, par exemple à travers les institutions éducatives ou les bibliothèques publiques. Des informations sur le filtrage des contenus préjudiciables pourraient viser en particulier les parents. Dans ce contexte, les Etats membres peuvent également prendre en compte la Recommandation (99) 14 sur le service universel communautaire concernant les nouveaux services de communication et d’information, qui recommande qu’une information et une formation de tous les individus à l’égard de ces services soit développée.