La liberté d’expression en ligne constitue un pilier fondamental des sociétés démocratiques modernes, mais elle se heurte à un cadre juridique de plus en plus complexe. À l’heure où les réseaux sociaux et plateformes numériques sont devenus les nouvelles agoras publiques, les États et organisations internationales élaborent des dispositifs législatifs pour encadrer cette liberté. Entre protection des droits fondamentaux et nécessité de réguler les abus, le droit français et européen dessine des frontières parfois floues. Cet équilibre délicat soulève des questions juridiques majeures sur la responsabilité des acteurs, la territorialité des lois et l’effectivité des sanctions dans un espace numérique par nature transfrontalier.
Le cadre constitutionnel et conventionnel de la liberté d’expression numérique
La liberté d’expression constitue un droit fondamental consacré tant au niveau national qu’international. En France, elle trouve son fondement dans l’article 11 de la Déclaration des Droits de l’Homme et du Citoyen de 1789, qui proclame que « la libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ». Le Conseil constitutionnel a régulièrement réaffirmé la valeur constitutionnelle de cette liberté, notamment dans sa décision du 10 juin 2009 relative à la loi favorisant la diffusion et la protection de la création sur internet.
Au niveau européen, l’article 10 de la Convention Européenne des Droits de l’Homme garantit cette liberté fondamentale, tout en prévoyant la possibilité de restrictions légitimes. La Cour Européenne des Droits de l’Homme a développé une jurisprudence substantielle sur ce sujet, établissant que les restrictions doivent être « prévues par la loi », poursuivre un « but légitime » et être « nécessaires dans une société démocratique ».
Le droit de l’Union européenne renforce cette protection avec l’article 11 de la Charte des droits fondamentaux, qui garantit explicitement la liberté d’expression et d’information. La Cour de Justice de l’Union Européenne a précisé dans plusieurs arrêts les contours de cette liberté dans l’environnement numérique.
Le test de proportionnalité appliqué aux restrictions en ligne
Pour évaluer la légalité des restrictions à la liberté d’expression en ligne, les juridictions appliquent un test de proportionnalité rigoureux. Ce test comporte généralement trois critères :
- L’adéquation de la mesure restrictive à l’objectif poursuivi
- La nécessité de la mesure (absence d’alternative moins restrictive)
- La proportionnalité stricto sensu (balance entre les avantages et les inconvénients)
Dans l’arrêt Delfi AS c. Estonie (2015), la Cour Européenne des Droits de l’Homme a appliqué ce test pour juger de la responsabilité d’un portail d’actualités en ligne concernant des commentaires diffamatoires. La Cour a considéré que la restriction était proportionnée, compte tenu de la nature manifestement illicite des propos et de l’absence de mesures préventives efficaces mises en place par le portail.
Cette approche équilibrée témoigne de la recherche permanente d’un juste milieu entre protection de la liberté d’expression et prévention des abus dans l’espace numérique. Les juges prennent en considération la spécificité du médium internet, caractérisé par sa portée mondiale, son accessibilité immédiate et sa capacité à diffuser rapidement des contenus potentiellement préjudiciables.
Les limites légales spécifiques à l’expression en ligne
Le législateur français a développé un arsenal juridique spécifique pour encadrer l’expression en ligne, avec des dispositions qui vont au-delà du cadre classique de la loi du 29 juillet 1881 sur la liberté de la presse. La loi pour la confiance dans l’économie numérique (LCEN) du 21 juin 2004 constitue la pierre angulaire de ce dispositif, établissant un régime de responsabilité aménagé pour les hébergeurs de contenus.
Plus récemment, la loi Avia contre les contenus haineux sur internet (partiellement censurée par le Conseil constitutionnel en juin 2020) visait à imposer aux plateformes une obligation de retrait des contenus manifestement illicites dans un délai de 24 heures. Malgré la censure de certaines dispositions jugées attentatoires à la liberté d’expression, cette tentative législative illustre la volonté du législateur d’adapter le droit aux défis spécifiques du numérique.
Le Code pénal français comporte plusieurs infractions spécifiquement applicables à l’environnement numérique. L’article 227-23 réprime la diffusion d’images pédopornographiques, tandis que l’article 227-24 sanctionne la diffusion de messages violents ou pornographiques accessibles aux mineurs. L’article 421-2-5 punit quant à lui l’apologie du terrorisme, infraction dont la répression a été considérablement renforcée suite aux attentats de 2015.
La lutte contre les discours de haine en ligne
La répression des discours de haine constitue l’un des domaines où les restrictions à la liberté d’expression sont les plus marquées. En droit français, plusieurs dispositions de la loi de 1881 sanctionnent :
- La provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe (article 24)
- La diffamation et l’injure à caractère discriminatoire (articles 32 et 33)
- La contestation de crimes contre l’humanité (article 24 bis)
La loi du 27 janvier 2017 relative à l’égalité et à la citoyenneté a étendu les circonstances aggravantes liées aux motivations discriminatoires et renforcé les obligations des plateformes en ligne. Le règlement Digital Services Act (DSA) adopté au niveau européen en 2022 impose désormais aux très grandes plateformes en ligne des obligations renforcées en matière de modération des contenus haineux.
La jurisprudence de la Cour de cassation a précisé l’application de ces dispositions dans l’environnement numérique. Dans un arrêt du 17 mars 2015, la Chambre criminelle a confirmé la condamnation d’un internaute pour provocation à la haine raciale en raison de messages publiés sur Twitter, considérant que le caractère public de la diffusion était établi dès lors que les messages étaient accessibles à tous les utilisateurs de la plateforme.
La responsabilité juridique des intermédiaires techniques
La question de la responsabilité des intermédiaires techniques constitue l’un des enjeux majeurs de l’encadrement juridique de la liberté d’expression en ligne. La directive européenne sur le commerce électronique de 2000, transposée en France par la LCEN, établit une distinction fondamentale entre les hébergeurs et les éditeurs de contenus.
Les hébergeurs bénéficient d’un régime de responsabilité limitée : ils ne peuvent être tenus responsables des contenus stockés à la demande d’un utilisateur que s’ils avaient effectivement connaissance de leur caractère illicite et n’ont pas agi promptement pour les retirer. Ce régime, confirmé par la Cour de Justice de l’Union Européenne dans l’arrêt Google France c. Louis Vuitton (2010), vise à préserver l’innovation et le développement des services en ligne.
Les éditeurs, qui déterminent les contenus mis en ligne, sont soumis à un régime de responsabilité plus strict, similaire à celui des médias traditionnels. La qualification juridique des plateformes de réseaux sociaux a longtemps fait débat, mais la tendance jurisprudentielle actuelle tend à les considérer comme des hébergeurs, tout en leur imposant des obligations spécifiques de modération.
L’évolution vers un régime de responsabilité renforcée
Le cadre juridique évolue progressivement vers une responsabilisation accrue des plateformes. Le Digital Services Act européen adopté en 2022 maintient le principe de l’exemption conditionnelle de responsabilité, mais impose aux très grandes plateformes en ligne (comptant plus de 45 millions d’utilisateurs dans l’UE) des obligations proactives :
- Mise en place de systèmes internes de gestion des contenus illicites
- Évaluation et atténuation des risques systémiques liés à leurs services
- Soumission à des audits indépendants
- Transparence accrue sur les algorithmes de recommandation
En France, la loi du 24 août 2021 confortant le respect des principes de la République a introduit une nouvelle procédure de « blocage miroir » permettant d’étendre rapidement les décisions de justice ordonnant le blocage ou le déréférencement de sites illicites à leurs copies. Cette innovation juridique témoigne de la volonté du législateur de renforcer l’effectivité des décisions de justice face à la volatilité des contenus en ligne.
La Cour de cassation a progressivement affiné sa jurisprudence sur la responsabilité des plateformes. Dans un arrêt du 6 octobre 2020, elle a jugé que Twitter devait communiquer aux associations de lutte contre les discriminations les données permettant d’identifier les auteurs de tweets antisémites, confirmant ainsi que le régime de responsabilité limitée ne dispense pas les plateformes de coopérer avec la justice.
L’équilibre entre protection des données personnelles et liberté d’expression
L’avènement du Règlement Général sur la Protection des Données (RGPD) en 2018 a considérablement renforcé la protection des données personnelles en Europe, créant parfois des tensions avec la liberté d’expression en ligne. L’article 85 du RGPD prévoit que les États membres concilient par la loi la protection des données à caractère personnel et la liberté d’expression et d’information, notamment dans le cadre du traitement à des fins journalistiques.
Le « droit à l’oubli » ou « droit au déréférencement », consacré par l’arrêt Google Spain de la CJUE en 2014 et désormais codifié à l’article 17 du RGPD, illustre parfaitement cette tension. Ce droit permet aux individus de demander la suppression de liens vers des informations les concernant lorsqu’elles sont inexactes, inadéquates, non pertinentes ou excessives. Les moteurs de recherche doivent alors procéder à une mise en balance entre le droit à la vie privée du demandeur et l’intérêt du public à accéder à l’information.
La CJUE a précisé les contours de ce droit dans plusieurs arrêts ultérieurs. Dans une décision du 24 septembre 2019, elle a jugé que le droit au déréférencement ne s’appliquait pas à l’échelle mondiale, mais uniquement sur les versions européennes des moteurs de recherche, limitant ainsi son impact sur la liberté d’information au niveau global.
Le traitement journalistique des données personnelles
Les activités journalistiques bénéficient d’un régime dérogatoire prévu à l’article 80 de la loi Informatique et Libertés. Cette dérogation vise à préserver la liberté d’information tout en assurant un niveau adéquat de protection des données. La CNIL a précisé dans plusieurs délibérations les conditions d’application de cette exception :
- Finalité d’information du public
- Activité exercée par des professionnels ou non-professionnels du journalisme
- Respect des règles déontologiques du journalisme
Dans un arrêt du 14 février 2019, la CJUE a adopté une interprétation large de la notion d’activités journalistiques, incluant potentiellement tout traitement de données visant à divulguer au public des informations, opinions ou idées. Cette approche extensive favorise la liberté d’expression mais soulève des questions quant à la protection effective des données personnelles.
L’équilibre entre ces droits fondamentaux demeure délicat à trouver. Le Comité européen de la protection des données (CEPD) a publié des lignes directrices pour aider les autorités nationales à appliquer les exceptions relatives à la liberté d’expression de manière cohérente. Ces recommandations soulignent l’importance d’une approche proportionnée, tenant compte du rôle des médias comme « chiens de garde » de la démocratie tout en protégeant les droits des personnes concernées.
Les défis transfrontaliers et l’avenir de la régulation
La nature globale d’internet pose des défis considérables pour l’application territoriale des restrictions à la liberté d’expression. Les disparités entre les cadres juridiques nationaux créent des situations complexes où un contenu peut être légal dans un pays et illégal dans un autre. Cette réalité a donné naissance au phénomène du « forum shopping », où les éditeurs choisissent d’héberger leurs contenus dans les juridictions les plus permissives.
L’affaire Yahoo! Inc. c. LICRA (2000) illustre parfaitement ces enjeux territoriaux. Un tribunal français avait ordonné à Yahoo! de bloquer l’accès des internautes français à des ventes d’objets nazis sur son site d’enchères, contenus légaux aux États-Unis mais interdits en France. Cette décision a soulevé d’importantes questions sur la portée extraterritoriale des injonctions nationales et la faisabilité technique du géoblocage.
Face à ces défis, plusieurs approches émergent. L’Union européenne a adopté une stratégie de régulation ambitieuse avec le Digital Services Act et le Digital Markets Act, établissant un cadre harmonisé applicable aux plateformes opérant sur le marché européen, indépendamment de leur lieu d’établissement. Cette approche, fondée sur le critère du marché ciblé (« market targeting »), permet d’étendre l’application du droit européen aux acteurs étrangers qui s’adressent aux consommateurs européens.
Vers une coopération internationale renforcée
La coopération internationale apparaît comme une voie prometteuse pour surmonter les limites de l’approche purement nationale. Plusieurs initiatives ont été développées :
- Le Forum sur la gouvernance d’Internet (FGI), plateforme multipartite facilitant le dialogue sur les politiques publiques relatives à internet
- Le Protocole additionnel à la Convention de Budapest sur la cybercriminalité, concernant l’incrimination d’actes de nature raciste et xénophobe commis par le biais de systèmes informatiques
- L’Appel de Christchurch contre les contenus terroristes en ligne, signé par plus de 50 pays et de nombreuses entreprises technologiques
Ces initiatives témoignent d’une prise de conscience de la nécessité d’une approche coordonnée au niveau international. Toutefois, les divergences fondamentales entre les conceptions de la liberté d’expression, notamment entre le modèle américain très protecteur et l’approche européenne plus restrictive, limitent la portée de ces efforts.
L’émergence de technologies comme l’intelligence artificielle soulève de nouveaux défis pour la régulation de l’expression en ligne. Les systèmes automatisés de modération de contenus, de plus en plus utilisés par les plateformes, soulèvent des questions sur leur transparence, leur précision et leur respect des nuances culturelles et contextuelles. Le Digital Services Act européen aborde cette problématique en imposant des obligations de transparence sur les systèmes algorithmiques et en promouvant des mécanismes de recours humain contre les décisions automatisées.
La blockchain et les technologies décentralisées représentent un autre défi majeur, en créant des espaces d’expression potentiellement imperméables aux régulations traditionnelles. Ces innovations technologiques pourraient remettre en question l’efficacité des modèles de régulation centrés sur les intermédiaires, nécessitant l’élaboration de nouveaux paradigmes juridiques adaptés à ces architectures distribuées.
Perspectives d’évolution : vers un nouvel équilibre numérique
L’encadrement juridique de la liberté d’expression en ligne se trouve à un tournant décisif. Après une période initiale marquée par une approche relativement libérale, favorisant l’innovation et le développement des services numériques, nous assistons à un mouvement de régulation plus affirmé. Cette évolution répond aux préoccupations croissantes concernant la désinformation, les discours de haine et l’influence des plateformes sur le débat public.
Le modèle européen de régulation, incarné par le Digital Services Act, se distingue par son approche systémique, visant à responsabiliser les plateformes sans les transformer en juges du contenu. Ce modèle, fondé sur des obligations de moyens plutôt que de résultats, pourrait inspirer d’autres juridictions à travers le monde. La France a joué un rôle moteur dans cette dynamique régulatrice, avec des initiatives comme la loi contre la manipulation de l’information de 2018 ou la création du Pôle d’expertise de la régulation numérique (PEReN).
La jurisprudence joue un rôle fondamental dans l’élaboration de cet équilibre. Les décisions récentes de la Cour Européenne des Droits de l’Homme et de la Cour de Justice de l’Union Européenne témoignent d’une volonté de préserver le pluralisme en ligne tout en permettant des restrictions proportionnées. Dans l’arrêt Sanchez c. France (2021), la CEDH a validé la condamnation d’un homme politique pour ne pas avoir promptement supprimé des commentaires haineux publiés par des tiers sur sa page Facebook, reconnaissant ainsi une responsabilité éditoriale étendue aux gestionnaires de pages publiques.
Le rôle émergent de la corégulation
Face à la complexité des enjeux, un modèle de corégulation associant pouvoirs publics, plateformes et société civile semble se dessiner. Cette approche se manifeste à travers :
- La création d’autorités administratives indépendantes spécialisées, comme l’ARCOM en France
- Le développement de codes de conduite sectoriels, comme le Code de bonnes pratiques contre la désinformation au niveau européen
- L’implication d’experts indépendants dans l’évaluation des risques systémiques des plateformes
Cette tendance à la corégulation témoigne d’une reconnaissance des limites tant de l’autorégulation pure que de la régulation étatique classique. La Cour constitutionnelle allemande a validé ce modèle dans une décision du 22 mai 2019 concernant la NetzDG (loi allemande sur l’amélioration de l’application de la loi dans les réseaux sociaux), tout en soulignant la nécessité de garanties procédurales adéquates.
L’avenir de la régulation de l’expression en ligne dépendra largement de notre capacité collective à concilier des impératifs parfois contradictoires : protection contre les abus, préservation du pluralisme, respect de la diversité culturelle et juridique, faisabilité technique et viabilité économique. Cette recherche d’équilibre nécessite une approche nuancée, reconnaissant tant le potentiel émancipateur d’internet que les risques réels qu’il comporte pour la cohésion sociale et le débat démocratique.
Le défi majeur consiste à élaborer des cadres juridiques suffisamment flexibles pour s’adapter aux évolutions technologiques rapides, tout en offrant la sécurité juridique nécessaire aux différents acteurs. La montée en puissance des technologies d’intelligence artificielle générative illustre cette difficulté, en soulevant des questions inédites sur la responsabilité juridique des contenus générés automatiquement et sur la définition même de l’expression humaine protégée par les droits fondamentaux.