Les filtres Internet ne violent pas la liberté d’expression s’ils fonctionnent bien. Mais le peuvent-ils ? – EURACTIV.com

Le tribunal de l’UE a précisé qu’il ne faut pas faire confiance aux filtres s’ils ne peuvent pas faire leur travail avec une précision suffisante. Cependant, leur supervision est faible. La future loi sur l’intelligence artificielle offre une opportunité d’y remédier, écrit Martin Husovec.

Martin Husovec est professeur associé de droit à la London School of Economics.

La justice européenne a statué mardiropean Union a rendu sa décision tant attendue sur la constitutionnalité des filtres pour protéger le droit d’auteur sur des sites comme YouTube. Selon le tribunal, le blocage automatique du contenu de l’utilisateur pendant le téléchargement est autorisé tant qu’il évite les erreurs.

En 2016, l’Union européenne a proposé une nouvelle directive sur le droit d’auteur. Elle a introduit une obligation de rémunérer les auteurs et autres titulaires de droits pour le contenu généré par les utilisateurs sur certaines plateformes. Si les auteurs ne sont pas intéressés par l’argent, ils peuvent demander que leur contenu contrefaisant soit filtré.

La Pologne a décidé de contester l’obligation de filtrage devant la Cour européenne de justice. Il a affirmé que cela violait la liberté d’expression des utilisateurs dont le contenu pouvait donc être supprimé sans être illégal. Aucun autre État membre n’a soutenu la Pologne.

Le tribunal a jugé cette semaine que le filtrage en tant que tel était compatible avec la liberté d’expression. Cependant, il doit remplir certaines conditions. Le filtrage doit pouvoir “distinguer suffisamment” quand le contenu d’un utilisateur enfreint le droit d’auteur et quand ce n’est pas le cas. Si la machine ne peut pas le faire avec une précision suffisante, il ne faut pas du tout lui faire confiance.

Aujourd’hui, nous sommes déjà en mesure d’automatiser certaines violations. Surtout ceux qui ne nécessitent pas une évaluation du contexte. Moins un utilisateur utilise de contenu protégé, plus le problème pour les machines est important. Cependant, les machines trouvent le contenu mais ne peuvent pas l’évaluer légalement.

Cela met la pression sur les algorithmes et l’intelligence artificielle. Espérons que les machines feront beaucoup plus en une journée. Cet objectif d’accroître l’efficacité de l’exécution à la lumière de l’évolution technologique est pleinement justifié.

Mais les plateformes sont-elles suffisamment intéressées pour tester correctement la qualité de leurs solutions algorithmiques ? Les laissons-nous vraiment sans surveillance ? Le souci, c’est qu’ils déploient tout simplement commercialement tout ce qui leur convient.

La Cour dit maintenant que les filtres ne devraient être utilisés que si la technologie est de haute qualité. Mais qui décide que c’est le cas ? Le législateur européen est intervenu dans tous les détails. Les États membres ne veulent pas non plus répondre à cette question.

La Cour de justice a déclaré que, d’un point de vue européen, le législateur européen en avait déjà assez fait. Il précise que la directive contient des éléments clés pour se protéger contre les abus. Il appartient maintenant aux États membres de faire du filtrage précis une réalité sur le terrain.

Cependant, la plupart des États membres se sont jusqu’à présent référés à Bruxelles. Ils ont fait valoir que les règles européennes se suffisent à elles-mêmes. Selon eux, il suffit de copier et coller la directive dans le droit national et de laisser aux juridictions nationales le soin de résoudre les éventuels problèmes. Cela conduit le pot aux citoyens.

Cette décision importante change-t-elle cela ? Probablement pas. Le tribunal est resté assez vague.

Cependant, les États membres devraient prendre à cœur les principes de prise de décision. Il est de la responsabilité du pays émettant l’ordre de blocage de s’assurer qu’il ne devienne pas incontrôlable.

Ce qu’il faut faire est assez clair. Les filtres doivent être testés et audités. Des statistiques sur l’utilisation des filtres et une description de leur fonctionnement devraient être rendues publiques.

Les associations de consommateurs devraient avoir le droit de poursuivre les plateformes pour l’utilisation de filtres mal conçus. Certaines autorités devraient surveiller le fonctionnement des systèmes et imposer des amendes en cas de défaillance.

Sans de tels mécanismes, la filtration de précision est un rêve devenu réalité.

C’est pourquoi l’Union européenne discute également de la meilleure façon de réglementer l’utilisation de l’intelligence artificielle. Nous ne voulons pas abandonner le contrôle des machines lorsqu’elles décident de nos vies.

Cependant, parmi les applications à risque imposées par la loi sur l’intelligence artificielle, on note un manque de filtrage des droits d’auteur sur les plateformes. Cette lacune devrait être comblée. La Cour européenne de justice vient de juger que le filtrage avant la mise en ligne des contenus constitue une restriction préalable, une ingérence très grave dans la liberté d’expression des personnes.

La loi sur les services numériques offre d’excellentes garanties. Cependant, ils ne fonctionneront probablement bien que si les plates-formes sont très grandes. Pour toutes les autres plates-formes qui utilisent des filtres pour bloquer de manière proactive le contenu des utilisateurs, seules des formes limitées de transparence s’appliqueront à l’avance. La plupart des autres garanties ne sont appliquées qu’après que des erreurs individuelles ont été commises.

Le législateur de l’UE devrait donc envisager d’inclure de tels filtres de téléchargement dans la future loi sur l’IA.

La Cour européenne de justice s’est entendue cette semaine avec la Cour européenne des droits de l’homme sur un principe de base. Les défaillances des entreprises chargées par l’État de faire respecter la loi, même lorsqu’elles sont habillées d’une technologie sophistiquée, restent la responsabilité directe de l’État.

Les législateurs européens ne devraient plus fermer les yeux et surveiller immédiatement les filtres.

Leave a Comment