TechScape : Le Royaume-Uni peut-il construire un Internet plus sûr ? | Technologie

RSelon les fils Twitter ou les groupes Facebook dans lesquels vous vous trouvez, l’espect peut être une denrée rare sur Internet. Le gouvernement britannique a fortement utilisé le mot le mois dernier lorsqu’il a déclaré qu’il résisterait aux tentatives de restreindre ses pouvoirs proposés sur Internet.

Le langage maniéré trahit un loup législatif déguisé en mouton, disent les critiques du projet de loi sur la sécurité en ligne. Le projet de loi très controversé revient au Parlement le 12 juillet et les députés ont clairement indiqué cette semaine qu’ils pensaient que le ministre de la Culture avait trop de pouvoir sur Internet en l’état.

Abonnez-vous à TechScape, notre newsletter technologique hebdomadaire.

Le député conservateur Julian Knight, qui préside la commission du numérique, de la culture, des médias et du sport, a averti que le secrétaire d’État avait trop d’influence sur l’Ofcom, le régulateur indépendant chargé de mettre en œuvre la loi. Il a appelé à la suppression des clauses qui auraient permis à Nadine Dorries, qui était encore secrétaire à la culture au moment de la publication, d’ordonner à l’Ofcom de modifier les directives, notamment sur le traitement des contenus terroristes et d’exploitation sexuelle d’enfants, avant que le Parlement n’en débatte.

“Un média libre dépend du fait que le régulateur soit à l’abri de la menace d’intrusion de l’exécutif au quotidien”, a déclaré Knight. “Le gouvernement a toujours un rôle important à jouer dans la définition de la direction, mais l’Ofcom ne doit pas constamment regarder par-dessus son épaule les caprices du secrétaire d’État sur le siège arrière.”

Le gouvernement était poli dans son eiga dur. S’adressant à un comité de députés qui a examiné le projet de loi le mois dernier, le ministre du numérique, Chris Philp, a déclaré que le gouvernement “s’opposerait respectueusement” aux tentatives de réduction des pouvoirs du secrétaire d’État.

Le gouvernement ne bouge pas sur cette question, mais il apporte quand même des changements.

Le projet de loi impose une obligation de diligence aux entreprises technologiques – ou plutôt aux plates-formes qui produisent du contenu généré par les utilisateurs, telles que les géants des médias sociaux – ainsi qu’aux principaux moteurs de recherche, dont Google, pour protéger les utilisateurs contre les contenus préjudiciables. Ce devoir de diligence est globalement divisé en trois parties : limiter la diffusion de contenus illégaux tels que des images d’abus pédosexuels et du matériel terroriste ; veiller à ce que les enfants ne soient pas exposés à des contenus préjudiciables ou inappropriés ; et, pour les grandes plateformes telles que Facebook, Twitter et TikTok, protéger les adultes contre les contenus légaux mais préjudiciables (tels que la cyberintimidation et le matériel lié aux troubles de l’alimentation).

La législation sera supervisée par l’Ofcom, qui peut imposer une amende de 18 millions de livres sterling, soit 10 % du chiffre d’affaires mondial d’une entreprise, pour violation de la loi. Dans les cas extrêmes, il peut également bloquer des sites Web ou des applications. Mercredi, l’Ofcom a publié son plan d’action pour la mise en œuvre de la loi, notamment en mettant l’accent sur la lutte contre les contenus illégaux dans les 100 premiers jours suivant la mise en œuvre de la législation.

Voici une ventilation rapide des changements auxquels s’attendre à mesure que le projet de loi passe à l’étape suivante. Il devrait devenir loi d’ici la fin de l’année ou au début de 2023, selon la façon dont cela se passe à la Chambre des lords, qui ne manquera pas d’avoir quelques problèmes.

Changements ch-ch : changements confirmés

Le gouvernement déposera certains changements à temps pour la phase de rapport le 12 juillet, et un autre changement sera annoncé peu de temps après. L’un des changements approuvés obligera les entreprises technologiques à protéger les internautes contre la désinformation parrainée par l’État qui constitue une menace pour la société et la démocratie britanniques. Il s’agit d’un resserrement des propositions de désinformation existantes dans le projet de loi, qui obligent déjà les entreprises technologiques à prendre des mesures contre la désinformation parrainée par l’État qui nuit aux gens – comme les menaces de mort.

Le deuxième changement approuvé est également progressif. Une clause du projet de loi ciblant les services entièrement cryptés donne déjà à l’Ofcom le pouvoir d’exiger que ces plateformes adoptent une “technologie accréditée” pour détecter les abus et l’exploitation sexuels des enfants. [CSEA] contenu. Si cela ne fonctionne pas, ils doivent faire de leur mieux pour développer ou mettre en œuvre une nouvelle technologie pour détecter et supprimer le CSEA. Cette décision semble viser les projets de Mark Zuckerberg d’introduire un cryptage complet sur Facebook Messenger et Instagram.

Tout d’abord, ne soyez pas offensé : ce qui est attendu

Au stade du comité, Philp a confirmé que d’une manière ou d’une autre, le gouvernement introduirait une infraction d’envoi délibéré d’images clignotantes pour provoquer des crises d’épilepsie. Mais ce n’est peut-être pas dans le projet de loi sur la sécurité.

Il a également déclaré que “le moment venu”, le gouvernement publierait une liste des “préjudices prioritaires” pour les adultes, suggérant une modification du plan initial pour les publier après l’entrée en vigueur du projet de loi. Ce sont des préjudices – méchants mais pas criminels – qui tombent en dessous du seuil d’illégalité auquel les plateformes doivent faire face, y compris l’automutilation, le harcèlement et les troubles alimentaires. On craint que cela ne transforme le projet de loi en une charte de censure, les entreprises technologiques se retournant contre le contenu dans la zone grise de l’acceptabilité, comme la satire.

William Perrin, administrateur de l’association Carnegie UK Trust, souhaite que le gouvernement aille plus loin et publie ces pertes prioritaires dans un projet de loi modifié afin que les députés puissent en discuter avant qu’elles ne deviennent loi. “La régulation des médias devrait être indépendante de l’exécutif”, dit-il. “Le gouvernement doit abandonner le pouvoir de définir les contenus nuisibles mais pas illégaux et en parler au parlement.”

Elargir le paysage criminel : autres changements

La clause de dommages-intérêts prioritaires s’applique aux entreprises technologiques dites de catégorie 1, aux grands succès comme Facebook, Instagram, Twitter, YouTube et TikTok. Il y a des appels pour étendre cette liste à des plates-formes plus sophistiquées telles que 4chan et BitChute, qui sont sûres de contenir du contenu préjudiciable.

Philp a également déclaré aux députés le mois dernier qu’il envisageait d’ajouter d’autres infractions à la liste des contenus illégaux – liés à des crimes réels – auxquels toutes les entreprises visées par le projet de loi devraient faire face. La traite des êtres humains et l’esclavage moderne figuraient parmi les infractions pénales que les députés souhaitent inclure. Actuellement, la vente illégale d’armes à feu et les menaces de mort font partie des “crimes prioritaires” inclus dans le projet de loi.

Si vous souhaitez lire la version complète de la newsletter, abonnez-vous pour recevoir TechScape dans votre boîte de réception tous les mercredis.

Leave a Comment