Deux affaires de la Cour suprême qui pourraient casser Internet

En février, la Cour suprême entendra deux affaires – Twitter c. Taamneh et Gonzalez c. Google – qui pourraient modifier la façon dont Internet est réglementé, avec des conséquences potentiellement importantes. Les deux affaires concernent l’article 230 du Communications Decency Act de 1996, qui accorde l’immunité légale aux plateformes Internet pour les contenus postés par les utilisateurs. Les plaignants dans chaque cas soutiennent que les plateformes ont violé les lois fédérales antiterroristes en permettant au contenu de rester en ligne. (Il y a une exception à l’article 230 pour le contenu qui enfreint la loi fédérale.) Pendant ce temps, les juges décident d’entendre deux autres affaires – concernant des lois au Texas et en Floride – sur la question de savoir si les fournisseurs d’accès Internet peuvent censurer le contenu politique qu’ils jugent offensant ou dangereux. Les lois ont émergé des allégations selon lesquelles les fournisseurs supprimaient les voix conservatrices.

Pour parler de la façon dont ces cas pourraient changer Internet, j’ai récemment parlé par téléphone avec Daphne Keller, qui enseigne à la Stanford Law School et dirige le programme sur la réglementation des plates-formes au Cyber ​​Policy Center de Stanford. (Jusqu’en 2015, elle a travaillé comme avocate générale associée chez Google.) Au cours de notre conversation, qui a été modifiée pour plus de longueur et de clarté, nous avons discuté de ce que fait réellement l’article 230, des différentes approches que la Cour peut adopter pour interpréter la loi et pourquoi chaque forme de régulation par les plateformes a des conséquences imprévues.

Dans quelle mesure les gens devraient-ils être préparés à ce que la Cour suprême modifie en profondeur le fonctionnement d’Internet ?

Nous devrions être prêts à ce que la Cour modifie beaucoup le fonctionnement d’Internet, mais je pense qu’ils pourraient aller dans tellement de directions différentes qu’il est très difficile de prédire la nature du changement ou ce que quiconque devrait faire en prévision de celui-ci.

Jusqu’à présent, les plates-formes Internet pouvaient permettre aux utilisateurs de s’exprimer assez librement, pour le meilleur ou pour le pire, et elles bénéficiaient d’une immunité de responsabilité pour de nombreuses choses que leurs utilisateurs disaient. Il s’agit de la loi familièrement connue sous le nom de section 230, qui est probablement la loi la plus mal comprise, mal rapportée et détestée sur Internet. Il offre une immunité contre certains types de réclamations pour responsabilité de plate-forme basées sur le discours de l’utilisateur.

Ces deux cas, Taamneh et Gonzalez, pourraient tous deux modifier cette immunité de plusieurs manières. Si vous regardez juste Gonzalez, qui est le cas qui concerne carrément l’article 230, le demandeur demande à la Cour de dire qu’il n’y a pas d’immunité une fois qu’une plate-forme a fait des recommandations et fait un ciblage personnalisé du contenu. Si la Cour se sentait contrainte de répondre uniquement à la question posée, nous pourrions être confrontés à un monde où les plateformes seraient soudainement tenues responsables pour tout ce qui se trouve dans un fil d’actualité classé, par exemple, sur Facebook ou Twitter, ou pour tout ce qui est recommandé sur YouTube, c’est de cela qu’il s’agit dans l’affaire Gonzalez.

S’ils perdaient l’immunité qu’ils ont pour ces fonctionnalités, nous constaterions soudainement que les parties les plus utilisées des plates-formes Internet ou des endroits où les gens vont réellement voir le discours des autres utilisateurs sont soudainement très verrouillés, ou très limités aux seuls les plus sûrs contenu. Peut-être que nous n’obtiendrions pas des choses comme un mouvement #MeToo. Peut-être que les vidéos de tirs de la police ne seraient pas vraiment visibles et se répandraient comme une traînée de poudre, car les gens les partagent et elles apparaissent dans les fils d’actualité classés et sous forme de recommandations. Nous pourrions voir un très grand changement dans les types de discours en ligne qui sont disponibles sur ce qui est essentiellement la première page d’Internet.

L’avantage est qu’il y a un discours vraiment terrible, affreux et dangereux en cause dans ces cas. Les affaires concernent des plaignants dont des membres de la famille ont été tués dans État islamique attaques. Ils cherchent à faire disparaître ce type de contenu de ces flux et recommandations. Mais de nombreux autres contenus disparaîtraient également d’une manière qui affecterait les droits d’expression et aurait des impacts différents sur les groupes marginalisés.

Ainsi, les arguments des plaignants se résument à cette idée que les plateformes Internet ou les entreprises de médias sociaux ne se contentent pas de laisser passivement les gens publier des choses. Ils les conditionnent et utilisent des algorithmes et les mettent en avant de manière spécifique. Et donc ils ne peuvent pas simplement se laver les mains et dire qu’ils n’ont aucune responsabilité ici. Est-ce exact?

Ouais, je veux dire, leur argument a radicalement changé, même d’un mémoire à l’autre. C’est un peu difficile à cerner, mais c’est quelque chose de proche de ce que vous venez de dire. Les deux groupes de demandeurs ont perdu des membres de leur famille dans État islamique attaques. Gonzalez est allé jusqu’à la Cour suprême pour poser une question sur l’immunité en vertu de l’article 230. Et l’autre, Taamneh, est allé jusqu’à la Cour suprême pour poser une question du type : s’il n’y avait pas d’immunité, les plateformes seraient-elles responsables en vertu de la loi sous-jacente, qui est la Loi antiterroriste?

Il semble que vous craigniez vraiment que ces entreprises ne soient tenues responsables de tout ce qui est publié sur leurs sites.

Absolument. Et aussi qu’ils soient responsables de tout ce qui est une partie classée et amplifiée ou formée de manière algorithmique de la plate-forme, car c’est fondamentalement tout.

Les conséquences semblent potentiellement néfastes, mais, en tant qu’idée théorique, il ne me semble pas fou que ces entreprises soient responsables de ce qui se trouve sur leurs plateformes. Pensez-vous de cette façon ou pensez-vous qu’il est en fait trop simpliste de dire que ces entreprises sont responsables?

Je pense qu’il est raisonnable d’imposer la responsabilité légale aux entreprises si c’est une chose à laquelle elles peuvent faire du bon travail. Si nous pensons que la responsabilité légale peut les amener à identifier avec précision les contenus illégaux et à les supprimer, c’est à ce moment-là qu’il est logique de leur imposer cette responsabilité. Et il y a certaines situations en vertu de la loi américaine où nous imputons cette responsabilité aux plateformes, et je pense à juste titre. Par exemple, pour le matériel d’abus sexuels sur des enfants, il n’y a aucune immunité en vertu de la loi fédérale ou de l’article 230 contre les poursuites pénales fédérales. L’idée est que ce contenu est si incroyablement nocif que nous voulons mettre la responsabilité sur les plateformes. Et c’est extrêmement identifiable. Nous ne craignons pas qu’ils suppriment accidentellement tout un tas d’autres discours importants. De même, en tant que pays, nous choisissons de donner la priorité au droit d’auteur comme un préjudice auquel la loi répond, mais la loi met en place un tas de processus pour essayer d’empêcher les plateformes de supprimer bon gré mal gré tout ce qui est risqué, ou où quelqu’un fait une accusation.

Il y a donc des situations où nous imputons la responsabilité aux plateformes, mais il n’y a aucune bonne raison de penser qu’elles feraient un bon travail d’identification et de suppression du contenu terroriste dans une situation où l’immunité disparaît tout simplement. Je pense que nous aurions toutes les raisons de nous attendre, dans cette situation, à ce qu’un tas de discours licites sur des choses comme l’intervention militaire américaine au Moyen-Orient ou la politique d’immigration syrienne disparaissent, car les plateformes craindraient que cela puisse créer une responsabilité. Et le discours qui disparaît viendrait de manière disproportionnée de personnes parlant l’arabe ou parlant de l’islam. Il y a cet ensemble de problèmes très prévisibles liés à l’imposition de cet ensemble particulier de responsabilités juridiques aux plateformes, compte tenu des capacités dont elles disposent actuellement. Peut-être y aura-t-il un monde futur où il y aura une meilleure technologie ou une meilleure implication des tribunaux pour décider ce qui se passera, ou quelque chose de tel que l’inquiétude concernant les conséquences imprévues diminue, et nous voudrons alors imposer les obligations aux plates-formes. Mais nous n’en sommes pas là maintenant.

Comment l’Europe a-t-elle traité ces problèmes ? Il semble qu’ils fassent pression sur les entreprises technologiques pour qu’elles soient transparentes.

L’Europe a récemment eu la situation juridique que ces plaignants demandent. L’Europe avait une loi importante qui régissait la responsabilité des plates-formes, qui a été promulguée en 2000. Elle s’appelle la directive sur le commerce électronique. Et il avait cette idée très directe que si les plateformes “savaient” qu’il y avait un contenu illégal, alors elles devaient le supprimer afin de préserver l’immunité. Et ce qu’ils ont découvert, sans surprise, c’est que la loi a conduit à de nombreuses accusations de mauvaise foi de la part de personnes essayant de faire taire leurs concurrents ou des personnes avec lesquelles ils ne sont pas d’accord en ligne. Cela conduit les plates-formes à vouloir supprimer beaucoup trop de choses pour éviter les risques et les inconvénients. Et donc les législateurs européens ont révisé cela dans une loi appelée la loi sur les services numériques, pour se débarrasser ou au moins essayer de se débarrasser des risques d’un système qui dit aux plateformes qu’elles peuvent se protéger en faisant taire leurs utilisateurs.

Leave a Comment