Comment Biden peut prendre la route de la désinformation

Au cours de ses dernières semaines au pouvoir, le président Trump a creusé dans ses talons le projet de loi annuel sur les dépenses de défense, promettant de mettre son veto à la législation sur le refus du Congrès d’annuler les protections juridiques des plateformes Internet. Aussi absurde que soit l’insistance de Trump, cela ne devrait pas être surprenant. Tout au long de son mandat, Trump a menacé les plateformes par le biais de tweets et d’actions de la direction, cherchant à obtenir un traitement plus favorable des médias et des politiciens de droite – et sapant les efforts de nettoyage de l’écosystème de l’information en ligne depuis 2016.

Alors que le président élu Biden adoptera certainement une approche distincte de celle du président Trump, on ne sait pas encore ce que ce sera. «Je n’ai jamais été fan de Facebook», a déclaré Biden au comité de rédaction du New York Times pendant la campagne. Récemment, Bill Russo, responsable de la campagne Biden, a sévèrement critiqué Facebook pour sa gestion des publications de l’ancien conseiller de Trump, Steve Bannon. Bien que cette frustration soit compréhensible, Biden devrait s’abstenir de se concentrer étroitement sur les griefs individuels. Au lieu de cela, la meilleure approche consiste à adopter une vision plus large et fondée sur des principes. Biden devrait envisager l’idée d’un devoir de diligence systémique, selon lequel les plateformes dépendent des connexions sociales de leurs utilisateurs et sont donc obligées de réduire les préjudices en ligne pour ces utilisateurs. Enraciné dans cette théorie, il peut faire pression sur les plateformes pour qu’elles prennent des mesures plus audacieuses contre la désinformation.

Trump n’a pas été subtil dans sa dénonciation des entreprises de médias sociaux pour prétendu préjugé contre la droite. Il a affirmé à plusieurs reprises que les plateformes technologiques « faire taire totalement les voix des conservateurs« Et qu’il y a »De grandes attaques contre les républicains et les conservateurs par les médias sociaux. » Bien sûr, ce n’est pas vrai. Une analyse réalisée conjointement par Politico et l’Institute for Strategic Dialogue suggère qu ‘«un petit nombre d’utilisateurs conservateurs dépassent régulièrement leurs rivaux libéraux et les médias traditionnels dans la conduite de la conversation en ligne». Une analyse de neuf mois du chien de garde des médias de gauche Media Matters n’a pas non plus trouvé de preuve de censure conservatrice.

Mais Trump n’a pas complètement tort. Lui et ses partisans reçoivent un traitement différent, car ils sont responsables d’une part extrêmement disproportionnée de désinformation en ligne. Une étude académique de plus d’un million d’articles a suggéré que Trump lui-même était le «principal moteur de l’infodémie de désinformation COVID-19». Un document de travail du Berkman Klein Center a également révélé que Trump était particulièrement responsable de la diffusion de la désinformation sur le courrier. dans la fraude électorale. Des recherches similaires font également valoir que les médias de droite sont de plus en plus isolés des normes et des faits journalistiques. Ce flux de désinformation a conduit à de modestes interventions de la part des plateformes, y compris l’étiquette tiède «contestée» de Twitter qui balisait les allégations de fraude électorale et le retrait par Facebook de pages pour plusieurs groupes dédiés à la désinformation électorale (bien que de nombreux autres groupes restent).

Trump a répondu en dénonçant les interventions modestes des plates-formes comme preuve d’un biais supplémentaire. En plus de ses tweets, il a signé un décret sur la «prévention de la censure en ligne» et a chargé la Federal Communications Commission de clarifier les protections fédérales pour les entreprises de médias sociaux. Ces actions peuvent avoir influencé la prise de décision des plateformes, bien que les incitations économiques à autoriser un contenu politique à fort engagement jouent également un rôle. Par exemple, à la fin de 2017, les dirigeants de Facebook ont ​​envisagé, mais ont ensuite rejeté, des changements algorithmiques qui auraient réduit la propagation de sites Web d’actualités hyperpartisanes comme le Daily Wire – en modifiant plutôt l’algorithme d’une manière qui a nui au trafic vers des sites Web comme Mother Jones, un site médiatique progressif qui produit également un travail journalistique traditionnel. Cela s’inscrit dans un modèle de comportement apparent dans lequel Facebook évite d’interférer avec un contenu de droite qui enfreint les règles énoncées par la plate-forme, même en raison des protestations de ses propres employés.

De toute évidence, Trump a poursuivi cette stratégie pour des raisons politiques. Mais ses suggestions sur la façon dont les plates-formes devraient se comporter correspondent approximativement à une nouvelle théorie de la régulation de la parole sur Internet appelée la doctrine d’équité en ligne, proposée principalement par le sénateur républicain Josh Hawley. Ce concept serait une adaptation de la doctrine originale de l’équité, qui, de 1949 à 1987, exigeait que les radiodiffuseurs consacrent du temps d’antenne à des points de vue opposés sur des questions controversées d’importance publique. Dans la proposition de Hawley, les plateformes en ligne perdraient les garanties de responsabilité juridique à moins qu’elles ne soient certifiées par la Federal Trade Commission comme politiquement neutres. Comme mon collègue John Villasenor l’a écrit, la doctrine d’équité en ligne «suggère une opinion selon laquelle les entités privées devraient être obligées de servir de véhicules neutres du point de vue de la diffusion du« discours du gouvernement ».»

Ce raisonnement pourrait sembler une solution aux luttes politiques actuelles sur le rôle des plates-formes, mais en pratique, cela profiterait à Trump et à ses partisans. Exiger des plateformes qu’elles soient neutres à l’égard de tout discours politique, indépendamment de sa véracité et de son potentiel de préjudice, permettrait systématiquement au parti politique le plus malhonnête. Par exemple, cela empêcherait les plates-formes de prendre des mesures contre les fausses déclarations de victoire électorale de Trump – une limitation dangereuse dans un environnement où 48% des partisans de Trump ont déclaré après les élections qu’ils s’attendaient à ce que Trump prête serment pour un deuxième mandat, malgré Victoire décisive du président élu Biden au collège électoral.

Mais la notion de doctrine d’équité en ligne n’est pas le seul cadre intellectuel disponible pour la relation du gouvernement avec les plateformes. Biden a la possibilité d’adopter une approche différente de celle de son prédécesseur, en travaillant avec et en faisant pression sur les plates-formes pour favoriser un discours en ligne plus sain. Biden n’a pas encore dit grand-chose sur ces questions, bien qu’il ait signalé une ouverture à l’abrogation des protections juridiques pour les plates-formes. Mais une abrogation de l’article 230 du Communications Decency Act nécessite une action du Congrès et serait une intervention dramatique potentiellement en décalage avec l’approche plus prudente que Biden a promis pour son administration. Limiter l’article 230 n’affecterait de toute façon que le contenu illégal, et non la désinformation, et Biden a donc besoin d’une approche à la fois plus tempérée et efficace.

Les grandes plates-formes sont désormais de facto des places publiques de la conversation nationale. Ils sont ancrés dans ce rôle, et donc capables de réaliser des bénéfices, en partie parce qu’ils sont construits sur des relations sociales réelles et des données et contenus fournis par les utilisateurs. Tout comme les chaînes d’approvisionnement privées dépendent des routes et des ponts publics, les plates-formes privées dépendent des connexions publiques. L’importance centrale des plateformes, ainsi que leur dépendance structurelle vis-à-vis des relations de leurs utilisateurs, s’accompagne d’une responsabilité vis-à-vis du discours national.

Cette approche est analogue à une obligation systémique de diligence – un concept juridique proposé par les experts réglementaires britanniques Lorna Woods et William Perrin, selon lesquels les plateformes sont évaluées en fonction de leurs efforts holistiques pour améliorer la modération du contenu. Le mot «systémique» est ici important. Il souligne que les plates-formes ne doivent pas être indûment tenues pour responsables de la prévention de toute désinformation, discours de haine ou menace de violence – malheureusement une norme déraisonnable pour toute combinaison de modération algorithmique et humaine du contenu. Au lieu de cela, les plates-formes devraient être tenues pour responsables en fonction de leur capacité à contrôler la diffusion de contenus préjudiciables à un niveau systémique large.

En théorie, une obligation systémique de diligence est appuyée par un organisme de réglementation habilité à infliger des amendes pour des mesures insuffisantes contre le contenu illégal. Cela a été précisé de manière plus explicite dans le livre blanc du Royaume-Uni sur les préjudices en ligne, qui sera inscrit dans la législation en 2021. Quoi qu’il en soit, il n’existe actuellement aucun régulateur de ce type aux États-Unis. D’anciens représentants du gouvernement ont suggéré d’autonomiser la Federal Trade Commission, tandis que d’autres font la promotion d’une nouvelle agence, mais aucune action ne semble imminente. Pour compliquer davantage l’idée, si la grande majorité de la désinformation est nuisible, elle est également protégée par le premier amendement.

Mais ce n’est pas une raison pour écarter complètement une obligation systémique de diligence. Même sans mécanismes d’application de la loi, Biden pourrait toujours essayer de faire progresser le mandat de l’obligation systémique de diligence grâce à des efforts de collaboration de bonne foi avec des entreprises technologiques. Au cours de la campagne présidentielle, l’équipe de Biden a proposé un nouveau groupe de travail national sur les abus en ligne, visant en particulier les méfaits contre les femmes, tels que les deepfakes, la pornographie de vengeance et les agressions sexuelles. Une approche fondée sur le consensus peut également donner des résultats de désinformation, en particulier avec les plates-formes plus proactives, telles que Pinterest, Twitter et Google Search.

D’autres plates-formes peuvent nécessiter plus d’invites. Une estimation approximative suggère que la désinformation sur la santé a généré des milliards de vues sur Facebook en un an. Rien qu’en novembre, les vidéos YouTube soutenant les allégations de fraude électorale lors des élections présidentielles de 2020 ont recueilli près de 200 millions de vues.

Les actions que les plateformes peuvent entreprendre pour améliorer leurs systèmes ne manquent pas. Ils peuvent fournir un contexte supplémentaire à partir de sources faisant autorité, telles que les Centers for Disease Control and Prevention on Health Issues, la Cybersecurity and Infrastructure Security Agency et les responsables électoraux des États pour les informations de vote, le FBI pour les messages des organisations terroristes et la vérification indépendante des faits pour théories du complot. Lorsque les sites Web font la promotion répétée et flagrante de fausses informations dangereuses, ils devraient être déclassés dans les recherches et la diffusion algorithmique.

Les plateformes devraient également rendre plus de données disponibles pour la recherche en sciences sociales, qui a le potentiel de mieux identifier les problèmes et d’offrir de nouvelles solutions. Si les plates-formes hésitent à le faire par crainte d’une responsabilité en matière de confidentialité, Biden pourrait proposer au Census Bureau en tant qu’interlocuteur de conserver en toute sécurité et de permettre aux chercheurs d’accéder à ces ensembles de données privés.

Les plates-formes devraient également utiliser des outils qui ne sont pas trop spécifiques au contenu, tels que l’inoculation, l’éducation et la friction. L’inoculation fonctionne en utilisant des messages d’avertissement pour mettre les gens en garde contre la désinformation. Les utilisateurs de Twitter ont vu des frictions en action autour de l’élection, lorsque le site a encouragé les utilisateurs à lire des articles avant de retweeter. Bien qu’il soit clair que ces stratégies fonctionnent, elles réduisent également légèrement l’engagement des utilisateurs, et les entreprises de médias sociaux ont donc été réticentes à les employer. Une pression ciblée de l’administration Biden peut aider à modifier ce calcul, faisant de petits changements dans l’engagement sembler l’option la plus simple.

Biden, qui hérite d’une enquête antitrust sur Facebook par la Federal Trade Commission et d’un procès du ministère de la Justice contre Google, aura certainement l’attention des grandes plateformes. Le Congrès peut encore adopter une législation pour freiner la Big Tech, et les entreprises technologiques peuvent donc être désireuses de montrer leur volonté de coopérer avec la nouvelle administration. Enfin, l’opinion publique compte: le boycott des consommateurs, la syndicalisation des employés et la capacité d’attirer des diplômés en informatique en tant que nouveaux employés ont tous une incidence sur le fonctionnement de ces entreprises.

Les États-Unis sont au milieu d’une crise informationnelle rendue encore plus désastreuse par la pandémie de coronavirus et l’affaiblissement de la démocratie. Bien que les plates-formes Internet ne soient pas seules responsables de ce fléau, elles ont la capacité d’améliorer l’écosystème de l’information via leurs sites Web. À travers le prisme du devoir systémique de diligence, le président Biden devrait indiquer clairement qu’ils ont l’obligation de le faire.

Vous pourriez également aimer...