Jeudi dernier, lors d’une audition en commission au Parlement, la députée verte néo-zélandaise Golriz Ghahraman a demandé des nouvelles lois sur la modération des contenus pour Facebook. Au cours de la réunion, Mia Garlick et Nick McDonnell, les deux directeurs régionaux de la politique publique de Facebook pour l’Australie, la Nouvelle-Zélande et pour le Pacifique, ont fait leur première apparition devant le comité restreint de la justice afin de discuter du sujet en question.
Ghahraman a remis en question le monopole de Facebook sur le processus décisionnel depuis le scandale de Cambridge Analytica. En 2018, des entrepreneurs et des employés de Cambridge Analytica auraient vendu des profils psychologiques d’électeurs américains à des campagnes politiques, qu’ils avaient acquis grâce aux données privées de millions d’utilisateurs de Facebook. Étant la plus grande fuite de l’histoire de Facebook, le scandale de Cambridge Analytica a mis en avant la question dominante que se posent les décideurs politiques et aux les universitaires aujourd’hui : qui doit gouverner ces plateformes, et comment.
Ghahraman a appelé à la fin de la vision et de l’approbation de Facebook uniquement en tant que fournisseur de contenu intermédiaire neutre. “Je pense que le temps où nous vous traitions comme le messager plutôt que comme l’éditeur est révolu, a déclaré Ghahraman au Parlement. Vous êtes l’éditeur, et nous demandons des comptes aux éditeurs d’une manière très différente dans les espaces en ligne.” En effet, à partir d’aujourd’hui, Facebook et d’autres géants des plateformes de médias sociaux peuvent modérer le contenu comme ils l’entendent en raison de l’article 230 de la loi sur la décence des communications aux États-Unis, où il est indiqué qu‘ “aucun fournisseur […] ne doit être traité comme l’éditeur ou le locuteur de toute information fournie […]”.
Cette disposition s’est avérée très problématique ces dernières années, car les plateformes en viennent à jouer un rôle prépondérant dans de nombreux pays démocratiques, sans la transparence ou la responsabilité qui s’imposent dans ces sociétés. Ghahraman a appelé à de nouvelles politiques de modération et à une prise de décision partagée avec les gouvernements pour concilier ces notions avec les compagnies de médias sociaux. “Nous avons une compagnie multinationale, multimilliardaire, qui prend des décisions concernant la liberté d’expression et notre démocratie, mais nous n’avons pas de directives claires sur la façon dont elle applique ces normes, a déclaré Ghahraman. Nous vivons dans ces espaces en ligne, maintenant, et nous avons toutes sortes de lois qui criminalisent les discours menaçants, qui réglementent les discours diffamatoires, et d’une certaine manière, nous ne traitons pas ces espaces en ligne comme étant responsables de la même manière”.
Garlick a expliqué au Parlement que les normes communautaires et les rapports d’engagement de Facebook sont rendus publics et sont régulièrement mis à jour sur leur centre de transparence. “Alors que nous nous améliorons dans la détection et la suppression des faux comptes ou d’autres activités malveillantes sur nos services, les gens essaieront de détourner le système et de chercher de nouveaux moyens de contourner cela, et c’est donc un processus en constante évolution pour nous d’identifier les nouvelles façons dont les gens tentent d’abuser de nos services afin que nous puissions prendre de l’avance à la fois pour savoir si nous devons mettre à jour les politiques ou investir davantage dans la technologie”, a déclaré Garlick.
Bien que les responsables de Facebook aient assuré qu’ils ont travaillé et travaillent encore sur cette question, Ghahraman a déclaré qu’elle restait “insatisfaite”, et a comparé le traitement de la Nouvelle-Zélande à celui de l’Allemagne. “Je sais que dans le système européen, en particulier en Allemagne, ils ont un moyen bien plus efficace d’assurer la sécurité lorsque les utilisateurs accèdent à Facebook, lorsqu’il s’agit d’extrémisme. En effet, une amende de 50 millions d’euros s’applique à Facebook en cas d’infraction à la législation sur les discours haineux”, a déclaré Ghahraman, faisant référence au code de conduite allemand strict à ce sujet. “La principale différence avec l’Allemagne est que nous sommes déterminés à exiger l’illégalité du contenu, ce qui, je pense, n’est pas un endroit où nous sommes à l’aise. Mais il n’y a certainement aucune différence dans la manière dont nous élaborons nos politiques et les appliquons. Nous avons des normes mondiales et, si la loi d’un pays particulier fixe une norme différente, nous restreindrons l’accès au contenu qui est conforme à nos normes, mais pas à la loi locale”, a expliqué Garlick.
Selon Ghahraman, Facebook ne devrait pas être le seul modérateur du contenu et de la vie privée. “Je ne pense pas qu’il faille laisser l’entreprise s’auto-gouverner”, a soutenu Ghahraman. Cette position a été soutenue par d’autres parties du gouvernement néo-zélandais, puisque Kris Faafoi, le ministre de la justice et ministre de la radiodiffusion et des médias, a également déclaré qu’il était ouvert à une collaboration avec les Verts sur la législation liée aux élections. “Nous avons un accord de coopération avec les Verts pour examiner les lois électorales, donc je suis heureux de travailler avec eux sur ce point, a déclaré Faafoi à NewsroomNZ la semaine dernière. Je pense que Facebook et d’autres plateformes de médias sociaux pourraient faire un peu mieux en termes de rapidité de démantèlement de certaines de leurs fausses informations – et pas seulement en termes de lois électorales”, a déclaré M. Faafoi, qui partage son inquiétude avec la députée verte Ghahraman.
Cet appel à une nouvelle législation sur la réglementation des plateformes en Nouvelle-Zélande trouvera un écho dans d’autres pays occidentaux, comme le réclament depuis quelques années les universitaires en sciences politiques et en études de la communication, qui espèrent ainsi donner l’exemple aux autres pays du monde.