Facebook et un cas de justice privée : la censure contre le protocole RaoultFacebook est un réseau social sur lequel chaque utilisateur peut ouvrir un abonnement gratuit, dénommé "compte", grâce auquel il dispose du moyen de communiquer ses opinions sous forme de texte, d'images ou de vidéos. Il existe aussi d'autres usages qui ne sont pas évoqués ici. L'activité des utilisateurs est fortement encadrée par des moyens humains et d'intelligence artificielle qui permettent à Facebook de prendre des mesures coercitives contre un utilisateur qui ne respecte pas les règles de diffusion ou de conduite édictées par Facebook. On note à ce propos que de nombreux groupes de pression ont mené une guérilla qui a pu mettre en péril le modèle économique des réseaux sociaux comme Facebook en les accusant en justice de violer les lois étatiques qui restreignent partout la libre expression des idées et des opinions. Suite à cette campagne, jamais complètement éteinte, Facebook - comme d'autres réseaux sociaux - a dû mettre en place de moyens de censure sanctionnant les utilisateurs que Facebook juge attenter à ses règles. Depuis, on ne compte plus les comptes utilisateurs sur lesquels des mentions "infamantes" sont déposées par Facebook, suspendus temporairement ou définitivement fermés, rendus inaccessibles au public. Cette situation a conduit à un mouvement général de protestation contre ce qui constitue en pratique une censure souvent extrêmement complète de sorte qu'il n'est presque plus permis de soutenir sur les réseaux sociaux comme Facebook des opinions qui ne reproduisent pas fidèlement les vues des gouvernements et des groupes de pression majoritaire, en général d'obédience progressiste. Et de fait, souvent les opinions conseervatrices ou de gauche sont souvent interdites sur les réseaux sociaux. Pour éviter que l'image de libéralisme ne soit durablement atteinte, Facebook a entendu une objection souvent faite contre son système de censure des comptes utilisateur. En effet, la censure est décidée par Facebook sans débat contradictoire de sorte que la censure Facebook ne répond pas aux critères de droit assurant l'indépendance de a justice. Au début, la chose n'avait pas alerté Facebook d'abord parce que sa censure était principalement destinée à éviter à Facebook de se trouver attrait en justice étatique pour complicité ou commission de délits de presse ou d'opinion. Il semblait à Facebook et aux autres opérateurs de réseaux sociaux que si un compte utilisateur pouvait provoquer sa mise en cause devant un tribunal étatique, Facebook avait le droit et peut être même l'obligation légale de faire cesser le trouble à la loi. Par exemple en fermant le compte utilisateur fautif. L'autre raison est plus difficile à saisir et elle est moins objectivement présentable. En effet, dans les milieux non progressistes - qui ne se limitent pas aux conservateurs, mais sont bien plus larges et probablement majoritaires - il est apparu un consensus largement partagé selon lequel le mouvement progressiste, qui s'est monté sur les ruines de la social-démocratie et du libéralisme alliés, est largement favorisé par les grands patrons de l'industrie et de la finance, et parmi eux, notamment Zuckerberg, le propriétaire de Facebook. Or, la censure de Facebook et des autres réseaux sociaux est manifestement destinée à assurer le triomphe des motions progressistes. Je n'en dirai rien de plus ici, mais, ceci explique l'importance qu'a prise la censure sur Facebook, mais aussi sur d'autres réseaux sociaux comprenant Twitter et Reddit. Analysant que ce caractère partisan de la censure sur Facebook ruinait l'image de "libéralisme" que le réseau social voulait à tout prix sauvegarder, Facebook a instauré un "Oversight Board", une sorte de "cour d'appel" de ses décisions de censure des comptes utilisateur. Une "cour d'appel" que Facebook a conçu comme indépendante. Cette indépendance était très attendue par les mouvements non-progressistes parce que la censure, notamment pendant la pandémie à Covid-19, a pris une extension toujours grandissante. Elle ne touche plus essentiellement des particuliers dont le compte est suivi par quelques dizaines de "lecteurs", mais aussi par des organes de presse qui ont parfois plusieurs centaines de miliers de "followers" et plus. Malheureusement, la seule "preuve d'indépendance" possible est celle de la contestation et le "Oversight Board" était attendu. Et la première décision - ou peu s'en faut - a été le renversement de la décision de censure de Face book dans une affaire : Case Decision 2020-006-FB-FBR, que l'Oversight Board a poussé l'obligeance jusqu'à publier dans une version en français : Pour lire l’intégralité de la décision en français, veuillez cliquer ici. L"Oversight Board" écrit : 2. Description de l’affaire Deux questions ont agitées l'opinion publique sur la base de la censure du compte de cet utilisateur :
L'Oversight Board dégage bien l'existence sous-jacente de ces deux questions, lorsqu'il constate :
En réalité, et l'Oversight Board le constate aussi, Facebook a une opinion claire concernant le sujet traité par l'utilisateur censuré :
... et cette opinion claire se dissimule derrière les "experts" et plus généralement derrière la tension entre "les fausses déclarations" alléguées et les "informations vérifiées", en pratique des "informations" identifiées par Facebook. Ce sont ces "fameuses informations vérifiées" que Facebook invoque lorsqu'il réfère à l'OMS et à des experts de premier plan. En réalité, ces "informations vérifiées" n'acquièrent la valeur sacrée que parce qu'elles appartiennent à la doxa progressiste. Or, l'OMS et des experts de premier plan sont tous par nature contestables en matière tant scientifique que médicale et, dans le cours de la pandémie Covid, les erreurs commises par l'OMS et les experts qui ont soutenu les motions du progressisme sont maintenant connues. Bien entendu, ce ne sont pas ces raisons qui conduisent la décision de l'Oversight Board. Il s'est fondé sur la Charte des utilisateurs de Facebook et sur les textes protégeant les droits de l'homme produit par les Nations Unis. Si l'Oversight Board s'était impliqué dans la détermination de la vérité et de l'erreur, il aurait probablement échoué en droit à fonder son jugement. Aussi, il semble préférable de ne pas le mettre en cuase de ne pas avoir donné raison à l'opinion de l'utilisateur censuré, mais de se limiter au respect de textes juridiques qui s'imposent. Il est juste dommage que ces textes juridiques en puissent être reconnues immédiatement comme indiquant la vérité et l'erreur en matière d'opinion. On note combrien un dogme s'établit avant toute action de censure. Le "Oversight Board" indique un peu plus loin dans son analyse : Facebook a déclaré que la publication constituait une désinformation, car elle affirmait qu’il existait un remède contre la COVID-19 alors que l’OMS et les principaux experts en santé avaient relevé qu’il n’en existait pas. Le fait qu'"un remède contre la Covid-19 existe" est, selon Facebook, une désinformation, non pas parce qu'elle est scientificquement erronnée, mais parce qu'elle va contre l'information concurrente de l'OMS et de ses experts : "il n'existe pas de remède contre la Covid-19". Or cependant, l'efficacité d'un remède contre une maladie est essentiellement une information scientifique. Or, s'il est exact que l'OMS et ses experts affirment : "il n'existe pas de remède contre la Covid-19", l'information critiquée par Facebook n'est pas que l'OMS et ses experts ont prétendue qu'elle est scientifiquement erronnée, mais seulement que Facebook estime qu'il s'agit d'une "désinformation" parce qu'elle n'est pas conforme à l'information contraire créditée à l'OMS et ses experts. Sans aucune référence vérifiable d'ailleurs. Le débat sur l'information permise par Facebook n'est donc pas sur le fait qu'elle soit "juste" ou erronnée". Il porte exclusivement sur le fait qu'elle est ou qu'elle n'est pas conforme aux "informations" de l'OMS et de ses experts. Or, le problème que rencontre Facebook, et à travers lequel le "Oversight Board" vont passer sans le relever, c'est que le débat sur la conformité d'une information est étranger au débat des idées. Il ne peut pas concerner la liberté d'opinions et la liberté d'expression. Il ne concerne que celui d'un régime dictatorial établissant une "conformité des informations". D'un autre point de vue du même problème, on peut estimer que Facebook, et probablement son "Oversight Board" qui l'a pourtant démenti, se sont trompés de contentieux. En attaquant l'utilisateur qui préférait le protocole Raoult aux certitudes ignorantes du gouvernement français qui adhère aux erreurs de l'OMS et de ses experts, Facebook a voulu lui appliquer un devoir qui pèse sur un organe de presse d'informations. En exigeant que l'information produite par un organe de presse d'information soit une information vérifiée aux meilleurs sources, comme celles de l'OMS ou des experts, Facebook croit qu'il oblige ainsi ses utilisateurs à respecter la liberté d'opinion. C'est bien entendu complètement faux. L'opinion censurée de l'utilisateur de Facebook n'est pas une information "non vérifiée aux meilleures sources". C'est une opinion et absolument pas une "information" telle celle produite par un organe de presse d'information. Et qualifier une opinion de désinformation, comme le fait Facebook, c'est faire une méprise mortelle à la liberté de pensée. La différence qui existe entre une information délivrée par un organe de presse d'information, et l'opinion d'un homme auquel est garanti, par les Conventions internationales, la liberté d'opinions. Malheureusement, l'extrême médiocrité des milieux qui animent les entreprises comme Facebook et bien d'autres lieux leur interdit de mener des analyses pertinentes. L'"Oversight Board" de Facebook s'engage sur une bien mauvaise piste quand, croyant défendre la liberté d'opinion de l'utilisateur censuré, il écrit : Décider si les fausses informations contribuent au standard de danger « imminent » propre à Facebook demande une analyse de divers facteurs contextuels Fort heureusement pour l'utilisateur censuré, l'"Oversight Board" conclut quand même : Facebook n’a fourni aucun facteur contextuel pour étayer la conclusion selon laquelle cette publication particulière répondrait à son propre standard de danger imminent. Facebook n’a donc pas respecté son Standard de la communauté. Pourtant, un peu plus loin, l'"Oversight Board" remarque : Le Conseil fait également remarquer que cette affaire soulève d’importantes questions de distinction entre opinion et fait ... Malheureusement, n'ayant pas analysée la différence entre une information destinée à être vérifiée - chose que l'"Oversight Board" confond à tort avec un "fait" - et une opinion, l'"Oversight Board" va lui aussi continuer à faire porter sur l'opinion publique les "obligations" arbitraires que tous ces gens croient nécessaires à la presse d'information : L’utilisateur soulève une question d’intérêt public, même s’il invoque et promeut une opinion minoritaire au sein de la communauté médicale. Le fait qu’une opinion reflète des points de vue minoritaires ne la rend pas moins digne de protection. Le débat qu'évoque le "Oversight Board" serait très intéressant s'il opposait Facebook à un organe de presse d'informations qui se serait fourvoyé à produire une information "non vérifiée". Pourtant, ce n'est pas le sujet. L'"Oversight Board" d'ailleurs se trompe sur le critère "majoritaire / minoritaire" concernant la vérité en matière de sciences ou d'informations. Mais il s'agit d'un autre débat. Passons. L'"Oversight Board" écrit ainsi : Facebook doit montrer que sa décision de supprimer du contenu a rempli les conditions de légalité, de légitimité et de nécessité. Le Conseil (Oversight Board) examine la suppression par Facebook de la publication de l’utilisateur à la lumière de ces trois critères. et il analyse laborieusement le respect de ces trois critères. Après avoir de manière probablement erronnée, conclu au défaut de légalité de la censure de Facebook, l'"Oversight Board" indique : Le critère de légitimité prévoit que la suppression de la publication par Facebook doit servir un objectif d’intérêt public légitime ... Nous estimons que l’objectif de Facebook de protéger la santé publique pendant une pandémie mondiale a satisfait à ce critère. Cette analyse est parfaitement contestable dans la mesure où justement, la position de l'OMS et des experts concernant l'absence de traitement de la Covid-19 est absolument erronnée et ce caractère erronné était connu bien avant la date d'écriture de son opinion par l'utilisateur ultérieurement censuré. Quelle légitimité peut avoir une décision qui protège une information scientifiquement erronnée qui a mis en danger la vie de milliards d'humains par l'instauration de politiques sanitaires erronnées ? Enfin, l'"Oversight Board" constate que le critère de nécessité est aussi défaillant. Et l'"Oversight Board" conclut avec un : Le Conseil de surveillance (l'"Oversifght Board") a décidé d’annuler la décision de Facebook de supprimer la publication en question. qui remplira d'allégresse les tenants de la liberté d'expression, mais transforme l'opinion publique en haut parleur des "informations vérifiées" produites par l'OMS et les experts, ce qui est une catastrophe au sujet des droits de l'homme. En effet, l'"Oversight Board" se prête à plusieurs préconisations pour Facebook. Il écrit notamment : Le Conseil (Oversight Board) recommande à Facebook de mettre en oeuvre un Standard de la communauté clair et accessible concernant la désinformation en matière de santé "Ils" n'ont strictement rien compris à l'opinion publique, mais aussi à l'opinion qu'un utilisateur non professionnel de Facebook estime pouvoir afficher sur "son" Facebook et exprimer sans aucune contrainte autre que celles que les Conventions internationales ont établies sur la liberté d'expression et la liberté d'opinion. Or, en qualifiant certaines opinions de "désinformation", l'"Oversight Board" et Facebook portent atteinte gravement à ces droits de l'Homme, absolument essentiels, tout en affirmant - en s'aveuglant - qu'is les respectent. L'erreur de Facebook et de son "Oversight Board" est donc double : ils méconnaissent la liberté d'opinion, et ils confondent la désinformation avec la non conformité d'une information. C'est extrêmement préoccupant. |