Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

Désinformation en temps de crise : liberté et discipline des plateformes

11 décembre 2020 par binaire Coopérer 492 visites 0 commentaire

Un article repris de https://www.lemonde.fr/blog/binaire...

Nous sommes confrontés à la désinformation sur les réseaux sociaux. Le sujet est tout sauf simple : qu’on modère trop et on porte atteinte à la liberté d’expression ; pas assez, et on laisse les fakenews se propager et mettre en cause les valeurs de notre société. Alors, qui doit dire le vrai du faux et selon quels principes ? Emmanuel Didier, Serena Villata, et Célia Zolynski nous expliquent comment concilier liberté et responsabilité des plateformes. Serge Abiteboul & Antoine Rousseau
Cet article est publié en collaboration avec theconversation.fr.

Un articlerepris du blog binaire

L’élection présidentielle aux États-Unis a encore une fois mis la question des fausses nouvelles au cœur du débat public. La puissance des plateformes et notamment celle des réseaux sociaux est devenue telle que chaque événement d’importance engendre depuis quelques temps des discussions sur ce problème. Pourtant, il semble que les analyses produites à chacune de ces occasions ne sont pas capitalisées, comme s’il n’y avait eu ni réflexions, ni avancées au préalable. Nous voudrions montrer ici la pérennité de certaines conclusions auxquelles nous étions parvenues concernant la modération de la désinformation pendant le premier confinement.

En effet, durant la crise sanitaire engendrée par l’épidémie de SARS-CoV-2, l’isolement des individus en raison du confinement, l’anxiété suscitée par la gravité de la situation ou encore les incertitudes et les controverses liées au manque de connaissance sur ce nouveau virus ont exacerbé à la fois le besoin d’informations fiables et la circulation de contenus relevant de la désinformation (émis avec une claire intention de nuire) ou de la mésinformation (propagation de données à la validité douteuse, souvent à l’insu du propagateur). Les plateformes ont alors très vite accepté le principe qu’il leur fallait modérer un certain nombre de contenus, mais elles ont été confrontées à deux difficultés liées qui étaient déjà connues. Premièrement, ce travail est complexe car toute information, selon le cadre dans lequel elle est présentée, la manière dont elle est formulée ou le point de vue de son destinataire, est susceptible de relever finalement de la mésinformation ou de la désinformation. Deuxièmement, le fait de sélectionner, de promouvoir ou de réduire la visibilité de certaines informations échangées sur les plateformes numériques entre en tension avec le respect des libertés d’information et d’expression qu’elles promeuvent par ailleurs.

Quelles sont donc les contraintes qui s’imposent aux plateformes ? Quelles sont les mesures qu’elles ont effectivement prises dans ces conditions ? Le présent texte s’appuie sur le bulletin de veille rédigé dans le cadre d’un groupe de travail du Comité national pilote d’éthique du numérique (CNPEN) [1] qui nous a permis de mener une dizaine d’auditions (par visioconférence) avec, entre autres, les représentants de Facebook, Twitter et Qwant ainsi que le directeur des Décodeurs du Monde. Il est apparu que les difficultés posées par la modération des fausses nouvelles pouvaient être regroupées en trois catégories. D’une part, celles qui sont associées aux algorithmes, d’autre part celles qui relèvent du phénomène de la viralité et, enfin, celles posées par l’identification et les relations avec des autorités légitimes.

Les algorithmes en question

Bien sûr, les mécanismes de lutte contre la désinformation et la mésinformation développés par les plateformes reposent en partie sur des outils automatisés, compte tenu du volume considérable d’informations à analyser. Ils sont néanmoins supervisés par des modérateurs humains et chaque crise interroge le degré de cette supervision. Durant le confinement, celle-ci a été largement réduite car les conditions de télétravail, souvent non anticipées, pouvaient amener à utiliser des réseaux non sécurisés pour transférer de tels contenus, potentiellement délictueux, ou à devoir les modérer dans un contexte privé difficilement maîtrisable. Or les risques d’atteintes disproportionnées à la liberté d’expression se sont avérés plus importants en l’absence de médiation et de validation humaines, seules à même d’identifier voire de corriger les erreurs de classification ou les biais algorithmiques. En outre, l’absence de vérificateurs humains a compliqué la possibilité de recours normalement offerte à l’auteur d’un contenu ayant été retiré par la plateforme. Ces difficultés montrent clairement l’importance pour la société civile que les plateformes fassent plus de transparence sur les critères algorithmiques de classification de la désinformation ainsi que sur les critères qu’elles retiennent pour définir leur politique de modération, qu’ils soient d’ordre économique ou relèvent d’obligations légales. Ces politiques de modération doivent être mieux explicitées et factuellement renseignées dans les rapports d’activité périodique qu’elles sont tenues de publier depuis la loi Infox de décembre 2018 (v. le bilan d’activité pour 2019 publié par le CSA le 30 juillet 2020 [2] et sa recommandation du 15 mai 2019 [3]). Plus généralement, il apparait qu’une réflexion d’ampleur sur la constitution de bases de données communes pour améliorer les outils numériques de lutte contre la désinformation et la mésinformation devrait être menée et devrait aboutir à un partage des métadonnées associées aux données qu’elles collectent à cette fin (voir dans le même sens le bilan d’activité du CSA préc.)

La responsabilité de la viralité

L’ampleur prise à ce jour par les phénomènes de désinformation et de mésinformation tient à l’accroissement de mécanismes de viralité qui se déploient à partir des outils offerts par les plateformes. La viralité est d’abord l’effet du modèle économique de certains de ces opérateurs, qui sont rémunérés par les publicitaires en fonction des interactions avec les utilisateurs qu’ils obtiennent et ont donc intérêt à générer des clics ou toute autre réaction aux contenus. Elle relève ensuite du rôle joué par leurs utilisateurs eux-mêmes dans la propagation virale de la désinformation et de la mésinformation (que ces derniers y contribuent délibérément ou par simple négligence ou ignorance). La lutte contre la désinformation doit donc nécessairement être l’affaire de tous les utilisateurs, responsables de devenir plus scrupuleux avant de décider de partager des informations et ainsi de contribuer à leur propagation virale. Cette remarque va d’ailleurs dans le même sens que le programme #MarquonsUnePause désormais promu par l’ONU [4]. Mais ceci n’est possible que si les plateformes mettent à disposition de leurs utilisateurs un certain nombre d’informations et d’outils afin de les mettre en mesure de prendre conscience, voire de maîtriser, le rôle qu’ils jouent dans la chaîne de viralité de l’information (voir également sur ce point les recommandations du CSA formulées dans le bilan d’activité préc.). En ce sens, les plateformes ont commencé à indiquer explicitement qu’une information reçue a été massivement partagée et invite leurs utilisateurs à être vigilants avant de repartager des contenus ayant fait l’objet de signalement. Mais il serait possible d’aller plus loin. Plus fondamentalement, il est important que les pouvoirs publics prennent des mesures permettant de renforcer l’esprit critique des utilisateurs, ce qui suppose tout particulièrement que ceux-ci puissent être sensibilisés aux sciences et technologies du numérique afin de mieux maîtriser le fonctionnement de ces plateformes et les effets induits par ces mécanismes de viralité. La création d’un cours de « Science numérique et technologie » obligatoire pour toutes les classes de seconde va dans ce sens [5].

La légitimité

Enfin, troisièmement, si la modération des contenus et le contrôle de la viralité jouent un rôle prépondérant dans le contrôle pragmatique de la désinformation et de la mésinformation, ces opérations ne peuvent, in fine, être accomplies sans référence à des autorités indépendantes établissant, ne serait-ce que temporairement, la validité des arguments échangés dans l’espace public. Sous ce rapport, une grande difficulté provient du fait que les plateformes elles-mêmes sont parfois devenues de telles autorités, en vertu de l’adage bien plus puissant qu’on pourrait le croire selon lequel « si beaucoup de monde le dit, c’est que cela doit être vrai ». Pourtant, les plateformes n’ont bien sûr aucune qualité ni compétence pour déterminer, par exemple, l’efficacité d’un vaccin ou le bienfondé d’une mesure de santé publique. Elles sont donc contraintes de se fier à d’autres autorités comme l’État, la justice, la science ou la presse. Depuis le début de la crise sanitaire, de nombreuses plateformes se sont ainsi rapprochées, en France, de différents services gouvernementaux (en particulier du Secrétariat d’État au numérique ou du Service d’information du gouvernement). Pourtant, dans le même temps, elles se sont éloignées d’autres gouvernements, comme en atteste leur modération des contenus publiés par Jamir Bolsonaro ou Donald Trump. En l’occurrence, on peut légitimement se réjouir de ces choix. Ils n’en restent pas moins arbitraires dans la mesure où ils ne reposent pas sur des principes explicites régulant les relations entre les plateformes et les gouvernements. À cet égard, une réflexion d’ensemble sur la responsabilité des plateformes ainsi que sur le contrôle à exercer s’agissant de leur politique de modération de contenus semble devoir être menée. À notre sens, ce contrôle ne peut être dévolu à l’État seul et devrait relever d’une autorité indépendante, incluant les représentants de diverses associations, scientifiques et acteurs de la société civile dans l’établissement des procédures de sélection d’informations à promouvoir, tout particulièrement en période de crise sanitaire.

par

Emmanuel Didier, Centre Maurice Halbwachs, CNRS, ENS et EHESS

Serena Villata, Université Côte d’Azur, CNRS, Inria, I3S

& Célia Zolynski Université Paris 1 Panthéon-Sorbonne, IRJS DReDIS

Licence : CC by

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom