Où en est notre rapport à la rigueur intellectuelle, à l’heure de l’information virale et des réseaux sociaux? Comment faire face au défi, toujours plus grand, de vérifier les informations auxquelles nous sommes exposés, et que nous repartageons? L’IA peut-elle répondre au problème?


La main sur le feu


Le 23 octobre dernier, Mark Zuckerberg était à nouveau sous le feu des projecteurs, et une fois de plus, pas nécessairement à son avantage.
Le dirigeant de Facebook a été frontalement confronté par la représentante Alexandria Ocasio-Cortez, sur une question simple : Facebook autorisera-t-il des partis politiques et des candidats à payer pour donner de l’exposition à leur contenu, y compris quand ce contenu comporte des éléments non vérifiés, non sourcés et potentiellement faux.

L’enjeu ne porte pas uniquement sur la politique. Tous les domaines sont impactés :  la communication des entreprises, les articles qui traitent d’innovations, les annonces d’avancées scientifiques fracassantes, les problématiques médicales et ainsi de suite.

Les sciences, les technologies, et le monde des affaires sont tout aussi concernés par le fact checking et l’urgence de rester intellectuellement droit dans ses bottes.

Zuckerberg défend sa position : pour lui chacun doit être libre de s’exprimer. Selon ses propres mots, la démocratie, c’est aussi pouvoir être exposés à toutes sortes d’informations, puis d’en faire sa propre critique :

“I just think that in a democracy people should be able to see for themselves what politicians are saying, and I think that people should make up their own minds about which candidates are credible and which candidates have the kind of character that they want to see in their elected officials

À mon sens, cet argument est à double tranchant. Un peu comme dire à un gamin de trois ans qu’il est libre de mettre sa main sur la plaque de cuisson, pour voir “par lui-même” que ça brûle.


Gymnastique de neurones


Car oui, nous sommes d’éternels adolescents. Nous penchons naturellement vers la facilité. Nous n’allons pas (ou très peu) faire l’effort mental d’introduire une distance critique entre nous et ce que lisons.
Tout bonnement, nous ne pouvons pas vérifier toutes les informations auxquelles nous sommes exposés, et que nous repartageons. Nous sommes littéralement saturés d’informations à chaque minute, et ce n’est pas notre rôle d’en vérifier les sources.

D’autre part, nous voulons entendre ce qui nous convient. L’algorithme de Facebook va dans ce sens, en nous exposant à des contenus qui valident ce que nous pensons déjà.

Il faut une réelle souplesse intellectuelle pour accepter de se confronter à des points de vue opposés aux nôtres, qui nous bousculent. Plus on est crispé sur une position, plus on rejette en bloc tout ce qui va à son encontre. Cela nous menace, c’est viscéral.

L’humain n’est pas que rationnel : nos émotions entrent en jeu, surtout face aux sujets brûlants. Les polémistes de tous bords, qui génèrent beaucoup d’audience (sur Twitter notamment), sont maîtres dans l’art d’aller chercher les réactions purement émotionnelles de leur public. C’est tout bonnement ravageur, à l’heure de la réactivité immédiate, sans plus aucune prise de recul.

La rigueur intellectuelle est une discipline qui s’acquiert et s’apprend. Sourcer les faits, les distancier, considérer une problématique sous plusieurs angles, si possible sans lunettes teintées :  personne ne naît avec ces facultés. Théoriquement, ces bases s’acquièrent à l’école. Or très franchement, ces dernières décennies, on note de plus en plus de lacunes dans l’enseignement des méthodes critiques. Je ne suis pas convaincu que nos jeunes générations soient aussi armées à ce niveau là que nous avons pu l’être.

Quand bien même on maîtrise la théorie, cela ne vaccine pas de la mauvaise foi, qui n’est pas proportionnelle au niveau d’études. Ni même de la bêtise pure et simple, quand on pense aux challenges partis des réseaux sociaux, de se verser un seau de glaçons sur la tête ou de se faire gonfler les lèvres en aspirant dans un verre.

Nous autres Sapiens sommes donc restés de grands ados, y compris quand nous prenons les réseaux sociaux pour une source d’information, alors qu’ils sont conçus pour être un divertissement.

Au vue de toutes ces raisons, l’argument de Mark Zuckerberg est un peu léger, et l’enjeu du fact checking est immense.

 

 


Le fact checking : humainement impossible ?


Bien évidemment, il faut demander des comptes à Zuckerberg. Chaque fondateur, chaque CEO, doit répondre de ce que fait son groupe, surtout quand il est question d’accepter des financements dans le cadre de campagnes politiques biaisées.

Cependant, Zuckerberg ne porte pas à lui seul toute la responsabilité. On peut pousser la réflexion plus loin : est-ce réellement du ressort de Facebook d’assumer le fact checking? La responsabilité n’est-elle pas uniquement le fait des créateurs de contenu?

 

En réalité, la question n’est pas : Facebook doit-il modérer son contenu, mais Facebook peut-il modérer son contenu.

 

La réponse, à l’heure actuelle, est non.

Quand bien même Zuckerberg mettrait en place son projet d “Independent Fact Checking Network” – un board indépendant de vérificateurs des faits, rien n’indique que ce bureau sera efficace, ni même que les recommandations qu’il produira seront retenues.

Dans tous les cas, il faudrait que les modérateurs et les fact checkers soient des milliers, et qu’ils aient la possibilité de vérifier tout ce qui se publie, partout et dans toutes les langues. C’est humainement impossible.

 

Modérer du contenu à échelle planétaire est devenu mathématiquement ingérable.

 

Les  réseaux sociaux ont donné à chacun la possibilité d’exprimer son opinion, qu’elle soit fondée ou pas, et potentiellement dangereuse, violente, haineuse, à des niveaux de quantité et de viralité qui nous échappent maintenant. C’est notre boîte de Pandor.


IA à la rescousse


Si humainement, nous ne pouvons pas relever le défi de vérifier les faits, l’intelligence artificielle peut-elle le faire? Sera-t-elle l’outil ultime de fact checking?

C’est certain. Les systèmes sont déjà capables de vérifier très rapidement les chiffres et les données citées. Demain, ils pourront déterminer quel était le contexte originel des faits, s’ils en ont été sortis, tordus, exagérés ou minimisés.

 

Dans les années à venir,  nous ne pourrons plus nous passer de l’IA dans le domaine de l’information et de la presse.

 

L’intelligence artificielle sera un outil indispensable, pour les chercheurs, les organisations, les journalistes et pour toute personne en position d’informer et d’influencer l’opinion publique.

Le fact checking sera peu à peu amené à s’automatiser, toujours en coopération avec l’intelligence humaine : l’esprit critique des rédacteurs, éditeurs et diffuseurs sera essentiel, et plus que jamais, la crédibilité de leur travail en dépendra.

Désormais, la réputation d’une marque, d’une entreprise, d’un centre de recherche ou d’un journal dépendra directement de ses processes de rigueur intellectuelle, dans une époque qu’on qualifie parfois d’ère de la post-vérité. 
Restons très pragmatiques, l’enjeu de demain n’est pas de vérifier tout ce qui se publie, mais de distinguer les canaux fiables d’information (grands journaux, journalistes indépendants, sources officielles) et de ne s’en tenir qu’à eux.

De la même manière que nous avons aujourd’hui des technologies de deepfake très performantes (édition de vidéos et de voix synthétiques qui peuvent faire dire n’importe quoi à n’importe qui, rendant de plus en plus difficile de distinguer les canulars), les avancées en matière d’intelligence artificielle peuvent aider à debunker ces tentatives de manipulations des informations.

 

A chaque époque ses problématiques, et à chaque problème ses réponses technologiques.

 

Si nous sommes dans l’ère de la désinformation virale (y compris via les deepfake), alors le domaine de l’information et du journalisme doit évoluer avec ces mêmes outils technologiques qui le mettent en danger. 


CONCLUSION


Tout est question de positionnement.

Ces derniers jours, le co-fondateur et PDG de Twitter, Jack Dorsey, a annoncé que la plateforme ne diffuserait pas de publicités politiques à compter du 22 novembre. Ce dernier tente de protéger Twitter des éclaboussures de Cambridge Analytica et des scandales autour du Brexit, en passant par la nouvelle menace des vidéos deep fakes.

Pour sa part, Google a récemment annoncé qu’il mettrait en avant, dans les résultats de recherche, les articles originaux et sourcés, issus de travaux qui ont demandé du temps, de l’effort…bref, de la rigueur intellectuelle.

Comme quoi, il existe d’autres manières de faire.