Publié le 29/03/2022

Buster.AI (TK18) : Désinformation, quelles armes pour éviter un nouveau "Cambridge Analytica" ?

Quel tableau dresser de la désinformation à deux semaines de l'élection présidentielle française ? Pour répondre à cette question, Les Numériques s’est entretenu avec Julien Mardas, cofondateur et directeur général de Buster.ai.

Avec la pandémie de Covid-19, la guerre en Ukraine ou encore la campagne présidentielle en France, les diffuseurs de fake news s’en donnent à cœur joie. Dans ce contexte déjà explosif, la désinformation rajoute de l’huile sur le feu. Et les scandales qui ont émaillé les scrutins du Brexit et de l’élection présidentielle américaine en 2016 n’incitent pas à l’optimisme dans la perspective de l’élection présidentielle française qui se jouera les 10 et 24 avril prochains.

Pour décrypter cette amplification de la désinformation dans notre quotidien, Les Numériques s’est entretenu avec Julien Mardas, cofondateur et directeur général de Buster.ai, start-up française qui développe une solution pour lutter contre la désinformation. Le tableau qu’il dépeint est bien sombre, mais des solutions existent pour réduire la propagation et l’impact des fake news.


LES NUMÉRIQUES – Avec Buster.ai, vous luttez contre la désinformation à l’aide de l’intelligence artificielle. Quel a été l’événement qui vous a poussé à vous attaquer à cette problématique ? Cambridge Analytica ?

JULIEN MARDAS – Depuis le 11 septembre 2001, c’est l’escalade. On constate que l’information qu’on reçoit a des conséquences dramatiques. Elle provoque des guerres, de l’appauvrissement, des famines, de la rareté de ressources et de matières premières... Les fake news sont très souvent à l’origine d’un plan de conquête de ressources et de matières premières. Je savais très tôt que l’information allait être une denrée rare, qu’elle n’allait pas être le pétrole du 21e siècle comme le dit la Harvard Business Review, mais probablement l’or blanc du numérique. C’est vraiment quelque chose qui va influencer l’économie. On a eu Manning, Snowden de la NSA, WikiLeaks avec Assange, puis Cambridge Analytica… Effectivement, c’était la goutte d’eau qui a fait déborder le vase.

Je savais très pertinemment qu’il y avait des tentatives de déstabilisation de gouvernements avec des actes anti-étatiques pour arriver à leurs fins. Depuis des années, on sait bien que des présidents dans de grands pays ne peuvent être financés que par des multinationales et ne peuvent être élus qu’en ayant des financements de cet ordre, compte tenu de l’ampleur de la campagne. C’est ce qui m'a fait comprendre que les choses pourraient être bien plus graves dans un futur proche. Comme je n’avais moi-même plus confiance en l’information à laquelle j’étais exposé, c’est en essayant de créer un programme générant de l’information à partir de sources que je suis et en lesquelles j'ai confiance que j’ai découvert par hasard que j’avais créé un vérificateur d’informations. Finalement, résumer, classer par ordre d’importance, compléter l’information manquante à partir d’autres informations, c’est vérifier.

Est-ce qu’on peut dire aujourd’hui que des plateformes comme Facebook, Twitter ou YouTube ont créé des monstres qu’elles ne maîtrisent plus ?

Ces monstres ne vont pas cesser de grossir. On ne parle pas encore d’obésité morbide, mais d’une machine qui ne va faire que monter en puissance. Aujourd’hui, d’après le MIT, une fausse information circule six à sept fois plus vite qu’une vraie sur Twitter. Maintenant, est-ce que cette maîtrise est perdue de manière volontaire ou involontaire ? Il faut rappeler que les plateformes se financent globalement par la publicité, programmatique de surcroît. Cela signifie qu'on vise les masses et les gros flux, on imprime et on essaie de convertir.

Partant de ce constat, l’intérêt d’une plateforme où un certain type d’information va six à sept fois plus vite qu’une autre ne va pas être d’enlever cette information-là. Ça va être au contraire de chercher à la monétiser. On a eu l’exemple récemment avec Facebook, où il y a eu des échanges entre des modérateurs qui ont été incriminés et la direction de Facebook, mais également des cas où des contenus étaient connus pour causer des dommages sur les enfants, mais qui n’ont pas été démonétisés. Au contraire, ils ont été poussés pour accentuer les revenus.

Je pense que quand on a les moyens d’un GAFA, dire qu’on perd le contrôle de son infrastructure me semble un peu osé. C'est ce qu'a fait Facebook dans l'affaire Cambridge Analytica, en affirmant avoir perdu 5000 data points par utilisateur, multiplié par un milliard. Je pense que c’est bien plus que ça. Je pense même à au moins 50 000 data points par utilisateur, voire 100 000. Cela ne me surprendrait pas. 5000 est un chiffre qui sort de nulle part. Ces derniers, qui sortent multipliés par un milliard d’utilisateurs de Facebook, représentent un trafic d'une centaine de pétaoctets. Une centaine de pétaoctets sur le réseau, en utilisant des protocoles comme BGP, on voit tout de suite que ça ne passe pas inaperçu. C’est comme si un mammouth essayait de rentrer dans un tunnel, on va le voir. On ne peut pas dire qu’on ne l’a pas vu.

Par conséquent, dire qu’on a perdu la maîtrise et qu’on a perdu le contrôle, je n’y crois pas. En revanche, dire qu’il y a des usages frauduleux et que ces usages-là sont de nature à porter un danger à l’échelle de l’humanité, je suis d'accord. Et cela ne va pas cesser, car l’information qui est en circulation est très largement supérieure à celle que l’on stocke. On est vraiment sur de l’usage instantané. Cet usage instantané, dès qu’on a une désinformation qui atteint les gens rapidement, c’est déjà trop tard. Elle va se propager. Il faut donc agir rapidement. On n’est pas que sur du curatif, on est vraiment sur du préventif. Et les plateformes ont un rôle à jouer là-dessus. Tant qu’il n’y aura pas de réglementation, elles n’ont aucune raison de démonétiser les contenus qui sont viraux.

[...]

Lire l'article complet : Les Numériques