Des humanoïdes chauve-souris, des chèvres à la peau bleue, des castors bidèpes sans queue, un temple en saphir ; voici quelques-unes des visions qu’aurait observé Sir John Herschel, un éminent astronome britannique, en pointant son télescope vers le ciel depuis un observatoire en Afrique du Sud. Ou du moins, c’est ce qu’a rapporté le New York Sun dans une série d’articles parus en 1835.

Les reportages suscitèrent un tel engouement que le tirage du journal fut plus que doublé, passant de 8 000 à plus de 19 000 exemplaires. Soudain, tous ceux qui avaient lu ces articles se sont mis à croire qu’il existait une prospère colonie d’hommes chauves-souris sur la Lune.

À l’exception d’un petit détail : rien de tout cela n’était vrai. Les histoires avaient été créées par Richard Adams Locke, le chef d’édition du Sun.

L’incident est entré dans l’histoire sous le nom de « grand canular lunaire », mais si tout cela se produisait aujourd’hui, nous appellerions ça autrement : des fake news (ou, en bon français, des infox) !

Donald Trump peut penser qu’il a inventé le terme dont la popularité a pris de l’ampleur au cours des dernières années, mais c’est loin d’être vrai. Les fakes news existent depuis de nombreuses années, mais elles nous inquiètent plus que jamais. Comment sommes-nous passés du très inoffensif grand canular lunaire à la très grave menace posée par le scandale du Pizzagate ?

Eh bien, la vitesse et l’ampleur d’Internet n’ont fait qu’aggraver cela. Comme l’explique le New York Times dans une série en trois épisodes sortie en novembre, la désinformation se répand comme un virus.

Alors, comment empêcher ce virus de se propager ?

Si l’on demande à Mark Zuckerberg, PDG de Facebook, il va probablement répéter ce qu’ il a dit au Congrès américain en début d’année : l’intelligence artificielle va résoudre ce problème.

Mais est-il vrai que l’IA peut combattre les fake news ? Sera-t-il possible pour une machine de vérifier automatiquement si quelque chose est vrai ou faux ? Et plus important encore, l’IA peut-elle résoudre un problème qu’elle a contribué à créer en premier lieu ?

IA, nous avons un problème

Beaucoup de chose ont été écrites sur l’intelligence artificielle et la désinformation, mais nous n’en dirons jamais assez sur le rôle de l’IA dans la production et la distribution de fake news dans le monde.

Ariel Conn, directrice médias et sensibilisation à la Future of Life Institute, précise : « Lorsque des chercheurs en intelligence artificielle créent des programmes qui permettent de modifier des vidéos, déformant le discours prononcé par une personne pour lui faire dire ce qu’elle n’a pas dit, cela nous fait réfléchir aux implications éthiques de cette technologie. »

Prenez par exemple cette vidéo de l’ancien président des États-Unis, Barack Obama. Elle a été produite à titre expérimental par des chercheurs de l’Université de Californie du Sud pour un épisode de RadioLab appelé « Flash Info. » Si vous voyiez ça sur votre ordinateur ou votre téléphone, le croiriez-vous ?

L’épisode de RadioLab a été diffusé en juillet 2017. Avance rapide vers avril 2018, seulement quelques mois plus tard, et vous obtenez une version améliorée, publiée cette fois sur Buzzfeed comme message d’intérêt public. Il s’avère qu’Obama n’a jamais traité Trump de « gros connard ». C’est le cinéaste oscarisé Jordan Peele qui l’a fait, dans une imitation parfaitement convaincante de la voix d’Obama. La fausse piste audio avait été habilement superposée à de véritables séquences vidéo de l’ancien président.

La technologie algorithmique d’apprentissage automatique utilisée crée des vidéos appelées deepfakes (ou, en bon français, des vidéos falsifiées). Elle permet à quiconque de créer une mise en situation très réaliste de pratiquement tout être humain (à condition d’avoir des enregistrements vidéo et audio).

Mais le véritable problème des deepfakes, c’est lorsque les gens arrêtent d’utiliser cette technologie pour intégrer Nicolas Cage dans des films au hasard et commencent à produire des vidéos de figures politiques pour leur faire dire des choses qu’elles n’ont jamais dites, comme nous l’avons vu ci-dessus. Comme le dit Ariel Conn : « Il va devenir de plus en plus facile de manipuler les gens, et c’est extrêmement préoccupant. »

Alors, où se situe l’IA dans tout cela ? Est-ce le remède ou la maladie ?

artificial-intelligence-fake-news-gauge

Contrer les infos trafiquées

Pour savoir si l’intelligence artificielle peut nous aider à contrer les fake news, nous devons d’abord comprendre le fonctionnement de l’apprentissage automatique.

L’apprentissage automatique est la science qui donne aux ordinateurs la capacité d’apprendre à partir de données, à identifier des modèles et à prendre des décisions avec un minimum d’intervention humaine. L’idée est que les machines améliorent leurs performances dans le temps et deviennent de plus en plus autonomes.

Donc, pour appliquer cela à notre lutte contre la désinformation, nous devrions développer une technologie qui analyse les données pour déterminer correctement si un élément de contenu est vrai ou faux. Cependant, selon les experts, dont Antoine Bordes, directeur du centre européen de recherche en IA de Facebook, c’est plus facile à dire qu’à faire :

« Quand il s’agit de repérer quelque chose de bizarre dans une image, une machine peut le faire, mais quand il s’agit d’interpréter si un texte est vrai ou faux, c’est beaucoup, beaucoup plus compliqué. C’est beaucoup plus compliqué à signaler et c’est quelque chose qu’une machine n’arrive pas encore à faire. »

Pourquoi ? Parce que les machines n’ont pas les capacités humaines de base telles que « comprendre, faire preuve de bon sens et savoir remettre les choses en contexte ».

Néanmoins, cela ne signifie pas que les chercheurs ne travaillent pas sans relâche pour résoudre ce problème. Le nombre d’études sur ce sujet a considérablement augmenté au cours des deux dernières années, et certaines se sont même avérées assez fructueuses.

La meilleure IA pour détecter les fake news

Dans le MIT Technology Review,Preslav Nakov, scientifique chevronné du Qatar Computing Research Institute et l’un des chercheurs ayant mené une nouvelle étude sur la fiabilité des médias, écrit que malgré le scepticisme ambiant, il est optimiste quant à l’utilisation de machines pour repérer les fake news. Il prédit cependant que cela n’arrivera probablement pas de sitôt.

Dans l’étude que Nakov a aidé à mener, les scientifiques formaient leur système à l’aide de variables que les machines pouvaient analyser sans intervention humaine. Ils ont analysé le contenu de la structure de titres et de la variété des mots, évalué le trafic Web et l’influence des médias en mesurant l’engagement sur les réseaux sociaux.

À la fin de l’expérimentation, leur meilleur modèle ne classait avec exactitude la fiabilité des médias dans les catégories « faible », « moyen » ou « élevé » que 65 % du temps.

Mais analyser la fiabilité des médias et identifier les infox est complexe. Les journalistes suivent (ou en tout cas, ils sont supposés le faire) des méthodologies et des codes de conduite rigoureux afin de produire les nouvelles que nous lisons tous les jours. Aucun ordinateur ne pourrait jamais comprendre ça.

artificial-intelligence-fake-news-robot

Humains et machines du monde, unissez-vous !

« Je pense que l’intelligence artificielle sera de plus en plus utile pour détecter les fake news, mais nous devons également intensifier le rôle humain. À la fin, ce sera un travail d’équipe entre les machines et les humains. »

Antoine Bordes, directeur du centre européen de recherche en IA de Facebook

Combiner le meilleur de l’humain et de l’intelligence artificielle pourrait être notre meilleur espoir. Les machines fournissent vitesse et évolutivité, tandis que les humains apportent la compréhension et avec elle, la capacité de prendre en compte le contexte et les nuances lorsqu’il faut évaluer la véracité d’un texte. Cela nous permet également d’entrer plus de données dans le système et d’améliorer ses performances au fil du temps.

Néanmoins, il est important de souligner le fait que nous parlons également de journalisme, une activité incroyablement centrée sur l’être humain et qui suit un ensemble de règles rigoureuses pour parvenir à la vérité. C’est pourquoi les plateformes de vérification des faits sont un élément important dans ce casse-tête des fake news.

Nous avons interrogé Aaron Sharockman, directeur général de Politifact, l’un des sites Web les plus reconnus en matière de vérification d’informations aux États-Unis, sur le rôle que l’intelligence artificielle va jouer à l’avenir et sur la méthodologie qui fait fonctionner leur « véritomètre ».

Ils ont 11 journalistes qui travaillent tous les jours à temps plein à éplucher les histoires les plus importantes dans la presse écrite ou audiovisuelle pour rechercher des faits à vérifier.

« À partir de là, la première chose que nous faisons est de demander au présentateur quelle preuve avez-vous que cela est vrai ? Alors qu’aux États-Unis, si vous êtes arrêté, vous êtes innocent jusqu’à preuve du contraire. Là, vous êtes en quelque sorte coupable jusqu’à preuve du contraire. Si vous dites une chose, vous devriez présenter les faits pour l’étayer, la confirmer. »

Ils s’appuient ensuite sur des sources indépendantes et expertes disposées à témoigner. « À partir de là, un rédacteur recommande un verdict ou une mention. Nous utilisons six mentions, allant de « vrai » à « totalement faux », ce qui correspond aux plus gros mensonges. Mais en fin de compte, ce n’est pas le rédacteur qui décide de la mention. Ce qui se passe c’est que cette décision revient à un panel de trois rédacteurs qui siègent en tant que jury. »

L’IA pourra-t-elle un jour remplacer cela ?

Eh bien, les algorithmes d’une machine ne pourraient probablement pas gérer cela, mais elle pourrait aider à rendre la vérification plus efficace et transmettre cette information à un plus grand nombre de personnes, selon Aaron Sharockman :

« Il faudra toujours des humains impliqués dans la vérification des faits pour aider les gens à comprendre ce qui est vrai ou non. C’est en définitive un système très centré sur la personne. Ceci dit, je pense que les ordinateurs peuvent aider à rendre le processus beaucoup plus efficace. Donc, ce que je suis impatient de savoir, c’est comment les ordinateurs peuvent prendre mon vérificateur de faits, l’un de nos 11 vérificateurs de faits, et avoir la capacité de doubler le nombre de vérifications de faits qu’ils écrivent ? »

Sharockman explique en outre :

« Comment les ordinateurs peuvent-ils réduire le temps nécessaire pour rédiger une vérification de fait de six heures à trois heures ? Deuxièmement, comment les ordinateurs et l’IA peuvent-ils amplifier la portée de notre vérification des faits ? Cela fonctionne donc de deux manières. La première est la plus simple, c’est-à-dire que si nous publions un rapport de vérification des faits, comment être sûrs que tout le monde le voit ? La deuxième est que la désinformation continue de se propager, peu importe ce que nous faisons ; comment la vérification des faits peut-elle cibler la source de propagation de la désinformation ? Que cela signifie que ça se répète sur un autre blog, comment la vérification des faits peut-elle être liée à ce blog ? Est-ce un bot Twitter répondant à quelqu’un qui a posté un mauvais lien sur Twitter ? Je pense que ce sont les choses qui me passionnent le plus. Je peux les voir à l’horizon ; je sens qu’elles vont arriver. »

Rattraper la réalité

En fin de compte, il semble que nous soyons encore en train de rattraper la réalité. Alors que la frontière entre la simulation et la réalité continue de s’estomper, nous devons savoir exactement où nous en sommes avec cette technologie et si elle va dicter la vérité ou la détecter.

Ariel Conn du Future of Life Institute n’est pas sûre que nous ayons la réponse pour le moment. « J’ai le sentiment que cela sera comme toutes les autres menaces auxquelles nous sommes confrontés. Avec la cybersécurité, il est quasi primordial de rattraper notre retard. Mais une fois que nous aurons un meilleur aperçu de ce que sont certaines de ces menaces, nous pourrons créer de très bons programmes pour nous protéger contre les cybermenaces. Donc, je pense que ce sera la même chose pour l’IA et qu’elle rattrapera probablement son retard, surtout au début. Mais j’espère qu’elle deviendra plus proactive. »

Aujourd’hui, la lutte pour l’information est au centre des débats et les dégâts sont réels. Nous ne répandons peut-être pas la peur d’une invasion extraterrestre (j’ai ma petite idée de qui serait le premier à tweeter à ce sujet), mais nous répandons des mensonges qui pourraient avoir un impact sérieux sur nos vies, notre démocratie et notre futur. La technologie ne nous fera avancer que partiellement : nous devrons vérifier nos propres mauvaises habitudes.