Face au développement des nouvelles technologies et de l’ancrage des réseaux sociaux dans notre quotidien, le phénomène des fake-news grandit de jour en jour. Cette propagation est devenue un véritable problème. Dans ce contexte, le rôle de l’intelligence artificielle est déterminant vers la quête d’une information juste.
Vendredi 7 octobre, le prix des correspondants de guerre de Bayeux bat son plein. Dans ce contexte, Florent Marcie, grand réalisateur français, a diffusé en avant-première son documentaire « A.I at War ». Durant la projection, une scène a particulièrement fait écho. Lorsque Florent Marcie explique à son robot ce qu’est une fake-news. L’occasion ainsi de se questionner à propos des liens qui pourraient aboutir de la connexion entre l’Intelligence Artificielle et la désinformation.
Lorsqu’on évoque les fake-news, la plupart des professionnels pensent aux réseaux sociaux et plus particulièrement à Twitter. Les informations diffusées sur cette plateforme possèdent des caractéristiques spécifiques, dues à leurs formats courts, leur registre de langue ainsi qu’à l’utilisation fréquente d’abréviations.
Face à ce phénomène, Florent Marcie raconte : « À mon arrivée à la fin des années 90, j’ai compris assez tôt que dans cette période-là, qu’on allait avoir un problème. Si chacun s’empare des outils qui permettent de forger des discours sur le monde de vérité, mais que personne n’est en état de les vérifier, parce que c’est beaucoup plus long de vérifier que de parler pour produire. »
Benoit Raphael, expert en innovation digitale, journaliste et fondateur de Flint un logiciel dont la mission est de mieux informer à l’aide de l’intelligence artificielle, explicite sur le fait que la fake-news est « une information incomplète, partagée parce que cette information correspond à une réalité que la personne pense véridique, c’est donc quelque chose de subjectif ».
Historiquement, les fakes-news les plus connues touchent tous les aspects de l’information. Que ce soit, l’annonce du soutien du pape François envers Donald Trump lorsqu’il était candidat à la présidence des Etats-Unis. Une vidéo de l’aéroport de la ville de Miami inondé par le passage de l’ouragan Irma qui, en réalité, était une vidéo d’un homme marchant dans une zone remplie d’eau à l’aéroport de Mexico. Ainsi que, comme Benoit Raphael souligne, « ça peut aller jusqu’aux sbires du gouvernement russe qui vont créer des faux médias et des faux personnages sur Internet pour diffuser volontairement des fausses informations pour déstabiliser un gouvernement. »

Les fake-news : « Une arme extrêmement puissante »
L’intelligence artificielle entraîne les fake-news vers une nouvelle dimension avec les deep-fakes. Ce terme fait référence à des contenus faux qui sont rendus profondément crédibles par l’intelligence artificielle. Ce genre nouveau de la désinformation pourrait offrir des voies inédites dans sa propagation.
Face à cette simplicité grandissante de diffusion de désinformations, Florent Marcie dénonce que « l’individu peut produire un discours à sa guise, multiplié à l’échelle planétaire par des algorithmes qui ne se révoltent pas ». Il précise également qu’ « une vérité n’apparaît pas dans les critères Google, le filtre majoritairement utilisé est la popularité du post ».
L’annonce de la mise à disposition au public de l’outil DALL-E a littéralement changé la donne. Il s’agit d’un logiciel ayant les capacités de générer n’importe quelle image simplement à partir de mots-clés. Il est même possible de partir d’une photo existante et de demander des modifications.
Créer de la fake-news est, ainsi, d’une simplicité enfantine. Selon Florent Marcie, « c’est une arme extrêmement puissante ».
L’intelligence artificielle : notre sauveur face à la désinformation ?
Dans ce contexte d’expansion de la désinformation, de nombreuses initiatives ont été mises en place afin d’aider les professionnels de l’information, telles que les journalistes, et les citoyens lambdas à s’en protéger. Pour certains, la possible victoire de ce combat repose sur l’intelligence artificielle et notamment à travers l’apprentissage automatique.
Vincent Claveau, chercheur au CNRS au sein de l’équipe LinkMedia à l’irisa de Rennes, nous explique que « l’approche la plus évidente consiste à étudier ces textes avec les outils du NLP (le traitement automatique des langues) ». Il nuance toutefois son propos en précisant que « l’apprentissage automatique peut aussi faciliter la production de fake-news ».
Parallèlement, un nouveau projet européen Vera.ai mise sur l’intelligence artificielle afin de développer des outils efficaces et adaptés aux utilisateurs des différentes plateformes de réseaux sociaux. Dans le cadre du programme de recherche et d’innovation Horizon Europe de l’Union européenne, le projet Vera.ai vient d’être lancé. Il vise à déployer et à développer des solutions concrètes de lutte contre la prolifération des fake-news. Cette solution se base sur l’intelligence artificielle afin d’analyser des contenus multilingues sur tout type de contenus que ce soit texté, photo, vidéo ou encore audio.
Directement, en lien, le projet européen Fandango, porté par un budget de 3,5 millions d’euros utilise une méthode de Machine Learning. Cet outil pourrait s’avérer extrêmement pertinent dans la recherche des contenus de propagande et de désinformation.
De ce fait, lorsqu’on parle de fake-news, l’intelligence artificielle peut s’avérer être un soutien de taille ou, au contraire, l’adversaire le plus coriace de l’exactitude. Finalement, la pureté de cette technologie repose sur les individus qui l’utilisent. Face à ce constat, un questionnement profond se pose : sommes-nous les réels ennemis de la vérité ?