Ce mardi 5 novembre, 244 millions d’Américains sont amenés à choisir le prochain locataire de la Maison-Blanche entre la démocrate Kamala Harris et le républicain Donald Trump. Et pour gagner cette élection ô combien importante pour la géopolitique mondiale, tous les coups ou presque sont permis. Ainsi, on ne compte plus les fake news, deepfakes et autres manœuvres de désinformation diffusées par des partisans des deux camps (surtout un en réalité) ou des personnes peu scrupuleuses pour tenter d’influencer le résultat final de l’élection.
Dans ce marasme de désinformation, les acteurs numériques tentent d’apporter des solutions, mais souvent avec des résultats contrastés, pour ne pas dire décevants. En première ligne face aux fake news diffusées sur ses plateformes, Meta avait mis sur pied en 2018 une «War Room», c’est-à-dire une cellule de crise, remplie de nombreux écrans, d’horloges et d’ordinateurs, pour les combattre les campagnes de désinformation pendant les campagnes électorales. Mais elle s’est malheureusement avérée bien insuffisante pour endiguer le flot incessant et massif de fake news qui inondent le Web.
Buster.ai, un «antivirus contre les fake news»
En France, quelques startups ont tenté de s’attaquer à ce fléau qui met en danger la démocratie. Parmi elles, on retrouve notamment Buster.ai. Fondée en 2019 par Julien Mardas et Aurélien Cluzeau, cette entreprise s’appuyait sur l’intelligence artificielle pour analyser de grandes quantités de données et déterminer celles qui s'écartent des sources officielles (académiques, encyclopédiques, statistiques, agences de presse, médias...). Autrement dit, la solution de Buster.ai agissait comme un «antivirus contre les fake news». Malheureusement, cette aventure entrepreneuriale a pris fin en début d’année malgré une levée de 2 millions d’euros en janvier 2022.
Néanmoins, ce projet a permis à Julien Mardas, co-fondateur et ex-CEO de Buster.ai, de tirer des enseignements sur l’usage des technologies pour lutter contre la désinformation, à commencer par l’intelligence artificielle, indispensable à ses yeux pour se donner une chance de contrer les fake news. «Il n’y a pas d’autre choix que d’utiliser l’IA. Tout simplement car l’humain ne peut pas indexer les 3,4 milliards d’articles publiés chaque jour. Or nous sommes en guerre ouverte. Et dans un état de guerre, le temps et l’espace sont les deux dimensions les plus importantes avec le commandement, la discipline et la doctrine. Dans ce contexte, plus on prend du temps à vérifier l’information, plus les dégâts sont colossaux, plus l’instabilité augmente, plus les gens mettent de l’argent de côté, plus l’économie s’effondre», explique l’entrepreneur français.
«Une fake news est sept fois plus virale qu’une vraie news»
Les fake news ont pris leur envol dans la foulée des attentats du 11 septembre 2001, avant de prendre une envergure encore plus préoccupante à l’aune de scandales comme «Cambridge Analytica» avec Facebook, «WikiLeaks» avec Julian Assange ou encore «Snowden» avec la NSA. Autant d’affaires retentissantes qui ont renforcé un constat : les données, et donc l’information, sont bel et bien l’or blanc du numérique. Et la période actuelle, marquée par des tensions géopolitiques dans plusieurs régions du monde, n’incite pas franchement à l’optimisme, alors que la désinformation en ligne ne cesse de monter en puissance. Et malgré tous les outils à disposition de n'importe qui pour dénicher les fake news, il faut rappeler que le choix final de considérer une information comme vraie ou non revient à l'utilisateur et son libre-arbitre. Dans ce cadre, seule la multiplication des sources permet de mieux cerner un sujet, surtout s’il est délicat et complexe.
«Une fake news est sept fois plus virale qu’une vraie news», note Julien Mardas. «Dans certains conflits, comme celui opposant Israël au Hamas, des informations provenant des réseaux sociaux sont répétées sans réfléchir et donc sans vérification. Et parfois, ces fake news restent activistes pendant plusieurs semaines, voire plusieurs mois. Le fait de ne pas pouvoir vérifier une information rapidement, c’est un game changer», ajoute-t-il.
Ircam Amplify traque les voix créées par une IA
Dans un registre plus atypique, un autre acteur technologique tente également d’apporter sa pierre à l’édifice pour lutter contre la désinformation. Et contre toute attente, il s’agit d’Ircam Amplify, filiale de l’Ircam (Institut de recherche et coordination acoustique/musique) qui commercialise des innovations audio depuis cinq ans. En effet, la société s’est appuyée sur les travaux de l'institut pour détecter la musique générée par l’intelligence artificielle pour la transposer à un autre domaine : la voix.
Grâce à l’expertise de pointe de l’Ircam, sa filiale privée s’est attelée à concevoir une solution pour repérer une voix créée par IA. Et à l’heure de l’explosion des deepfakes, une telle technologie peut s’avérer particulièrement utile durant une campagne électorale. «Comme un antivirus, notre logiciel calcule un taux de confiance sur les voix détectées. Aujourd’hui, notre taux de fiabilité est de 98,5 %», indique Nathalie Birocheau, co-fondatrice et directrice générale d’Ircam Amplify. La marge d’erreur est liée à des faux positifs mais un tel score est évidemment encourageant.
L’usage de cette technologie intéresse non seulement les médias pour détecter les fake news, mais aussi les acteurs de la sécurité intérieure (ministère des Armées, gendarmerie…) pour repérer d’éventuelles arnaques ou tentatives de manipulation virtuelles. Néanmoins, détecter les voix créées par l’IA n’est pas chose aisée. «La voix est un média très particulier, difficile à maîtriser. Cloner des voix, les transformer et les détecter, c’est plutôt complexe. C’est même encore plus difficile que la musique», souligne Nathalie Birocheau. Avant d’ajouter : «La chance que nous avons, c’est que nous sommes une société commerciale avec un accès exclusif à la R&D de l’Ircam pour l’intégrer à nos produits. L’enjeu, c’est d’être rapide pour mettre le meilleur produit rapidement sur le marché. Et avec notre logique de lab-to market, on peut sortir quelque chose en trois ou quatre mois. Quand on identifie un cas d’usage, on sait appuyer sur le bouton et aller chercher les résultats pertinents de l’Ircam pour mettre un produit sur le marché.»
Aller vite est crucial pour limiter la diffusion des fake news, surtout que la démocratisation des outils d’IA donne de nouvelles armes très faciles à utiliser pour les cybercriminels. «On ne pensait pas que ça irait aussi vite sur les deepfakes», reconnaît Nathalie Birocheau. «Ça fait un peu peur, mais il faut prendre un peu de recul. L’histoire va s’écrire dans les prochaines années, nous n’en sommes qu’au premier chapitre», ajoute-t-elle. Pour se donner les moyens de lutter contre cette nouvelle forme de désinformation, Ircam Amplify cherche à boucler un tour de table dans les prochains mois.
Les grands groupes également de plus en plus visés par la désinformation
Ce qui peut tout changer pour un scrutin dans l’arène politique peut également l’être pour la sphère économique. En effet, de faux communiqués de presse peuvent avoir un impact désastreux sur les performances financières d’une entreprise. Vinci peut en témoigner après avoir vu en 2016 son cours boursier chuter à la suite de fausses informations. En quelques minutes, le groupe français avait vu sa valorisation fondre de 7 milliards d’euros. Ces dernières ayant notamment été relayées par Bloomberg, l’agence américaine avait alors écopé d’une belle amende auprès de l’Autorité des marchés financiers (AMF). Et il ne s’agit pas d’un cas isolé puisque des acteurs comme Intel, Pfizer, Fitbit ou encore BlackRock ont déjà subi des mésaventures similaires.
Il n’est pas forcément nécessaire d’employer les gros moyens pour faire trembler les marchés. Il y a deux ans, un faux compte certifié avait usurpé l’identité du laboratoire pharmaceutique américain Eli Lilly sur X (ex-Twitter) et tweeté que son insuline vendue aux États-Unis serait désormais gratuite. Non seulement, l’action du groupe s’est effondrée de près de 20 milliards de dollars, mais en plus, des millions de personnes ont cru qu’il s’agissait d’une vraie information alors que le sujet de l’insuline est sensible outre-Atlantique en raison de son prix élevé. «Même si c’était une fausse information, la société passe pour un bandit», relève Raphaël Labbé, co-fondateur et CEO de Wiztrust (ex-Wiztopic). Ce dernier évoque le terme «hacktivisme» pour décrire ces méthodes visant à «hacker» la communication des entreprises. Pour autant, il estime qu'il appartient aux médias de faire attention : «Si un communiqué de presse est faux, le média qui le partage ou s'en fait l'écho est co-responsable. Car une telle exposition médiatique donne de la crédibilité aux fake news.»
Avec sa société, Raphaël Labbé tente d’apporter une solution à ce problème croissant en proposant une plateforme de certification de l’information des entreprises dans la blockchain. Une manière de lutter contre les faux communiqués de presse visant à porter atteinte à la réputation et aux performances financières des grands groupes. «Le risque ne va faire que s’amplifier. À partir des années 2010, il y avait seulement un hack qui marchait chaque année. A partir 2015, c’est passé à deux par an. Depuis 2020, c’est un par mois ! En dix ans, le nombre d’histoires fausses qui ont fonctionné pour manipuler l’information corporate a été multiplié par 12. En étant un poil méticuleux, ça devient à la portée de n’importe qui», observe l'entrepreneur.
Si le phénomène s’amplifie, de plus en plus de groupes tentent désormais de se prémunir face à de telles actions qui peuvent engendrer des dégâts très importants, ne serait-ce qu’au niveau de l’image. «Quand il y a un incident majeur, les autres entreprises réagissent. On vend durant les crises, mais je préférerais que les gens achètent en mode prévention», souligne le patron de Wiztrust. Et pour être encore plus efficace, ce dernier ne serait pas contre donner naissance à un consortium pour réunir plusieurs acteurs adressant différentes verticales. «Nous avons construit quelque chose d’interopérable», indique Raphaël Labbé. Face aux quantités colossales de fake news, l’union pourrait bien faire la force en effet !
«Il n’y a pas de business pour la désinformation»
Cependant, se positionner sur le marché de la désinformation n’est pas forcément synonyme de rentabilité, alors que l’industrie des médias est en crise depuis de nombreuses années. Par conséquent, peu de startups se sont positionnées sur le créneau de la lutte contre les fake news. «Il y a deux raisons principales : le challenge technique est hyper dur à adresser et il n’y a pas de business pour la désinformation. Le seul moyen de faire du business, c’est de weaponiser des outils pour en faire des outils de surveillance de masse. Or la technologie doit être utilisée pour libérer pour les gens, et non pas les asservir. Dans la vie, soit on est un héros, soit on fait du business. Mais on ne peut pas faire les deux», estime Julien Mardas. Après Buster.ai, ce dernier prépare un nouveau projet entrepreneurial qui est d’ores et déjà soutenu par Google et Nvidia.
Raphaël Labbé reconnaît également qu’il est difficile de se lancer dans ce secteur ô combien critique pour la démocratie. «C’est un problème compliqué… Il y a un énorme problème de confiance pour obtenir une clientèle. En B2B, il y a un vrai enjeu de masse critique. Nous avons des concurrents qui ont essayé de nous copier. Quant au B2C, il y a la problématique du modèle économique. Certes, il y a une société qui se débrouille bien, NewsGuard, mais elle vend de la publicité. L’enjeu pour la presse aujourd’hui, c’est de trouver qui va payer pour éduquer les gens ? C’est un combat hyper dur. Il faut probablement se rattacher à une industrie avec un modèle économique viable. Se rapprocher d’un acteur comme Dashlane pourrait avoir du sens par exemple», estime-t-il.
En attendant de résoudre cette équation économique, il faudra rivaliser d’ingéniosité pour être en mesure d’absorber le flot vertigineux de fake news qui inonde les cerveaux du monde entier. Dans ce cadre, l’IA semble le meilleur allié des rares acteurs engagés sur le sujet pour en démasquer un maximum. Mais rien ou presque ne remplacera la méthode la plus efficace : que chacun fasse l’effort de s’informer correctement en variant ses sources d’information, en vérifiant les informations sensibles ou loufoques, et en ne s’arrêtant pas à des titres sensationnalistes. Un exercice pas forcément simple mais indispensable pour préserver notre démocratie.