Le "deepfake" de Donald Trump déjà vu 3 millions de fois
L'actu
"J’ai une grande nouvelle. Aujourd’hui, nous avons éradiqué le sida". Ces mots sortent de la bouche de Donald Trump, dans une vidéo postée dimanche sur les réseaux sociaux. Encore une bourde ou un effet de manche du Président américain ? Non, cette fois-ci, Donald Trump n'y est pour rien. Cette vidéo est une deepfake, comprendre un montage où, grâce aux nouvelles technologies, on fait bouger la bouche de l'hôte de la maison blanche lui prêtant des mots qu'il n'a jamais prononcé. Une fausse vidéo hyperréaliste, mais pour la bonne cause, clame Solidarité Sida, à l'origine de cette supercherie. Lire l'article de LCI
Les deepfakes, comment ça marche ?
Le décryptage
Deepfake vient de la contraction de deux mots. Deep pour deep learning, l'intelligence artificielle capable d'apprendre par elle-même, et fake pour faux. "Jusqu'à présent, la vidéo était peut-être encore quelque chose qu'on pouvait croire. On se disait que c'était compliqué à modifier. Maintenant, ce sera encore un média auquel on ne pourra plus faire confiance", analyse Ewa Kijak, maître de conférences à l'Université de Rennes-1 et chercheuse au laboratoire IRISA. Il existe plusieurs techniques, comme le faceswap, pour trafiquer les vidéos. Lire l'article de FranceInfo
Deepfake videos 'double in nine months'
La tendance
New research shows an alarming surge in the creation of so-called deepfake videos, with the number online almost doubling in the last nine months. There is also evidence that production of these videos is becoming a lucrative business. The term deepfake was first coined in a Reddit post in 2017, and this report explains that in just two years a whole industry has emerged to profit from this phenomenon. Lire l'article de la BBC
Deepfake videos are a far, far bigger problem for women
L'enjeu
Women were the subject of virtually all of the deepfake pornography videos found by the researchers. Particularly worrisome is that 96% of the videos found were identified as “non-consensual” pornography. American and British actresses, as well as South Korean K-Pop musicians, were a common subject of the videos. Researchers were particularly surprised by the high number of K-pop singers, which made up a quarter of the pornography videos they found. “We had seen they were frequently targeted but didn’t expect the massive volume of videos and view count that these videos attracted,” Henry Ajder, head of communications and research analysis at Deeptrace, told Quartz over email. Lire l'article de Quartz
California makes ‘deepfake’ videos illegal, but law may be hard to enforce
La riposte
California made it illegal to create or distribute “deepfakes” in a move meant to protect voters from misinformation but may be difficult to enforce. California’s governor, Gavin Newsom, on Thursday signed legislation that makes it illegal to create or distribute videos, images, or audio of politicians doctored to resemble real footage within 60 days of an election. Lire l'article du Guardian
Google publie un dataset pour entraîner les IA à détecter les Deepfakes
La riposte, bis
Pour lutter contre les deepfakes, Google vient de publier un vaste ensemble de données constitué de vidéos Deepfake. L’objectif ? Apporter du soutien aux chercheurs qui développent des outils de détection contre ces contenus frelatés. Les intéressés pourront utiliser cet ensemble de données pour entraîner des outils de détection automatisés reposant sur l’IA. Ainsi, les outils en question pourront gagner en précision et en efficacité. Lire l'article de LeBigData