Deep fakes & fake news, comment ça marche, comment les repérer ?

« Je ne crois que ce que je vois ». Et comment faire si ce que vous voyez est faux ? L’essor des logiciels et techniques de montage combiné à celui des réseaux sociaux conduit à la diffusion massive d’images, vidéos et audios modifiés. Plus qu’on ne le croit.

Attention les yeux

Instinctivement, nous avons une forte tendance à faire confiance et donner du crédit aux contenus images et vidéos. Contrairement à un texte écrit, l’image donne cette illusion qu’elle ne peut mentir. La démocratisation des logiciels de montages étant un phénomène récent, on s’en méfie beaucoup moins. Pourtant, les deepfakes et autres swapfaces ont une force de frappe monstrueuse dans l’augmentation de la diffusion de fake news.

À lire également : Fake news et vraies drogues : « Hey Twitter ! De quoi je me mêle ? »

Le deepfake est une technique basée sur l’intelligence artificielle. Elle permet de synthétiser la voix de quelqu’un offrant ainsi la possibilité de lui faire dire n’importe quoi mais aussi de changer le visage d’une personne sur une vidéo. Respectivement appelées voice morphing et face morphing, ces effets spéciaux offrent une liberté de création de contenus exceptionnelle. La liberté est tellement grande qu’on a du mal à en voir les limites.

Selon le service fact checking de l’AFP qui lutte contre la diffusion massive de fake news, plus de 50% des fake news identifiées sont des images. Un nombre pas si étonnant puisqu’on l’a dit, on se méfie moins de ce que l’on voit. Le pire, c’est que quand bien même nous ferions plus attention, détecter une vidéo ou une image truquée constitue un exercice extrêmement difficile. La plus grosse faille des deep fakes se situe généralement au niveau des yeux. Et encore, il faut y faire attention c’est loin d’être choquant.

Des études ont mis en évidence que même des professionnels de la photo et de l’édition n’arrivaient que rarement à détecter un fake. Alors imaginez pour des amateurs lambdas. Face à la qualité de ces contenus, un seul allié apparaît encore en mesure de lutter : l’intelligence artificielle elle-même. Parmi les outils émergeants, on peut notamment évoquer la blockchain. Ce système d’archivage utilisé pour le bitcoin permet d’authentifier ou non une vidéo si cette dernière a été enregistrée dans la blockchain.

Si aujourd’hui il est encore possible de différencier un montage d’une vraie vidéo, le temps est compté. Les vidéos et audios se rapprochent progressivement d’un niveau de précision de ressemblance indétectable, même pour l’intelligence artificielle. En 2019, une vidéo de Marck Zuckerberg avait suscité des vagues d’indignations sur les réseaux sociaux. Sur cette dernière, le PDG de Facebook sous entendait que toute personne contrôlant les données de millions de personnes contrôlerait le futur. Si les auteurs n’étaient pas malintentionnés et ont vite confirmé qu’il s’agissait d’un canular, leur vidéo n’a fait qu’accroître l’inquiétude quant à l’utilisation de ce genre de vidéos. Aujourd’hui, 96% des deepfakes sont à caractère pornographique. Mais nul doute que dans les années à venir, la politique sera touchée par ce phénomène.

Une sensibilisation inégale à travers le monde

En France, comme dans tous les pays développés, les deepfakes participent largement à la diffusion de fake news. Seulement, nous avons la chance d’avoir des médias traditionnels qui abattent un travail énorme pour limiter cet essor. Même si plus de la moitié de la population se renseigne désormais en passant par les réseaux sociaux, les fake news se heurtent encore à des obstacles. A l’inverse, dans des pays plus pauvres ou en développement, les réseaux sociaux s’imposent comme l’unique source d’informations. Aucun média ne possède l’aura ou les moyens de débunker d’éventuels deepfakes.

Conséquence : la population est mal informée et aspire plus facilement à des théories conspirationnistes. Cela peut aller jusqu’à entraîner des émeutes et des scènes de violence complètement injustifiées. Au Gabon, début 2019, le gouvernement a été accusé d’avoir camouflé la mort du président victime d’un AVC en diffusant un deepfake à la télévision. Une polémique qui a abouti sur une tentative de coup d’Etat militaire.

Les deepfakes et autres montages ont un potentiel humoristique considérable. Voir Marine Le Pen parler arabe ou Obama insulter Trump vous arrachera forcément un sourire.  Certains s’en sont même servis pour faire de la publicité, à l’image de Solidarité Sida, qui avait diffusé une deepfake de Trump annonçant que le sida était éradiqué. Mais derrière le rire, la plaisanterie et les idées publicitaires, se cache un danger de plus en plus menaçant. Tout un travail d’éducation et de sensibilisation méritent d’être mis en place. En attendant, ouvrez les yeux et les oreilles, votre esprit critique a besoin de vous.

À lire également : Fake News : les fausses informations explosent aux USA

Laisser un commentaire