L’hypertrucage - La technologie qui déforme le sens de la réalité – Business Apps
16314
post-template-default,single,single-post,postid-16314,single-format-standard,bridge-core-1.0.5,ajax_fade,page_not_loaded,,qode-title-hidden,paspartu_enabled,paspartu_on_bottom_fixed,qode-theme-ver-18.1,qode-theme-bridge,wpb-js-composer js-comp-ver-6.0.2,vc_responsive

L’hypertrucage – La technologie qui déforme le sens de la réalité

Une nouvelle forme de désinformation s’est répandue dans les communautés en ligne ces dernières années, utilisant des arrangements d’algorithmes moyennent un apprentissage profond, celle-ci donne naissance à des contenus audiovisuels falsifiés.

Qu’est-ce qu’un “deepfake” ?

En termes simples, l’hypertrucage ou le deepfake est une vidéo, un son ou une image hyper- réaliste de quelqu’un qui semble faire et dire des choses qu’il n’a ni fait ni dit. Difficile à détecter, il a pour but de faire croire aux internautes que quelque chose est réelle alors qu’il s’agit de représentation numérique pure et dure.

Aux États-Unis par exemple, miner la réputation d’un candidat politique en lui donnant l’apparence de dire ou de faire des choses qui ne se sont jamais réellement produites est une pratique courante.

Comment fonctionnent un deepfake ?

Un système d’apprentissage profond permet de produire une contrefaçon convaincante en étudiant des photographies et des vidéos d’une personne cible sous différents angles, puis en imitant son comportement et ses habitudes de parole.
La technologie sur laquelle s’appuie le deepfake ressemble beaucoup à la traduction entre les langues. Des services tels que Google Translate utilisent l’apprentissage automatique – analyse informatique de dizaines de milliers de textes dans plusieurs langues – pour détecter les modèles d’utilisation des mots qu’ils utilisent pour créer la traduction.

Les algorithmes deepfake fonctionnent de la même manière: ils utilisent un type de système d’apprentissage automatique appelé réseau neuronal artificiel, pour examiner les mouvements du visage d’une personne. Synthétisant ensuite des images du visage d’une autre personne faisant des mouvements analogues, cela crée efficacement une vidéo de la personne cible semblant faire ou dire ce que la personne source a fait.

Les dangers du deepfake

Comparés au texte, les faux enregistrements montrant un comportement scandaleux, menaçant ou choquant sont plus efficaces pour déclencher des émotions comme la peur, la colère ou la haine. Similaires à la diffusion de fausses nouvelles sur les réseaux sociaux, elles

sont difficiles à contrôler et encore plus difficiles à discréditer une fois qu’elles ont pris racine. Les deepfakes peuvent être de puissants outils de propagande.

Comment détecter les deepfake ?

Les clignement

Il y a toujours des failles dans ce nouveau type d’algorithme. L’un d’eux concerne la façon dont les yeux des visages simulés clignent – ou pas. Les humains adultes en bonne santé clignent des yeux toutes les 2 à 10 secondes, et un seul clin d’œil prend entre un dixième (1/10) et quatre dixièmes (4/10) de seconde. C’est ce qui serait normal de voir dans une vidéo une personne qui parle, mais ce n’est pas ce qui se passe dans beaucoup de vidéos deepfake.

Les failles

Lorsque l’algorithme de synthèse vidéo deepfake génère de nouvelles expressions faciales, les nouvelles images ne correspondent pas toujours au positionnement exact de la tête de la personne, aux conditions d’éclairage ou à la distance qui le sépare de la caméra. Pour que les faux visages s’estompent dans l’environnement, ils doivent être transformés géométriquement – pivotés, redimensionnés ou autrement déformés. Ce processus laisse des artefacts numériques dans l’image résultante.

Les appli pour appareils photo étant de plus en plus sophistiquées, ce qui en jeu n’est plus d’aplatir le ventre ou d’ajouter des oreilles de chat. Le deepfake a rendu la technologie nécessaire pour manipuler l’opinion publique accessible à tous les internautes possédant un smartphone.

Sara Lout)i

No Comments

Post A Comment