CHICAGO — l’une des plus grandes conventions technologiques a débuté mardi à Las Vegas : le Consumer Electronics Show, ou CES.
L’événement se poursuivra jusqu’à vendredi, et l’intelligence artificielle sera sans aucun doute un des grands thèmes cette année.
Un participant de la région de Chicago est un expert en sécurité numérique d’Accenture. Avant son voyage, il a partagé des conseils pour éviter les vidéos trompeuses créées à l’aide de l’IA.
« Un exemple de deepfake est lorsqu’on prend une vidéo enregistrée avec un téléphone et que l’on effectue un échange de visages », explique-t-il.
Si des arnaqueurs ont toujours existé, selon Daniel Kendzior, expert en sécurité chez Accenture, ce qui a changé aujourd’hui, c’est la facilité de création de vidéos ou de clips audio de haute qualité.
« Ce qui a vraiment changé, c’est que vous avez toujours pu créer certaines de ces images, mais la rapidité et les ressources relativement faibles pour le faire sont très différentes aujourd’hui. Les gens peuvent le faire depuis chez eux », souligne-t-il.
C’est pourquoi Accenture a élaboré des exemples pour aider à repérer des vidéos falsifiées, en utilisant le visage d’une femme dans d’autres vidéos. Kendzior en passe en revue quelques-uns.
« Le teint du visage et du cou est un peu différent, donc cela ressort. La taille du visage lors de l’échange a également tendance à être légèrement incorrecte », note-t-il.
Grâce à l’intelligence artificielle, Kendzior affirme qu’il est facile de produire des vidéos similaires. Dans un autre exemple, la haute résolution du visage de la femme était plus évidente par rapport au reste de l’arrière-plan. Il précise qu’il est plus facile de repérer des anomalies si l’on ralentit ou fige la vidéo.
« Cela se produit fréquemment. Il peut y avoir une vidéo devenue virale sur quelqu’un faisant quelque chose qui attire l’attention, et dans ce cas, le visage a été superposé. Vous voyez cette ligne nette, c’est parce que le visage a été appliqué sur le chapeau », explique-t-il.
Malgré les formations, la technologie continue de progresser, rendant les deepfakes plus difficiles à détecter. Kendzior évoque un signe d’alerte à garder à l’esprit.
« L’acteur malveillant essaie de créer un sentiment d’urgence. Si vous sentez que quelqu’un essaie de vous amener à agir rapidement, utilisez cela comme un instinct pour ralentir et vérifier à nouveau », conseille-t-il.
Kendzior ajoute qu’un autre moyen de repérer un deepfake est de connaître la personne dans la vidéo et de remarquer des différences dans sa manière habituelle de parler ou de bouger.
Points à retenir
- Le CES 2023 met l’accent sur l’intelligence artificielle et ses applications dans divers domaines.
- Les deepfakes, bien que déjà présents, ont gagné en accessibilité et en qualité grâce à de nouvelles technologies.
- Des méthodes simples existent pour détecter des vidéos truquées, notamment en observant des incohérences dans les facial expressions.
- Un sentiment d’urgence dans un message peut être un signe d’alarme pour le spectateur, indiquant potentiellement une manipulation.
Cette évolution technologique soulève des questions importantes sur l’intégrité des contenus numériques. Alors que les profondeurs de l’IA continuent à s’étendre, il est crucial que le grand public développe une conscience critique face à ces innovations, afin de naviguer de manière sécurisée dans un paysage médiatique de plus en plus complexe.
- Source image(s) : www.cbsnews.com
- Source : https://www.cbsnews.com/chicago/news/how-to-spot-deepfakes-artificial-intelligence/
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.