Selon le C2PA, cette image de stock serait étiquetée comme une vraie photographie si l'appareil photo utilisé pour la prendre et l'outil de retouche le supportaient.
Agrandir
/ Selon le C2PA, cette image de stock serait étiquetée comme une vraie photographie si l’appareil photo utilisé pour la prendre et l’outil de retouche le supportaient. Mais même en tant que vraie photo, représente-t-elle réellement la réalité, et existe-t-il une solution technologique à ce problème ?

Ce mardi, Google a annoncé des plans pour mettre en œuvre une technologie d’authentification du contenu dans ses produits afin d’aider les utilisateurs à faire la distinction entre les images créées par des humains et celles générées par des IA. Au cours des prochains mois, le géant technologique intégrera la norme Coalition for Content Provenance and Authenticity (C2PA), un système conçu pour suivre l’origine et l’historique de modification du contenu numérique, dans ses services de recherche, de publicité, et potentiellement YouTube. Cependant, il reste à voir si une solution technologique peut résoudre la question ancienne du trust envers les médias enregistrés produits par des inconnus.

Un groupe de sociétés technologiques a créé le système C2PA en 2019 dans une tentative de lutter contre les contenus synthétiques trompeurs et réalistes en ligne. À mesure que le contenu généré par IA devient plus courant et réaliste, les experts s’inquiètent de la difficulté pour les utilisateurs de déterminer l’authenticité des images qu’ils rencontrent. La norme C2PA crée une traçabilité numérique pour le contenu, soutenue par une autorité de signature en ligne, qui inclut des informations métadonnées sur l’origine des images et comment elles ont été modifiées.

Google intégrera cette norme C2PA dans ses résultats de recherche, permettant aux utilisateurs de voir si une image a été créée ou modifiée à l’aide d’outils d’IA. La fonctionnalité “À propos de cette image” dans Google Search, Lens et Circle to Search affichera cette information lorsque cela sera disponible.

Dans un article de blog, Laurie Richardson, vice-présidente de la confiance et de la sécurité chez Google, a reconnu les complexités d’établir la provenance des contenus à travers les plateformes. Elle a déclaré : “Établir et signaler la provenance des contenus reste un défi complexe, avec une multitude de considérations selon le produit ou le service. Et bien que nous sachions qu’il n’existe pas de solution miracle pour tous les contenus en ligne, collaborer avec d’autres acteurs du secteur est essentiel pour créer des solutions durables et interopérables.”

La société prévoit d’utiliser la dernière norme technique du C2PA, version 2.1, qui offre apparemment une meilleure sécurité contre les attaques de falsification. Son utilisation s’étendra au-delà de la recherche puisque Google a l’intention d’incorporer les métadonnées du C2PA dans ses systèmes publicitaires comme moyen de “faire respecter des politiques clés”. YouTube pourrait également intégrer des informations du C2PA pour le contenu capturé par des caméras dans le futur.

L’efficacité généralisée du C2PA reste un rêve

Bien qu’ayant une histoire qui remonte à au moins cinq ans, le chemin vers une technologie utile de provenance de contenu comme le C2PA est semé d’embûches. La technologie est entièrement volontaire et les métadonnées d’authentification peuvent facilement être supprimées des images une fois ajoutées.

Les générateurs d’images IA devraient soutenir la norme pour que les informations C2PA soient incluses dans chaque fichier généré, ce qui exclura probablement les modèles de synthèse d’images open source comme Flux. Il se pourrait donc qu’au final, plus de médias “authentiques”, créés par des caméras, soient étiquetés avec le C2PA que d’images générées par IA.

De plus, maintenir les métadonnées nécessite une chaîne d’outils complète qui prend en charge le C2PA à chaque étape, y compris à la source et tout logiciel utilisé pour modifier ou retoucher les images. Actuellement, seuls quelques fabricants d’appareils photo, tels que Leica, prennent en charge la norme C2PA. Nikon et Canon se sont engagés à l’adopter, mais LesNewsrapporte qu’il subsiste encore des incertitudes quant à la mise en œuvre de la norme C2PA par Apple et Google sur leurs appareils mobiles.

Photoshop et Lightroom d’Adobe peuvent ajouter et maintenir des données C2PA, mais de nombreux autres outils d’édition populaires n’offrent pas encore cette fonctionnalité. Il suffit d’un seul éditeur d’images non conforme dans la chaîne pour compromettre l’utilité complète du C2PA. Et le manque général de méthodes de visualisation normalisées pour les données C2PA à travers les plateformes en ligne constitue un autre obstacle à l’utilisation de la norme pour les utilisateurs quotidiens.

Actuellement, le C2PA pourrait être considéré comme une solution technologique aux problèmes de confiance entourant les images fausses. En ce sens, le C2PA pourrait devenir un des nombreux outils utilisés pour authentifier un contenu en déterminant si l’information provient d’une source crédible—si les métadonnées C2PA sont préservées—mais il est peu probable que cela soit une solution complète à la désinformation générée par l’IA à lui seul.

En tant que journaliste, je constate l’importance de ces technologies dans notre quête de transparence et de vérité dans le contenu numérique. Alors que les défis persistent, il est essentiel de rester vigilants face à la désinformation et de faire évoluer nos outils pour mieux comprendre et vérifier la provenance des médias que nous consommons.

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *