Lors des primaires américaines de 2024, des appels automatisés utilisant un audio généré par IA, imitant la voix du président Biden, ont été déployés pour tromper les électeurs démocrates du New Hampshire. Cet incident met en lumière une nouvelle ère du marketing politique, où l’intelligence artificielle (IA) transforme non seulement les campagnes, mais aussi l’engagement démocratique dans son ensemble. À mesure que l’IA continue d’évoluer, son influence sur le marketing politique soulève des questions pressantes en matière de régulation, d’éthique et de transparence. En somme, l’IA pourrait redéfinir les stratégies de campagne, mais les décideurs politiques sont-ils prêts à relever ce défi ?

Si l’IA est utilisée dans la publicité depuis longtemps, son rôle dans le marketing politique est devenu récemment plus disruptif et transformateur. Elle n’est plus seulement limitée à l’automatisation des tâches ou à la personnalisation des annonces ; elle permet désormais un ciblage hyper-précis, des deepfakes manipulatoires et des analyses de données sans précédent, le tout à grande échelle. Cette technologie révèle des failles dans les cadres réglementaires qui régissent la publicité politique, laissant les électeurs exposés à la manipulation. Alors, comment réguler un système où l’IA influence tout, du ciblage des électeurs à la création de publicités ? Quelles politiques devons-nous réformer d’urgence pour assurer une utilisation éthique ?

Les réglementations actuelles, principalement axées sur les médias traditionnels, ne sont pas adaptées pour faire face aux défis uniques posés par l’IA. La distribution de contenus hautement persuasifs et sur mesure à grande échelle, souvent sans que les électeurs s’en rendent compte, exige une refonte des lois existantes. Il ne s’agit pas de simples ajustements, mais de l’élaboration de nouvelles règles qui reflètent le pouvoir transformateur de l’IA.

Renforcement des lois sur la vie privée des données : protection des informations des électeurs

Au cœur du marketing politique basé sur l’IA réside la donnée, qui alimente un ciblage précis des électeurs et la création de contenus personnalisés. Pourtant, les réglementations américaines restent fragmentées et sectorielles en matière de protection des données, sans loi fédérale complète régiissant les vastes quantités de données utilisées dans les campagnes marketing ou politiques. L’IA aggrave les faiblesses d’un système réglementaire défaillant en exposant ses limitations fondamentales face aux complexités de l’utilisation moderne des données. Cela souligne l’urgence de réformer les cadres de gouvernance des données actuels. Le scandale de Cambridge Analytica en 2016 a montré comment la collecte de données sans surveillance adéquate peut être exploitée pour manipuler le comportement des électeurs par le profilage individuel à l’aide de contenus politiques ciblés.

Assurer la transparence dans l’utilisation de l’IA : informer les électeurs

L’utilisation de l’IA pour le ciblage publicitaire dans les campagnes politiques n’est pas nouvelle. Toutefois, la démocratisation des outils d’IA les a rendus plus accessibles, permettant même aux plus petites campagnes de créer et de diffuser des contenus générés par IA. Par conséquent, les électeurs sont de plus en plus exposés à des messages façonnés par l’IA, souvent à leur insu. L’absence de divulgation obligatoire signifie que les électeurs peuvent ignorer comment de tels contenus peuvent influencer leurs perceptions et décisions.

Malgré des mesures de transparence récentes mises en place par des entreprises comme Google et Meta, qui exigent que les publicités politiques modifiées par IA soient accompagnées de mentions, ces efforts varient en fonction de leur mise en œuvre et de leur application au sein de l’écosystème numérique plus large. Certaines plateformes examinent l’utilisation de l’IA et appliquent des étiquettes lorsque cela est jugé nécessaire, mais des incohérences persistent en raison des limites des technologies de détection. Il est impératif que les réglementations exigent des divulgations uniformes concernant l’IA sur les différentes plateformes, et des portails de transparence en temps réel devraient être mis en place pour garantir que les électeurs comprennent comment l’IA façonne les messages politiques.

Lutter contre les deepfakes et la désinformation : sauvegarder l’intégrité politique

Parmi les utilisations les plus préoccupantes de l’IA en politique figurent les deepfakes capables d’imiter de manière convaincante de vraies personnes. Ces derniers sont souvent employés pour tromper les électeurs. Ainsi, début 2024, des appels automatisés contenant un audio généré par IA imitant le président Biden ont été utilisés pour induire en erreur les démocrates dans le New Hampshire. Des réglementations sur l’utilisation des deepfakes dans les campagnes politiques existent dans certains États, avec dix-neuf d’entre eux ayant adopté des lois. Le Texas a ouvert la voie en 2019 en interdisant les vidéos deepfake visant à nuire à un candidat ou à influencer les élections. La Californie a suivi en interdisant les contenus « matériellement trompeurs » dans les 60 jours précédant une élection. En 2023, le Minnesota et le Michigan ont restreint le contenu généré par IA dans les 90 jours précédant une élection, et l’État de Washington a permis aux candidats de poursuivre en justice concernant les médias synthétiques falsifiés, sauf s’ils étaient divulgués. Des États comme le Nouveau-Mexique, la Floride, l’Utah, l’Indiana et le Wisconsin exigent désormais la divulgation du contenu généré par IA dans les publicités politiques.

Bien que ces initiatives étatiques soient encourageantes, une législation fédérale complète reste nécessaire pour assurer une uniformité dans la réglementation du contenu généré par IA dans les campagnes politiques. Une telle législation devrait obliger tous les contenus politiques générés ou modifiés par IA à être clairement étiquetés sur l’ensemble des plateformes médiatiques afin que les électeurs puissent facilement distinguer le contenu réel du contenu manipulé. De plus, les campagnes et les plateformes devraient être tenues de divulguer l’utilisation de l’IA en temps réel via des portails de transparence accessibles au public, des dépôts ou des initiatives plus larges de supervision de l’IA, fournissant aux électeurs et aux organismes de réglementation un accès immédiat aux informations sur l’utilisation des outils d’IA dans la publicité.

Combler l’écart réglementaire : établir une supervision pour l’IA dans les campagnes

La législation au niveau des États concernant l’IA est fragmentée, créant un patchwork de politiques à travers le pays. Bien que le décret exécutif sur l’IA sous la présidence de Biden cherche à établir un cadre national, il est probable qu’il soit annulé par l’administration Trump à venir, qui a signalé un moins grand intérêt pour une réglementation stricte de l’IA. Un second mandat pour Trump pourrait signifier un recul des efforts antérieurs visant à établir des lignes directrices éthiques et un contrôle plus rigoureux sur les technologies de l’IA dans les campagnes politiques. Cela pourrait confier la régulation aux États, exacerbant les incohérences et créant encore plus d’opportunités d’abus.

En l’absence d’une réglementation fédérale complète, les campagnes pourraient expérimenter l’IA sans supervision significative. Un organe de surveillance dédié à l’IA au sein de la Commission électorale fédérale (FEC) pourrait surveiller l’utilisation éthique de l’IA dans les campagnes politiques et garantir le respect des lois sur la transparence et la protection des données. Le projet de règle interprétative de la FEC précise que les médias générés par IA relèvent des lois existantes contre la fraude, assurant que l’IA ne peut pas être utilisée pour tromper les électeurs. Cependant, un cadre fédéral plus large est encore nécessaire pour traiter le rôle évolutif de l’IA dans les campagnes, garantissant une application cohérente et abordant des questions telles que la transparence et les deepfakes. De plus, les réglementations actuelles de la FEC doivent être mises à jour pour tenir compte des nouvelles technologies d’IA utilisées dans la publicité politique, afin de prévenir la diffusion de contenus manipulés ou trompeurs.

Vers l’avenir

Le rôle de l’IA dans le marketing politique s’annonce en pleine croissance, apportant son lot de risques et d’opportunités. Les outils pour des campagnes personnalisées et des deepfakes deviendront plus accessibles, augmentant ainsi l’urgence de la réglementation. Des efforts fédéraux comme la « Honest Ads Act » et la « Protect Elections from Deceptive AI Act » de la sénatrice Amy Klobuchar (D-MN) restent en suspens en raison du lobbying de l’industrie et des désaccords politiques.

Sous un second mandat de Trump, une politique de déréglementation pourrait freiner les progrès en matière de supervision de l’IA. L’administration pourrait privilégier des politiques « favorables à l’industrie » au détriment de la responsabilité et de la transparence, laissant la charge de la régulation à un ensemble de lois étatiques fragmentées. Bien que certains estiment que les réglementations pourraient étouffer l’innovation, la montée incontrôlée de l’IA en politique risque de plonger les « Mad Men » de la publicité dans une folie totale. La question n’est pas de savoir si la réglementation freine l’innovation, mais si le fait de poursuivre l’innovation sans responsabilité abandonne la démocratie.

Points à retenir

  • Les incidents comme les faux appels automatisés lors des primaires de 2024 illustrent les risques liés à l’utilisation de l’IA en politique.
  • Des défis majeurs subsistent dans la réglementation du marketing politique basé sur l’IA, notamment en matière de protection des données et d’éthique.
  • Une législation fédérale est nécessaire pour une application uniforme des règles entourant l’utilisation de l’IA dans les campagnes politiques.
  • Les États prennent des initiatives, mais des efforts concertés au niveau national sont essentiels pour éviter un cadre législatif incohérent.

La question de l’encadrement de l’IA en politique soulève un enjeu complexe : jusqu’où aller pour protéger la démocratie sans freiner l’innovation ? Une réflexion nécessaire pour envisager l’avenir de l’engagement civique à l’ère numérique.



  • Source image(s) : www.techpolicy.press
  • Source : https://www.techpolicy.press/the-mad-men-are-now-math-men-a-new-playbook-for-political-marketing-in-the-age-of-ai/


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *