Le président élu des États-Unis, Donald Trump, et Elon Musk assistent au lancement du sixième vol d’essai de la fusée Starship de SpaceX à Brownsville, Texas, le 19 novembre 2024.

Brandon Bell | Via Reuters

Le paysage politique américain est sur le point d’évoluer en 2025, avec des changements qui auront des implications considérables pour la réglementation de l’intelligence artificielle.

Donald Trump sera intronisé président le 20 janvier. Il sera entouré de conseillers influents du milieu des affaires, parmi lesquels Elon Musk et Vivek Ramaswamy, qui sont attendus pour influencer les réflexions politiques sur les technologies émergentes comme l’IA et les cryptomonnaies.

De l’autre côté de l’Atlantique, une divergence réglementaire se dessine entre le Royaume-Uni et l’Union Européenne. Tandis que l’UE adopte une approche plus stricte envers les géants de la technologie de la Silicon Valley, la Grande-Bretagne privilégie une régulation plus légère.

En 2025, la réglementation de l’IA pourrait connaître une refonte majeure à l’échelle mondiale. CNBC examine certains des développements clés à surveiller, du projet de loi historique de l’UE sur l’IA aux potentiels changements sous l’administration Trump.

L’influence politique de Musk aux États-Unis

Elon Musk se rend au Capitole, le jour d’une rencontre avec le leader républicain sénatorial élu John Thune (R-SD), à Washington, U.S. le 5 décembre 2024.

Benoit Tessier | Reuters

Bien que l’intelligence artificielle n’ait pas été un sujet majeur pendant la campagne électorale de Trump, elle est désormais considérée comme l’un des secteurs bénéficiant de la prochaine administration américaine.

En effet, Trump a désigné Musk, PDG de la société automobile électrique Tesla, pour codiriger son « Département de l’Efficacité Gouvernementale » avec Ramaswamy, un entrepreneur américain en biotechnologie qui a suspendu sa campagne présidentielle de 2024 pour soutenir Trump.

Matt Calkins, PDG d’Appian, a déclaré à CNBC que la relation étroite entre Trump et Musk pourrait positionner favorablement les États-Unis en matière d’IA, soulignant l’expérience de Musk en tant que cofondateur d’OpenAI et PDG de son propre laboratoire d’IA, xAI, comme des indicateurs positifs.

« Nous avons enfin quelqu’un au sein de l’administration qui connaît véritablement l’IA et a un avis sur le sujet », a déclaré Calkins lors d’une interview le mois dernier. Musk a été l’un des soutiens les plus en vue dans le milieu des affaires durant la campagne de Trump, participant même à certains de ses rassemblements électoraux.

Aucun plan précis n’a encore été communiqué concernant d’éventuels décrets présidentiels ou ordres exécutifs. Cependant, Calkins pense que Musk pourrait proposer des garde-fous afin de garantir que le développement de l’IA n’expose pas l’humanité à des risques, un sujet qu’il a déjà abordé à de multiples reprises.

« Il a une véritable réticence à laisser l’IA causer des conséquences catastrophiques pour l’humanité – cela le préoccupe énormément », a-t-il ajouté.

Pour l’heure, il n’existe pas de législation fédérale complète sur l’IA aux États-Unis, mais plutôt un patchwork de régulations aux niveaux étatique et local, avec de nombreux projets de loi relatifs à l’IA introduits dans 45 États, ainsi qu’à Washington D.C., Porto Rico et les Îles Vierges américaines.

L’Acte sur l’IA de l’UE

L’Union Européenne est jusqu’à présent la seule juridiction à avancer avec des règles complètes pour l’intelligence artificielle, via son Acte sur l’IA.

Jaque Silva | Nurphoto | Getty Images

À ce jour, l’Union Européenne est la seule à avoir mis en place des règles légales complètes pour l’industrie de l’IA. L’année dernière, l’Acte sur l’IA de l’UE — un cadre réglementaire sans précédent — a officiellement été mis en vigueur.

Bien que la loi ne soit pas encore complètement opérationnelle, elle suscite déjà des tensions parmi les grandes entreprises technologiques américaines, qui craignent que certains aspects de la réglementation soient excessivement stricts et n’étouffent l’innovation.

En décembre, le Bureau de l’IA de l’UE, nouvellement créé, a publié une seconde version du code de pratiques pour les modèles d’IA à usage général, qui inclut des exemptions pour les fournisseurs de certains modèles d’IA open-source, disponibles pour le public afin que les développeurs puissent créer leurs propres variantes. Des exigences de rigueur sur les évaluations des risques sont également imposées pour les modèles GPAI qualifiés de « systémiques ».

La Computer & Communications Industry Association — dont les membres incluent des entreprises telles qu’Amazon, Google et Meta — a averti que le texte comporte des mesures allant bien au-delà du cadre initialement convenu, notamment en matière de droits d’auteur.

Il est important de mentionner que l’Acte sur l’IA de l’UE est encore loin d’atteindre sa pleine mise en œuvre. Comme l’a déclaré Shelley McKinley, directrice juridique de la plateforme de dépôt de code GitHub, « la phase suivante du travail a commencé, ce qui pourrait signifier qu’il y a plus à venir que ce qui a été accompli jusqu’à présent ».

En février, la première disposition de cette loi, portant sur les applications d’IA « à haut risque » telles que l’identification biométrique à distance, les décisions de crédit et le scoring éducatif, deviendra exécutoire, et un troisième projet de code sera publié le même mois.

Les leaders technologiques européens craignent que des mesures punitives de l’UE à l’encontre des entreprises technologiques américaines n’incitent Trump à riposter, ce qui pourrait forcer l’Europe à assouplir son approche.

Un exemple en est la réglementation antitrust. L’UE a été un acteur actif pour restreindre la domination des géants technologiques américains, une démarche qui pourrait entraîner une réponse négative de Trump, selon Andy Yen, PDG de la société suisse de VPN Proton.

« Trump’s view est qu’il voudrait probablement réguler ses entreprises technologiques lui-même », a-t-il expliqué lors d’une interview en novembre à la conférence technologique Web Summit à Lisbonne, au Portugal. « Il ne souhaite pas que l’Europe s’en mêle ».

Révision des droits d’auteur au Royaume-Uni

Le Premier ministre britannique Keir Starmer lors d’une interview médiatique durant la 79ème session de l’Assemblée générale des Nations Unies au siège de l’ONU à New York, États-Unis, le 25 septembre 2024.

Leon Neal | Via Reuters

Le Royaume-Uni est un pays à surveiller. Historiquement, il a évité d’introduire des obligations légales pour les créateurs de modèles d’IA, craignant que de nouvelles législations ne soient trop restrictives.

Cependant, le gouvernement de Keir Starmer a affirmé qu’il envisageait la rédaction d’une législation sur l’IA, bien que les détails soient encore rares pour l’instant. L’on s’attend à ce que le Royaume-Uni adopte une approche plus axée sur les principes en matière de réglementation de l’IA, contrairement au cadre basé sur les risques de l’UE.

Le mois dernier, le gouvernement a lancé sa première consultation majeure concernant la réglementation de l’utilisation de contenus protégés par des droits d’auteur pour former des modèles d’IA. Ce sujet est particulièrement crucial pour les IA génératives et les modèles de langage de grande taille, qui utilisent souvent des données publiques du web pour affiner leurs algorithmes. Cependant, cela inclut également des œuvres d’art et d’autres contenus protégés. Des artistes et éditeurs, comme le New York Times, allèguent que leurs contenus sont utilisés de manière injuste pour générer de nouvelles créations sans leur consentement.

Pour remédier à cette situation, le gouvernement britannique envisage d’exempter la loi sur les droits d’auteur pour la formation des modèles d’IA, tout en permettant aux détenteurs de droits de s’exclure de l’utilisation de leurs œuvres.

Calkins, d’Appian, estime que le Royaume-Uni pourrait devenir un « leader mondial » sur la question des atteintes aux droits d’auteur par les modèles d’IA, ajoutant que le pays n’est pas « soumis à la même pression de lobbying écrasante de la part des leaders d’IA nationaux qu’aux États-Unis ».

Relations États-Unis-Chine comme potentielle source de tension

Le président américain Donald Trump, à droite, et Xi Jinping, président de la Chine, marchent devant des membres de l’Armée populaire de libération (APL) lors d’une cérémonie de bienvenue au Grand Hall du Peuple à Pékin, en Chine, le jeudi 9 novembre 2017.

Qilai Shen | Bloomberg | Getty Images

Enfin, alors que les gouvernements du monde cherchent à réglementer les systèmes d’IA en pleine expansion, des tensions géopolitiques entre les États-Unis et la Chine pourraient s’intensifier sous la présidence de Trump.

Lors de son premier mandat, Trump a instauré plusieurs mesures politiques sévères à l’encontre de la Chine, ajoutant Huawei sur une liste noire commerciale qui l’empêchait de travailler avec des fournisseurs technologiques américains. Il a également proposé de limiter l’accès à TikTok, appartenant à la société chinoise ByteDance, bien qu’il ait depuis adouci sa position sur TikTok.

Alors que la Chine s’efforce de devancer les États-Unis en matière de technologies d’IA, ce dernier a pris des mesures pour restreindre l’accès de la Chine à des technologies clés, principalement les puces, telles que celles conçues par Nvidia, nécessaires à l’entraînement de modèles d’IA avancés. En réponse, la Chine tente de développer sa propre industrie de puces.

Des techniciens craignent qu’un éclatement géopolitique entre les États-Unis et la Chine sur le sujet de l’intelligence artificielle ne crée d’autres risques, comme celui qu’un des deux pays développe un type d’IA plus intelligent que l’homme.

Max Tegmark, fondateur de l’institut à but non lucratif Future of Life, pense qu’à l’avenir, les États-Unis et la Chine pourront créer une IA qui pourra s’améliorer par elle-même et concevoir de nouveaux systèmes sans supervision humaine, ce qui obligera les gouvernements des deux pays à établir des règles concernant la sécurité de l’IA.

« Mon chemin optimiste est que les États-Unis et la Chine imposent unilatéralement des normes de sécurité nationale pour empêcher leurs propres entreprises de causer des dommages et de développer une AGI incontrôlable, non pas pour apaiser les superpuissances rivales, mais simplement pour se protéger », a-t-il déclaré lors d’une interview en novembre.

Les gouvernements tentent déjà de collaborer pour définir des régulations et des cadres autour de l’IA. En 2023, le Royaume-Uni a accueilli un sommet mondial sur la sécurité de l’IA, auquel ont assisté les administrations américaine et chinoise, pour discuter de garde-fous potentiels pour la technologie.

– Article original rédigé par : Arjun Kharpal

Points à retenir

  • Les politiques de l’administration Trump pourraient favoriser des avancées en matière d’intelligence artificielle.
  • L’Union européenne reste en tête avec des régulations sur l’IA, tandis que les États-Unis adoptent une approche fragmentée.
  • Le Royaume-Uni envisage une législation sur l’IA, se démarquant de la réglementation stricte de l’UE.
  • Les relations tendues entre les États-Unis et la Chine risquent d’avoir un impact sur les réglementations concernant l’IA.

Dans ce contexte dynamique, la régulation de l’IA soulève des enjeux cruciaux tant sur le plan technologique qu’éthique. Comment les gouvernements peuvent-ils équilibrer innovation et sécurité tout en naviguant dans des relations internationales complexes ? La réponse à cette question pourrait façonner l’avenir de technologies émergentes, non seulement aux États-Unis, mais dans le monde entier.



  • Source image(s) : www.cnbc.com
  • Source : https://www.cnbc.com/2025/01/06/artificial-intelligence-regulation-in-2025-musk-and-trump-eu-ai-act.html


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *