Alors que la session législative de 2025 s’ouvre, la Fondation pour les droits individuels dans l’éducation (FIRE) se prépare à une vague de propositions de lois ciblant l’intelligence artificielle (IA) de la part des législateurs tant au niveau des États qu’au niveau fédéral.

Le Premier Amendement s’applique à l’intelligence artificielle tout comme il s’applique à d’autres technologies d’expression. Tout comme l’imprimerie, la caméra ou Internet, l’IA peut être considérée comme un outil d’expression — une avancée technologique qui facilite nos interactions et la création de connaissances. Comme l’a souligné Nico Perrino, Vice-Président exécutif de FIRE, dans les colonnes du Los Angeles Times le mois dernier : « La Constitution ne devrait pas être réécrite pour chaque nouvelle technologie de communication. »

Nous rappelons une fois de plus aux législateurs que les lois existantes, régies par les exceptions étroites et bien définies aux protections larges du Premier Amendement, traitent déjà la majorité des préjudices que ces derniers pourraient vouloir contrer dans l’année à venir. Par exemple, les lois interdisant la fraude, forgery, discrimination et diffamation s’appliquent indépendamment de la manière dont ces activités illégales sont menées. La responsabilité des actes illégaux incombe aux auteurs de ces actes, et non aux outils d’information ou de communication utilisés.

Certaines initiatives législatives visant à encadrer l’utilisation de l’IA soulèvent des questions familières liées au Premier Amendement. Par exemple, les propositions réglementaires exigeant des “filigranes” sur les œuvres d’art créées par IA ou des avertissements sur le contenu généré par IA violent le Premier Amendement en contraignant l’expression. FIRE a vigoureusement critiqué ce type d’efforts et continuera de le faire, tout comme nous avons lutté contre les tentatives gouvernementales de contraindre l’expression dans les écoles, sur les campus ou en ligne.

Au lieu d’imposer des avertissements ou des restrictions de contenu sur l’expression générée par l’IA, les législateurs devraient se rappeler que la loi protège déjà contre la diffamation, la fraude et d’autres comportements illégaux.

Les législateurs ont également cherché à réglementer voire criminaliser l’utilisation de contenu généré par IA dans le cadre de communications liées aux élections. Toutefois, les tribunaux ont montré des réserves face aux tentatives législatives visant à contrôler les productions de l’IA lorsqu’il s’agit de discours politique. Par exemple, suite à un recours du point de vue du Premier Amendement d’un satiriste utilisant l’IA pour générer des parodies de figures politiques, un tribunal fédéral a récemment suspendu une loi californienne ciblant les “deepfakes” régulant les contenus électoraux “matériellement trompeurs”.

Les restrictions sur le contenu, telles que celle instaurée par la loi californienne, nécessitent un contrôle judiciaire strict, peu importe la manière dont cette expression est produite. Comme l’a noté le tribunal fédéral, les protections constitutionnelles « garantissant le droit du peuple à critiquer le gouvernement et ses représentants s’appliquent même à l’ère technologique où les médias peuvent être modifiés numériquement. » Ainsi, même si les législateurs pourraient craindre à juste titre un paysage médiatique manipulé numériquement, cela ne leur confère pas le droit de piétiner une tradition séculaire d’expression protégée, de critique et de satire prévue par le Premier Amendement.

D’autres propositions législatives menacent le Premier Amendement en imposant des charges directement sur les développeurs des modèles d’IA. Dans les mois à venir, par exemple, les législateurs du Texas examineront le Texas Responsible Artificial Intelligence Governance Act, ou TRAIGA, une loi ambitieuse qui rendra les développeurs, distributeurs et utilisateurs de systèmes d’IA responsables des risques de “discrimination algorithmique” pouvant être introduits, y compris par des acteurs privés. Cette loi confère une large autorité réglementaire à un nouvel “Conseil de l’Intelligence Artificielle” de l’État et impose des coûts de conformité élevés. TRAIGA oblige les développeurs à publier des rapports réguliers sur les risques, une exigence qui soulève des préoccupations relatives au Premier Amendement lorsqu’il s’agit de la production expressive d’un modèle d’IA ou de l’utilisation de l’IA comme outil facilitant une expression protégée. L’année dernière, un tribunal fédéral a déclaré qu’une exigence similaire imposée aux plateformes de médias sociaux était probablement inconstitutionnelle.

Les dispositions de TRAIGA incitent les développeurs d’IA à réduire les capacités de leurs modèles pour éviter tout risque d’offrir des recommandations que certains pourraient juger discriminatoires ou simplement offensantes — même si cela limite l’utilité ou les capacités des modèles. Traiter de la discrimination illégale est un objectif législatif important, et les législateurs ont l’obligation de veiller à ce que chacun bénéficie de l’égal accès à la protection de la loi. Cela dit, notre expérience de plusieurs décennies à défendre les droits des étudiants et des enseignants a laissé FIRE très conscient de l’effet refroidissant sur la liberté d’expression qui découle d’interprétations vastes ou arbitraires des lois anti-discrimination sur les campus. Nous nous opposerons donc aux efforts législatifs mal conçus qui, de manière fonctionnelle, instaureraient le même climat de peur au sein des systèmes d’intelligence artificielle.

La portée expansive de propositions législatives telles que TRAIGA entre en conflit direct avec les droits d’expression des personnes qui développent et utilisent des modèles d’IA. Plutôt que d’imposer des avertissements ou des restrictions basées sur le contenu concernant l’expression générée par IA, les législateurs doivent se rappeler que la loi protège déjà contre la diffamation, la fraude et d’autres comportements illicites. Et au lieu de charger les développeurs de manière préventive avec une responsabilité large pour la production potentielle d’un modèle d’IA, les législateurs doivent examiner les recours que les lois existantes offrent déjà aux victimes de discrimination contre ceux qui pourraient utiliser l’IA — ou tout autre outil de communication — à des fins illégales.

FIRE continuera d’aborder les menaces que représentent pour le Premier Amendement les propositions législatives concernant l’IA dans les semaines et mois à venir.

Points à retenir

  • Les législateurs doivent veiller à ce que la réglementation de l’IA respecte les protections offertes par le Premier Amendement.
  • Des initiatives telles que TRAIGA peuvent avoir des conséquences imprévues sur la liberté d’expression des développeurs d’IA.
  • Les lois existantes contre la fraude et la diffamation sont suffisamment robustes pour traiter de nombreux problèmes sans imposer de nouvelles réglementations restrictives sur l’IA.
  • Les préoccupations légitimes concernant l’utilisation malveillante de l’IA ne justifient pas une violation des droits d’expression.

En conclusion, la montée en puissance de l’intelligence artificielle soulève des questions cruciales sur l’équilibre entre la réglementation et la liberté d’expression. La réflexion sur ces enjeux pourrait engendrer un dialogue constructif sur la manière de naviguer dans ce paysage technologique en évolution tout en préservant les droits fondamentaux garantis par la Constitution.



  • Source image(s) : www.thefire.org
  • Source : https://www.thefire.org/news/fire-statement-legislative-proposals-regulate-artificial-intelligence


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *