La loi californienne sur l’innovation "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act" (SB-1047) a provoqué un flot de titres et de débats autour de la "sécurité" des grands modèles d’intelligence artificielle. Toutefois, les critiques s’inquiètent du fait que l’accent exagéré mis sur les menaces existentielles liées aux futurs modèles d’IA puisse sérieusement limiter la recherche et le développement des applications plus prosaïques et non menaçantes de l’IA d’aujourd’hui.

Introduite par le sénateur d’État Scott Wiener, la SB-1047 a été adoptée par le Sénat californien en mai par un vote de 32 à 1 et semble bien positionnée pour un vote final à l’Assemblée d’État en août. Le texte de la loi exige des entreprises derrière des modèles d’IA suffisamment grands (actuellement fixés à 100 millions de dollars en coûts de formation et la puissance de calcul approximative sous-entendue par ces coûts ce jour) qu’elles mettent en place des procédures et des systèmes de test pour prévenir et réagir aux "incidents de sécurité".

La loi propose une définition juridique de ces incidents de sécurité, qui se concentre sur l’identification d’un ensemble de "dommages critiques" que pourrait permettre un système d’IA. Cela inclut des dommages entraînant "des pertes massives en vie humaine ou au moins 500 millions de dollars de dommages", tels que "la création ou l’utilisation d’armes chimiques, biologiques, radiologiques ou nucléaires" (bonjour Skynet?) ou "des instructions précises pour mener une cyberattaque… sur des infrastructures essentielles." La loi fait également allusion à "d’autres graves dommages à la sécurité publique et à la sûreté, de gravité comparable" à ceux explicitement énoncés.

Le créateur d’un modèle d’IA ne peut être tenu responsable des dommages causés par le partage d’informations "accessibles au public" provenant de l’extérieur du modèle—par exemple, demander à un LLM de résumer The Anarchist’s Cookbook ne le placerait probablement pas en violation de la loi. Au lieu de cela, la loi semble se préoccuper principalement des futures IA qui pourraient concevoir des "menaces novatrices à la sécurité publique". Plus qu’un humain utilisant une IA pour générer des idées nuisibles, la SB-1047 se concentre sur l’idée d’une IA "s’engageant de manière autonome dans un comportement autre qu’à la demande d’un utilisateur" tout en agissant "avec une supervision, une intervention ou une surveillance humaines limitées".

Pour prévenir cette éventualité tout droit sortie de la science-fiction, quiconque entraîne un modèle suffisamment grand doit "implémenter la capacité de procéder rapidement à un arrêt complet" et avoir des politiques en place pour déterminer quand un tel arrêt devra être mis en œuvre, entre autres précautions et tests. La loi met également l’accent sur les actions de l’IA qui nécessiteraient "l’intention, la témérité ou une négligence grave" si elles étaient réalisées par un humain, suggérant un degré d’agence qui n’existe pas dans les modèles de langage actuels.

Cette terminologie dans le texte de loi reflète probablement les craintes particulières de son rédacteur original, Dan Hendrycks, co-fondateur du Center for AI Safety (CAIS). Dans un article de 2023 publié dans Time Magazine, Hendrycks avance l’argument maximaliste selon lequel "les pressions évolutives vont probablement inciter les IA à adopter des comportements favorisant leur auto-préservation", menant à "un chemin conduisant à être supplanté en tant qu’espèce dominante sur Terre."

Si Hendrycks a raison, alors des législations comme la SB-1047 semblent être une précaution de bon sens—en effet, cela pourrait ne pas aller assez loin. Les partisans de la loi, dont les sommités de l’IA Geoffrey Hinton et Yoshua Bengio, conviennent de l’affirmation de Hendrycks selon laquelle cette loi est une étape nécessaire pour prévenir des dommages catastrophiques potentiels causés par des systèmes d’IA avancés.

"Les systèmes d’IA au-delà d’un certain niveau de capacité peuvent poser des risques significatifs pour les démocraties et la sécurité publique," a écrit Bengio dans une endorsement de la loi. "Par conséquent, ils doivent être correctement testés et soumis à des mesures de sécurité appropriées. Ce projet de loi propose une approche pratique pour y parvenir et représente un pas important vers les exigences que j’ai recommandées aux législateurs."

Cependant, les critiques avancent que la politique de l’IA ne devrait pas être guidée par des peurs extravagantes concernant des systèmes futurs qui ressemblent davantage à la science-fiction qu’à la technologie actuelle. "La SB-1047 a été à l’origine rédigée par des groupes à but non lucratif qui croient à la fin du monde par des machines conscientes, comme le Centre pour la sécurité de l’IA de Dan Hendrycks," a déclaré Daniel Jeffries, une voix proéminente dans la communauté de l’IA. "On ne peut pas partir de ce postulat et créer une loi de sécurité saine et raisonnée."

"Si nous percevons un comportement visant à accumuler du pouvoir ici, ce n’est pas celui des systèmes d’IA, mais des pessimistes de l’IA," a ajouté l’expert en politique technologique Nirit Weiss-Blatt. "Avec leurs peurs fictives, ils essaient de soumettre une législation inspirée par la fiction, une législation qui, selon de nombreux experts en IA et partisans de l’open source, pourrait ruiner l’avantage technologique de la Californie et des États-Unis."

En tant que journaliste, je ne peux m’empêcher de ressentir une certaine ambivalence face à cette législation. D’une part, la sécurité publique est primordiale, et nous avons besoin de règles qui permettent d’éviter les dérives potentielles de l’IA. D’autre part, il est impératif que notre recherche sur l’IA avancée ne soit pas étouffée par des peurs infondées, mais plutôt guidée par une compréhension et une régulation adéquates, afin que la France et le monde entier puissent bénéficier des avancées que cette technologie promet.

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *