Suite au veto du gouverneur de Californie sur une législation visant à renforcer la sécurité de l’IA, une cadre de Google DeepMind appelle à un consensus sur ce qui définit une intelligence artificielle sûre, responsable et centrée sur l’humain.
“C’est ce que j’espère pour notre secteur, parvenir à une certaine cohérence afin de tirer tous les bénéfices de cette technologie”, a déclaré Terra Terwilliger, directrice des initiatives stratégiques chez Google DeepMind, la branche recherche en intelligence artificielle de l’entreprise. Elle s’est exprimée lors du Sommet des Femmes les Plus Puissantes de Fortune, aux côtés de Noosheen Hashemi, PDG et cofondatrice de January AI, d’Aidan Madigan-Curtis, partenaire général chez Eclipse Ventures, et de Dipti Gulati, PDG de Deloitte & Touche LLP U.S. pour l’audit et l’assurance.
Les intervenantes ont discuté du projet de loi SB-1047, très discuté en Californie, qui aurait imposé aux développeurs des plus grands modèles d’IA des exigences en matière de tests de sécurité et de gestion des risques. Madigan-Curtis a suggéré que si des entreprises comme OpenAI construisent des modèles aussi puissants qu’elles le prétendent, elles devraient avoir certaines obligations légales pour les développer en toute sécurité.
“C’est un peu comme ça que fonctionne notre système, non ? C’est un équilibre de forces”, a déclaré Madigan-Curtis. “Ce qui rend le métier de médecin effrayant, c’est que l’on peut être poursuivi pour faute professionnelle.”
Elle a également mentionné la disposition de “kill-switch” du projet de loi californien, qui aurait nécessité que les entreprises développent un moyen de désactiver leur modèle s’il était utilisé pour des fins catastrophiques, comme la fabrication d’armes de destruction massive.
“Si votre modèle est utilisé pour terroriser une certaine population, ne devrions-nous pas pouvoir le désactiver ou, vous savez, empêcher cette utilisation ?” a-t-elle questionné.
Terwilliger de DeepMind souhaite voir une réglementation qui prenne en compte les différents niveaux de technologies d’IA. Elle a souligné que les modèles fondamentaux ont des responsabilités différentes par rapport aux applications qui les utilisent.
“Il est vraiment important que nous aidions les régulateurs à comprendre ces distinctions afin d’avoir une réglementation stable et logique”, a-t-elle précisé.
Cependant, l’initiative de construire de manière responsable ne devrait pas nécessairement venir du gouvernement, selon Terwilliger. Même si les exigences réglementaires évoluent, le développement responsable de l’IA sera essentiel pour l’adoption à long terme de cette technologie, a-t-elle ajouté. Cela concerne tous les niveaux de la technologie, de la garantie que les données soient propres à la mise en place de garde-fous pour le modèle.
“Je pense que nous devons croire que la responsabilité est un avantage concurrentiel, et comprendre comment être responsable à tous les niveaux de cette technologie fera la différence”, a-t-elle conclu.
Notre point de vue
Dans le contexte actuel, la question de la régulation de l’IA ne se limite pas uniquement à une démarche législative. Il est impératif que l’innovation technologique s’accompagne d’une prise de conscience collective de la responsabilité éthique. Promouvoir un dialogue entre les acteurs du secteur et les régulateurs pourrait ouvrir la voie à des pratiques plus sûres et plus réflexives. Cette approche, qui valorise la collaboration plutôt que l’imposition de règles, peut être la clé pour naviguer dans les défis complexes que pose l’intelligence artificielle aujourd’hui.
- Source image(s) : fortune.com
- Source : https://fortune.com/2024/10/18/google-deepmind-director-calls-for-ai-regulation/