En réponse aux préoccupations soulevées par Geoffrey Hinton concernant les dangers de l’intelligence artificielle (« Le parrain de l’IA » réduit les chances que cette technologie anéantisse l’humanité d’ici 30 ans, 27 décembre), je suis convaincu que ces inquiétudes peuvent être atténuées par une recherche collaborative axée sur la sécurité de l’IA, avec une implication des régulateurs dans le processus.
Actuellement, l’IA avancée est testée après son développement, par le biais d’équipes de « red teams » qui s’efforcent de provoquer des résultats négatifs. Cette méthode n’est pas suffisante ; l’IA doit être conçue pour garantir la sécurité et son évaluation, ce qui peut être accompli en s’appuyant sur l’expertise et l’expérience des secteurs bien établis liés à la sécurité.
Hinton ne semble pas penser que la menace existentielle posée par l’IA soit quelque chose de délibérément programmé – pourquoi ne pas alors se concentrer sur l’évitement de ce scénario ? Bien que je ne partage pas sa perspective sur le niveau de risque encouru par l’humanité, le principe de précaution suggère que nous devons agir sans tarder.
Dans les domaines traditionnels où la sécurité est primordiale, la nécessité de construire des systèmes physiques, comme des avions, limite la rapidité avec laquelle la sécurité peut être intégrée. L’IA avancée n’a pas cette contrainte physique qui ralentit son déploiement, et c’est ici qu’une régulation devient indispensable. Idéalement, une évaluation des risques devrait être réalisée avant le déploiement, mais les critères actuels d’évaluation des risques s’avèrent insuffisants – par exemple, ils ne prennent pas en compte le secteur d’application ou l’échelle de déploiement.
Les régulateurs doivent avoir le pouvoir de « rappeler » les modèles déployés (et les grandes entreprises qui les développent devraient intégrer des mécanismes pour stopper certaines utilisations) tout en soutenant des travaux sur l’évaluation des risques, afin de fournir des indicateurs avancés de dangerosité, et non pas seulement des indicateurs décalés. Autrement dit, le gouvernement doit se concentrer sur un contrôle réglementaire post-commercial tout en soutenant la recherche qui permettra aux régulateurs d’acquérir des connaissances pour imposer un contrôle pré-commercial. Cela représente un défi, mais cela est impératif si Hinton a raison sur le niveau de risque auquel l’humanité est confrontée.
Prof. John McDermid
Institut pour l’Autonomie Sûre, Université de York
Points à retenir
- La nécessité d’une recherche collaborative sur la sécurité de l’IA est mise en avant pour réduire les risques potentiels.
- Les méthodes actuelles de test ne sont pas suffisantes ; des mécanismes intégrés dès la conception sont recommandés.
- Un renforcement des régulations est essentiel, notamment par des évaluations de risque avant déploiement.
- Les régulateurs devraient avoir des prérogatives pour rappeler des modèles d’IA en cas de danger.
Il est indéniable que l’intelligence artificielle soulève des questions cruciales concernant sa sécurité et sa régulation. Alors que nous nous engageons dans cette ère numérique, comment garantir un développement responsable et sécurisé ? Ce débat sera probablement au cœur des discussions sur l’avenir de l’IA.
- Source image(s) : www.theguardian.com
- Source : https://www.theguardian.com/technology/2025/jan/09/collaborative-research-on-ai-safety-is-vital
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.