Une nouvelle ressource pour les responsables fédéraux, étatiques et locaux : Meilleures pratiques pour un développement responsable de l’IA dans le secteur public
WASHINGTON – Aujourd’hui, le Département de la Sécurité Intérieure (DHS) a publié le « Playbook pour le Déploiement de l’Intelligence Artificielle dans le Secteur Public », un guide novateur destiné à aider les responsables gouvernementaux à améliorer la prestation de services par le biais d’un déploiement responsable et efficace des technologies d’intelligence artificielle générative (GenAI). Ce manuel propose des étapes concrètes que les responsables étatiques, locaux et fédéraux peuvent suivre, et présente des exemples de la manière dont le DHS a appliqué et appris ces principes dans son propre parcours avec l’IA générative. En mettant en œuvre les actions et les meilleures pratiques recommandées, les organisations peuvent établir une solide fondation pour le déploiement de l’IA, renforcer leurs capacités internes et garantir une utilisation responsable et efficace des technologies d’IA.
« L’évolution rapide de l’IA générative offre d’énormes opportunités pour les organisations du secteur public. Le DHS est à l’avant-garde des efforts fédéraux pour exploiter de manière responsable le potentiel de cette technologie », a déclaré le secrétaire à la Sécurité intérieure, Alejandro N. Mayorkas. « Cette nouvelle ressource s’inspire de nos propres expériences pour aider les dirigeants étatiques et locaux à adopter les technologies de l’IA dans leur travail. Exploiter en toute sécurité le potentiel de l’IA générative nécessite une collaboration entre le gouvernement, l’industrie, le monde académique et la société civile, et nous espérons que les dirigeants étatiques et locaux rejoindront nos efforts pour favoriser une culture d’innovation responsable et axée sur la mission. »
« La publication de ce manuel constitue un progrès significatif dans nos efforts visant à intégrer l’utilisation de l’IA de manière sûre et sécurisée au sein du secteur public », a ajouté Eric Hysen, directeur des systèmes d’information du DHS. « En partageant nos expériences et nos meilleures pratiques, nous visons à donner aux autres agences gouvernementales l’occasion de tirer parti de l’IA pour améliorer leurs missions tout en protégeant les droits et la vie privée des personnes qu’elles servent. »
Au cours des dernières années, le DHS a été à l’avant-garde de l’intégration de l’IA dans ses opérations. Le département a développé et mis en œuvre de nombreuses initiatives en matière d’IA et d’apprentissage automatique (ML) pour améliorer ses capacités dans des domaines tels que la cybersécurité, la sécurité des frontières, la réponse aux catastrophes et les services d’immigration. Ces efforts incluent la création du Groupe de Travail sur l’Intelligence Artificielle du DHS, la publication de la Feuille de Route sur l’Intelligence Artificielle du DHS, et l’établissement de l’AI Corps pour attirer les meilleurs talents en IA. Le DHS reste déterminé à faire progresser les technologies d’IA de manière à respecter les normes les plus strictes en matière de vie privée et de droits civils.
Le manuel présente des études de cas détaillées issues des projets pilotes du DHS, qui ont testé des applications d’IA générative permettant d’améliorer les pistes d’investigation, d’assister les gouvernements locaux dans la planification des risques et de créer des opportunités de formation innovantes pour les agents d’immigration. Ce guide à la pointe de la technologie propose des recommandations aux dirigeants étatiques et locaux basées sur les leçons tirées de ces projets pilotes et vise à être une ressource accessible pour les organisations du secteur public à tous les stades de leur parcours en matière d’IA.
Le Playbook retrace les étapes suivies par le DHS lors du développement de ses propres applications d’IA générative :
- Développer des cas d’utilisation de l’IA générative alignés sur la mission : Approches pour ajuster les projets d’IA aux priorités et aux besoins organisationnels.
- Former des coalitions et favoriser une gouvernance efficace : Stratégies pour obtenir l’adhésion de la direction au sein de votre organisation et construire des coalitions inter-organisationnelles.
- Exploiter les outils et les infrastructures : Recommandations pour tirer parti des outils techniques et des infrastructures existants pour soutenir le développement de l’IA.
- Utiliser l’IA de manière responsable et sécurisée : Principes pour minimiser les dommages potentiels et garantir une utilisation éthique de l’IA.
- Mesurer les progrès et définir le succès : Méthodes pour suivre l’efficacité des déploiements d’IA à travers des indicateurs de performance clés.
- Former les employés et recruter des talents techniques : Approches pour améliorer les compétences des employés actuels et attirer de nouveaux talents techniques.
- Écouter les retours des utilisateurs : Meilleures pratiques pour impliquer les utilisateurs et les parties prenantes tout au long du cycle de vie du développement de l’IA.
Ce manuel est le fruit de l’engagement continu du Département envers la transparence et l’exploitation du potentiel transformateur de l’IA tout en garantissant la sécurité, la sûreté et la vie privée du peuple américain. Plus récemment, le DHS a publié son Inventaire des Cas d’Utilisation de l’IA mis à jour, offrant une visibilité publique sur les usages non classifiés et non sensibles de l’IA au sein du Département. De plus, le Département a mis en place des programmes de formation robustes pour éduquer ses employés sur l’utilisation responsable de l’IA et a engagé un dialogue avec des acteurs externes, y compris le Congrès et le public, afin de bâtir la confiance et de démontrer sa responsabilité. En novembre 2024, le DHS a lancé le Cadre des Rôles et Responsabilités pour l’Intelligence Artificielle dans les Infrastructures Critiques, un ensemble de recommandations concrètes pour promouvoir un développement et un déploiement sûrs de l’intelligence artificielle au sein de toutes les infrastructures critiques américaines, rédigé en consultation avec le Conseil de Sécurité et de Sécurité de l’IA du DHS, un comité consultatif public-privé regroupant des leaders de l’IA issus de l’industrie, du monde académique, de la société civile et du secteur public.
Le DHS continuera de partager d’autres leçons apprises et mises à jour au fur et à mesure de l’avancement de ses initiatives en matière d’IA. Pour lire le manuel, rendez-vous sur la page web du Playbook de l’IA Générative pour le Secteur Public du DHS.
Pour en savoir plus sur les manières dont le DHS exploite l’IA de manière sûre et responsable pour protéger le territoire national, visitez la page sur l’Intelligence Artificielle au DHS.
Points à retenir
- Le Playbook vise à aider les responsables publics à utiliser efficacement l’IA générative dans leurs missions.
- Il fournit des exemples concrets basés sur les expériences passées du DHS en matière d’intelligence artificielle.
- Les recommandations incluent des stratégies pour garantir un usage éthique et conforme aux priorités organisationnelles.
En conclusion, l’initiative du DHS souligne l’importance de travailler ensemble pour tirer parti des avancées technologiques tout en respectant les principes d’éthique et de responsabilité. Cela ouvre la porte à des réflexions sur la manière dont le secteur public peut continuer à évoluer dans un paysage technologique en constante mutation, en intégrant l’IA tout en protégeant les droits fondamentaux des citoyens.
- Source image(s) : www.dhs.gov
- Source : https://www.dhs.gov/news/2025/01/07/dhs-unveils-playbook-deployment-artificial-intelligence-public-sector
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.