La semaine dernière, le département américain du Travail a publié une liste de bonnes pratiques en matière d’intelligence artificielle destinée aux développeurs et aux employeurs, visant à aider ces derniers à tirer parti des économies de temps et de coûts offertes par l’IA tout en protégeant les travailleurs contre la discrimination et les pertes d’emploi.
Ces lignes directrices volontaires interviennent environ un an après que le président Joe Biden a signé un décret présidentiel visant à évaluer le potentiel innovant et les risques de l’IA dans les secteurs public et privé. Ce décret a ordonné la création du Conseil de l’IA de la Maison Blanche, l’élaboration d’un cadre pour les agences fédérales en matière de protection de la vie privée, et une liste de directives pour sécuriser les talents en IA, tout en naviguant sur les effets sur le marché du travail et en garantissant l’équité dans l’utilisation de l’IA, entre autres.
« Exploiter l’IA de manière bénéfique et réaliser ses multiples avantages nécessite de réduire ses risques considérables », a déclaré Biden à propos du décret l’année dernière. « Cette entreprise exige un effort collectif de la société, impliquant le gouvernement, le secteur privé, le milieu académique et la société civile. »
Le guide du département du Travail, intitulé “Intelligence Artificielle et bien-être des travailleurs : Principes et meilleures pratiques pour les développeurs et les employeurs”, a été élaboré avec les contributions de sessions d’écoute publiques et de divers intervenants, tels que des travailleurs, des syndicats, des chercheurs, des universitaires, des employeurs et des développeurs. L’objectif est d’atténuer les risques de discrimination, de violations de données et de remplacement des emplois par l’IA, tout en embrassant le potentiel d’innovation et de production.
« Que l’IA sur le lieu de travail nuise aux travailleurs et creuse les inégalités ou soutienne ces derniers et ouvre des opportunités dépendra en grande partie des décisions que nous prendrons », a affirmé Julie Su, secrétaire intérimaire du DOL. « Les enjeux sont importants. »
Le rapport propose huit principes et meilleures pratiques avec pour “étoile du nord” le centrage sur les travailleurs. Le guide indique que les travailleurs, notamment ceux issus de communautés sous-représentées, doivent comprendre et avoir leur mot à dire dans la conception, le développement, l’essai, la formation, l’utilisation et la supervision des systèmes d’IA utilisés dans leur milieu de travail. Cela devrait améliorer la qualité des emplois et permettre aux entreprises d’atteindre leurs résultats. Les syndicats doivent négocier de bonne foi sur l’utilisation de l’IA et le suivi électronique au travail, ajoute-t-il.
D’autres bonnes pratiques incluent le développement éthique de l’IA, avec une formation qui protège et recueille les retours des travailleurs. Les organisations doivent également disposer d’un système de gouvernance clair pour évaluer l’IA utilisée sur le lieu de travail, et elles doivent être transparentes concernant les systèmes d’IA qu’elles emploient, a indiqué le DOL.
Les systèmes d’IA ne doivent pas violer ou compromettre les droits des travailleurs à s’organiser, ni entraver leur santé, leur sécurité, leurs salaires, ou leurs protections contre la discrimination et les représailles, précise le département. Par conséquent, avant leur déploiement, les employeurs devraient auditer leurs systèmes d’IA pour évaluer les risques de discrimination sur la base notamment de la race, de la couleur, de l’origine nationale, de la religion, du sexe, du handicap, de l’âge, des informations génétiques et d’autres critères protégés, et devraient rendre ces résultats publics.
Le rapport détaille également comment les employeurs peuvent et doivent soutenir les travailleurs face à l’IA. Avant de mettre en œuvre un outil d’IA, ils doivent prendre en compte son impact sur les opportunités d’emploi et être clairs quant aux tâches spécifiques qu’il effectuera. Les employeurs qui constatent des gains de productivité ou des bénéfices accrus devraient envisager de partager ces avantages avec leurs travailleurs, par exemple par le biais d’augmentations de salaire, d’améliorations des prestations ou de formations, comme le rappelle le DOL.
Enfin, les employeurs utilisant l’IA qui collectent des données sur les travailleurs doivent garantir la sécurité de ces données, ne pas en collecter plus que nécessaire et ne pas partager ces données à l’extérieur de l’entreprise sans le consentement éclairé des travailleurs.
Les directives établies par le DOL ne doivent pas servir de “substitut aux lois et règlements fédéraux ou étatiques existants ou futurs”, mais plutôt de “cadre directif pour les entreprises” qui peut être personnalisé avec le retour d’information de leurs travailleurs.
« Nous devons considérer l’IA comme une technologie potentiellement puissante pour le bien-être des travailleurs, et nous devons exploiter notre talent humain collectif pour concevoir et utiliser l’IA, avec les travailleurs en tant que bénéficiaires, et non comme des obstacles à l’innovation », a conclu Su.
Notre Vision
Dans un monde où l’intelligence artificielle occupe une place de plus en plus centrale, il est essentiel d’adopter une approche proactive et éthique. Nous devons considérer l’IA non seulement comme un outil d’efficacité, mais aussi comme une opportunité d’améliorer la qualité de vie des travailleurs. Il est crucial que les décisions en matière d’IA tiennent compte des besoins des employés, favorisant ainsi un environnement de travail équitable et inclusif. En intégrant les témoignages des travailleurs dans le processus de développement de l’IA, nous pouvons assurer que cette technologie soit au service de tous, sans laisser personne de côté.
- Source image(s) : arkansasadvocate.com
- Source : https://arkansasadvocate.com/2024/10/20/department-of-labor-releases-ai-best-practices-for-employers/