Une entreprise qui collabore étroitement avec le gouvernement britannique sur la sécurité de l’intelligence artificielle, ainsi que sur la santé et l’éducation, se lance également dans le développement d’IA pour les drones militaires.

La société de conseil Faculty AI a acquis de l’expérience dans la mise en œuvre de modèles d’IA pour des UAVs (véhicules aériens sans pilote), d’après des sources dans l’industrie de la défense.

Faculty est devenue l’une des entreprises les plus actives dans la vente de services d’IA au Royaume-Uni. Contrairement à des noms comme OpenAI, DeepMind, ou Anthropic, elle ne développe pas ses propres modèles, mais se concentre sur la revente de modèles, notamment ceux d’OpenAI, tout en offrant des conseils sur leur utilisation au sein du gouvernement et dans l’industrie.

L’entreprise a pris de l’ampleur au Royaume-Uni après son implication dans l’analyse de données pour la campagne Vote Leave, sous la direction de Dominic Cummings, qui a ensuite été conseiller de Boris Johnson. Ce dernier a par la suite sollicité Faculty pendant la pandémie, impliquant son directeur général, Marc Warner, dans les réunions de son panel consultatif scientifique.

Depuis lors, la société, officiellement appelée Faculty Science, a testé des modèles d’IA pour l’Institut de Sécurité de l’IA du gouvernement britannique (AISI), créé en 2023 sous l’ancien Premier ministre Rishi Sunak.

Des gouvernements du monde entier s’efforcent de comprendre les implications de sécurité de l’intelligence artificielle, après des avancées rapides dans l’IA générative qui ont suscité un engouement considérable autour de ses possibilités.

Les entreprises d’armement cherchent à intégrer l’IA dans des drones, allant de “wingmen loyal” qui pourraient accompagner des chasseurs à des munitions en attente, déjà capables d’attendre l’apparition de cibles avant de tirer.

Les derniers développements technologiques laissent entrevoir des drones capables de traquer et de tuer sans intervention humaine lors de la prise de décision finale.

Dans un communiqué annonçant un partenariat avec la société londonienne Hadean, cette startup britannique a déclaré travailler avec Faculty sur l’identification de sujets, le suivi du mouvement d’objets, et le développement de techniques de nuées autonomes pour le déploiement et les opérations.

Il est précisé que le travail de Faculty avec Hadean n’incluait pas la désignation d’objectifs d’armements. Cependant, Faculty n’a pas répondu aux questions sur la possibilité qu’elle développe des drones capables d’appliquer la force létale, invoquant des accords de confidentialité.

Un porte-parole de Faculty a indiqué : “Nous contribuons au développement de modèles d’IA novateurs qui aideront nos partenaires de la défense à créer des solutions plus sûres et plus robustes,” ajoutant que l’entreprise possède “des politiques éthiques rigoureuses et des processus internes”, et suit les directives éthiques en matière d’IA du ministère de la Défense.

La société revendique une décennie d’expérience en matière de sécurité de l’IA, notamment dans la lutte contre les abus sexuels envers les enfants et le terrorisme.

Faculty entretient des liens étroits avec l’AISI, position qui pourrait influencer la politique gouvernementale britannique.

En novembre, l’AISI a confié à Faculty une étude sur l’utilisation des modèles de langage de grande taille “pour aider aux comportements criminels ou autre dynamique indésirable”. L’AISI a précisé que Faculty serait un précieux collaborateur stratégique de son équipe de sécurité.

Faculty collabore aussi directement avec OpenAI, la startup à l’origine de la récente vague d’engouement pour l’IA, pour utiliser son modèle ChatGPT. Des experts ont précédemment soulevé des inquiétudes quant à un potentiel conflit d’intérêt dans le travail que Faculty a réalisé avec l’AISI, selon Politico, un site d’actualité. Faculty n’a pas détaillé quels modèles d’autres entreprises elle avait testés, bien qu’elle ait testé le modèle o1 d’OpenAI avant sa sortie.

Le gouvernement a précédemment déclaré que le travail de Faculty pour l’AISI était “crucial, car ils ne sont pas en conflit du fait du développement de leur propre modèle”.

Natalie Bennett, membre de la Chambre des Lords pour le parti Vert, a exprimé des préoccupations concernant la “porte tournante” entre l’industrie et le gouvernement, soulevant des questions allant des employés des entreprises d’énergie aux anciens ministres de la défense travaillant pour des sociétés d’armement.

“Qu’une seule entreprise puisse recevoir un grand nombre de contrats gouvernementaux pour travailler sur l’IA tout en collaborant avec l’Institut de Sécurité de l’IA sur des tests de modèles est une préoccupation majeure – plus qu’un simple ‘braconnier devenu gardien’ ; c’est comme jouer les deux rôles simultanément.”

Bennett a également noté que le gouvernement britannique n’a pas encore pris d’engagement ferme pour garantir qu’un humain intervienne dans les systèmes d’armements autonomes, comme recommandé par la commission des Lords.

Faculty, dont le principal actionnaire est une société holding enregistrée à Guernesey, a également cherché à établir des liens étroits avec le gouvernement britannique, remportant des contrats d’une valeur d’au moins 26,6 millions de livres selon des divulgations gouvernementales. Ces contrats incluent des collaborations avec le NHS, le Département de la Santé et des Affaires Sociales, le Département de l’Éducation et le Département de la Culture, des Médias et du Sport.

Ces contrats représentent une part significative des revenus d’une entreprise qui a réalisé un chiffre d’affaires de 32 millions de livres pour l’année se terminant le 31 mars, tout en accusant une perte de 4,4 millions de livres durant cette période.

Albert Sanchez-Graells, professeur de droit économique à l’Université de Bristol, a mis en garde contre le fait que le Royaume-Uni repose sur la “retenue et responsabilité des entreprises de technologie dans le développement de l’IA”.

“Les entreprises soutenant les travaux de l’AISI doivent éviter les conflits d’intérêts organisationnels découlant de leur travail pour d’autres parties du gouvernement et sur le marché de l’IA,” a déclaré Sanchez-Graells.

“Les entreprises disposant d’un portefeuille aussi large d’activités en IA que Faculty doivent répondre à des questions sur la manière dont elles garantissent l’indépendance et l’impartialité de leurs avis à l’AISI, et comment elles évitent de tirer parti de ces connaissances dans d’autres activités.”

Le Département pour la Science, l’Innovation et la Technologie a décliné de commenter, affirmant ne pas fournir de détails sur des contrats commerciaux individuels.

Points à retenir

  • Faculty AI collabore avec divers départements gouvernementaux sur des projets d’IA, incluant la santé et l’éducation.
  • Des préoccupations éthiques émergent concernant l’implication d’une même entreprise dans la défense et les contrats gouvernementaux d’IA.
  • Le développement de drones autonomes pose des questions de sécurité et d’éthique, provoquant des débats au sein des instances législatives.

La montée en puissance de l’intelligence artificielle dans le secteur militaire soulève des interrogations cruciales sur l’avenir des conflits armés et sur la nécessité de garantir un encadrement éthique dans ce domaine en pleine évolution. Avec l’accent croissant mis sur la technologie dans les opérations militaires, une discussion ouverte et réfléchie sur ces enjeux s’avère essentielle pour naviguer en toute sécurité dans cette nouvelle ère.



  • Source image(s) : www.theguardian.com
  • Source : https://www.theguardian.com/technology/2025/jan/07/uk-government-ai-military-drones-faculty-ai-artificial-intelligence


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *