Google a précisé qu’une partie des difficultés qu’elle rencontre pour générer ses résumés d’IA découle de l’absence d’informations de qualité sur le web pour certaines requêtes spécifiques. Il est clair que le travail de Lynn ne répond pas à ces critères de qualité.

« La science derrière la base de données ‘QI nationaux’ de Lynn est d’une telle faible qualité qu’il est difficile de croire que cette base de données soit autre chose qu’une fraude », a déclaré Sear. « Lynn n’a jamais expliqué sa méthodologie pour le choix des échantillons pour cette base de données ; de nombreuses nations ont leur QI estimé sur la base d’échantillons ridiculement petits et non représentatifs. »

Sear souligne que l’estimation du QI de l’Angola repose sur des données provenant de seulement 19 individus, tandis que celle de l’Érythrée est fondée sur des échantillons d’enfants vivant dans des orphelinats.

« Le problème réside dans le fait que les données utilisées par Lynn pour créer cet ensemble de données sont tout simplement absurdes, et ce à plusieurs égards », explique Rutherford, en notant que le chiffre concernant la Somalie dans l’ensemble de données de Lynn provient d’un seul échantillon de réfugiés âgés de huit à 18 ans testés dans un camp de réfugiés au Kenya. Il ajoute que le score pour le Botswana est fondé sur un unique échantillon de 104 élèves de langue tswana âgés de sept à 20 ans, testés en anglais.

Les critiques de l’utilisation des tests de QI nationaux pour promouvoir l’idée de supériorité raciale soulignent non seulement la faiblesse des échantillons collectés, mais également le fait que ces tests sont généralement conçus pour un public occidental, et sont donc biaisés avant même d’être administrés.

« Il existe des preuves que Lynn a systématiquement biaisé la base de données en incluant de manière préférentielle des échantillons ayant des QI bas, tout en excluant ceux ayant des QI plus élevés pour les pays africains », a ajouté Sears, une conclusion appuyée par une étude préliminaire de 2020.

Lynn a publié diverses versions de sa base de données de QI national au fil des décennies, la plus récente étant intitulée « L’intelligence des nations », parue en 2019. Au fil des ans, le travail défaillant de Lynn a été utilisé par des groupes d’extrême droite et racistes comme preuve soutenant des revendications de supériorité blanche. Ces données ont également été transformées en une carte du monde codée par couleur, montrant les pays d’Afrique subsaharienne supposément à faible QI en rouge, par rapport aux nations occidentales en bleu.

« C’est une visualisation des données que l’on voit partout sur Twitter et les réseaux sociaux, et si vous passez beaucoup de temps dans des cercles racistes sur le web, vous tomberez régulièrement sur cet argument de racistes qui disent ‘Regardez les données. Regardez la carte’ », souligne Rutherford.

Cependant, Rutherford estime que la responsabilité n’incombe pas uniquement aux systèmes d’IA, mais à une communauté scientifique qui cite sans discernement le travail de Lynn depuis des années.

« Ce n’est pas vraiment surprenant [que les systèmes d’IA le citent], car le travail de Lynn sur le QI a été accepté sans questionnement dans de nombreux domaines académiques, et si l’on regarde le nombre de fois que ses bases de données nationales de QI ont été citées dans des travaux académiques, c’est plusieurs centaines », a déclaré Rutherford. « Donc, la responsabilité ne repose pas sur l’IA, mais sur le milieu académique. »

Notre point de vue

Il est primordial de réfléchir aux implications éthiques des données que nous utilisons et des conclusions que nous tirons. L’étendue d’un débat académique qui a laissé passer des travaux contestables, comme ceux de Lynn, montre un besoin urgent d’une remise en question des méthodes et des biais dans la recherche scientifique. La responsabilité ne devrait pas reposer uniquement sur la technologie, mais aussi sur ceux qui la soutiennent par leur crédibilité académique. En effet, le dialogue entre technologie et éthique est plus nécessaire que jamais pour garantir que les avancées scientifiques servent réellement à promouvoir la compréhension et la dignité humaine, plutôt qu’à alimenter des idées préconçues et discriminatoires.



  • Source image(s) : www.wired.com
  • Source : https://www.wired.com/story/google-microsoft-perplexity-scientific-racism-search-results-ai/

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *