Les Gouvernement du Royaume-Uni a annoncé lundi 16 octobre un défi d'innovation équitable pour lutter contre les préjugés et la discrimination dans artificial intelligence (IA).
Le défi invite les entreprises basées au Royaume-Uni à demander un investissement gouvernemental pouvant aller jusqu'à 400,000 XNUMX £ pour financer de nouvelles solutions innovantes visant à éradiquer les préjugés des technologies d'IA.
Le concours vise à soutenir jusqu'à trois projets novateurs, chacun pouvant potentiellement bénéficier d'un financement pouvant atteindre 130,000 XNUMX £.
Cette initiative s'aligne sur l'engagement du Royaume-Uni à accueillir le premier grand sommet mondial sur la sécurité de l'IA, où les dialogues porteront sur la gestion des risques associés à l'IA tout en maximisant son potentiel au profit du peuple britannique.
Le Centre pour l'éthique et l'innovation des données, qui relève du ministère de la Science, de l'Innovation et de la Technologie, a lancé la première série de soumissions pour le Fairness Innovation Challenge. Le défi vise à encourager le développement de nouvelles techniques pour intégrer l’équité dans la création de modèles d’IA.
L’objectif principal est de contrer les menaces posées par les préjugés et la discrimination en encourageant les approches innovantes.
Les développeurs de modèles d’IA sont invités à considérer immédiatement un contexte social plus large.
Le gouvernement britannique met l’accent sur l’équité dans l’IA
L'équité dans les systèmes d'IA est l'un des principes fondamentaux énoncés dans le Gouvernement britanniqueLivre blanc sur la réglementation de l'IA.
L’IA est un puissant outil bénéfique, offrant des opportunités quasi illimitées pour développer l’économie mondiale et fournir de meilleurs services publics.
Au Royaume-Uni, l’IA est déjà testée au sein du National Health Service (NHS) pour aider les cliniciens à identifier les cas de cancer du sein, et elle présente un grand potentiel pour développer de nouveaux médicaments et traitements et relever des défis mondiaux comme le changement climatique.
Cependant, ces opportunités ne peuvent être pleinement exploitées qu’en abordant et en rectifiant les problèmes liés aux préjugés et à la discrimination dans les systèmes d’IA.
Le ministre de l'IA, le vicomte Camrose, a déclaré : « Les opportunités présentées par l'IA sont énormes, mais pour tirer pleinement parti de ses avantages, nous devons nous attaquer à ses risques. »
« Ce financement place les talents britanniques à l’avant-garde pour rendre l’IA plus sûre, plus juste et plus fiable. En veillant à ce que les modèles d’IA ne reflètent pas les préjugés existant dans le monde, nous pouvons non seulement rendre l’IA moins potentiellement nocive, mais aussi garantir que les développements de l’IA de demain reflètent la diversité des communautés qu’ils contribueront à servir », ajoute Camrose.
Bien que plusieurs outils techniques d’audit des biais soient disponibles sur le marché, bon nombre d’entre eux sont développés aux États-Unis.
Même si les entreprises peuvent utiliser ces outils pour identifier les biais potentiels dans leurs systèmes, elles ne parviennent souvent pas à s'aligner sur les lois et réglementations britanniques, affirme le gouvernement.
Domaines d’intervention du défi
Le défi promeut une nouvelle approche dirigée par le Royaume-Uni qui met l’accent sur le contexte social et culturel des systèmes d’IA en plus des considérations techniques.
Le défi se concentrera sur deux domaines principaux :
Le premier implique un partenariat avec le King's College de Londres, où les participants du secteur britannique de l'IA travailleront à atténuer les biais dans leurs modèles d'IA générative. Ces modèles, développés en collaboration avec Health Data Research UK et avec le soutien du NHS AI Lab, sont formés sur les dossiers anonymisés de plus de 10 millions de patients pour prédire les résultats potentiels en matière de santé.
Le deuxième défi est un appel à des « cas d'utilisation ouverts », dans lesquels les candidats peuvent proposer de nouvelles solutions adaptées pour lutter contre les biais dans leurs modèles d'IA uniques et leurs domaines d'intervention spécifiques. Il s’agit notamment de lutter contre la fraude, de créer de nouveaux outils d’IA pour les forces de l’ordre ou d’aider les employeurs à créer des systèmes plus équitables pour analyser et présélectionner les candidats lors du recrutement.
Les entreprises sont actuellement confrontées à de nombreux défis pour lutter contre les préjugés liés à l’IA, notamment un accès insuffisant aux données démographiques et la nécessité de garantir que les solutions potentielles répondent aux exigences légales.
Le CDEI travaille en étroite collaboration avec le Bureau du commissaire à l'information (ICO) et la Commission pour l'égalité et les droits de l'homme (EHRC) pour relever ce défi.
Les candidatures au Fairness Innovation Challenge se terminent le mercredi 11 décembre 13 à 2023 heures, les candidats retenus étant informés de leur sélection le 30 janvier 2024.