De Britse regering heeft op maandag 16 oktober een Fairness Innovation Challenge aangekondigd om vooroordelen en discriminatie in de wereld aan te pakken artificial intelligence (AI) systemen.
De uitdaging nodigt Britse bedrijven uit om overheidsinvesteringen tot £ 400,000 aan te vragen ter financiering van innovatieve nieuwe oplossingen die gericht zijn op het uitroeien van vooringenomenheid door AI-technologieën.
De wedstrijd is bedoeld om maximaal drie baanbrekende projecten te ondersteunen, die elk een financieringsboost van maximaal £ 130,000 kunnen opleveren.
Dit initiatief sluit aan bij de toezegging van Groot-Brittannië om de eerste grote AI Safety Summit ter wereld te organiseren, waar de dialogen zullen draaien om het beheersen van de risico's die aan AI zijn verbonden, terwijl het potentieel ervan ten behoeve van het Britse volk wordt gemaximaliseerd.
Het Center for Data Ethics and Innovation, opererend onder het Departement voor Wetenschap, Innovatie en Technologie, heeft de eerste ronde van inzendingen van de Fairness Innovation Challenge geïnitieerd. De uitdaging heeft tot doel de ontwikkeling van nieuwe technieken aan te moedigen om eerlijkheid te verankeren in de creatie van AI-modellen.
Het primaire doel is om de bedreigingen van vooroordelen en discriminatie tegen te gaan door innovatieve benaderingen aan te moedigen.
Ontwikkelaars van AI-modellen worden aangespoord om onmiddellijk rekening te houden met een bredere sociale context.
Britse regering benadrukt eerlijkheid op het gebied van AI
Eerlijkheid in AI-systemen is een van de fundamentele principes die zijn vastgelegd in de Britse regering's Witboek over AI-regulering.
AI is een krachtig instrument ten goede en biedt vrijwel onbeperkte mogelijkheden om de wereldeconomie te laten groeien en betere openbare diensten te leveren.
In Groot-Brittannië wordt AI al uitgeprobeerd binnen de National Health Service (NHS) om artsen te helpen bij het identificeren van gevallen van borstkanker, en het heeft een groot potentieel bij het ontwikkelen van nieuwe medicijnen en behandelingen en het aanpakken van mondiale uitdagingen zoals klimaatverandering.
Deze kansen kunnen echter alleen volledig worden gerealiseerd door problemen met betrekking tot vooroordelen en discriminatie in AI-systemen aan te pakken en te corrigeren.
Minister van AI, Burggraaf Camrose, zegt: “De kansen die AI biedt zijn enorm, maar om de voordelen ervan volledig te realiseren moeten we de risico’s ervan aanpakken.”
“Deze financiering plaatst Brits talent in de voorhoede van het veiliger, eerlijker en betrouwbaarder maken van AI. Door ervoor te zorgen dat AI-modellen geen vooroordelen in de wereld weerspiegelen, kunnen we AI niet alleen minder potentieel schadelijk maken, maar ervoor zorgen dat de AI-ontwikkelingen van morgen de diversiteit weerspiegelen van de gemeenschappen die ze zullen helpen dienen”, voegt Camrose toe.
Hoewel er verschillende technische instrumenten voor bias-audit op de markt beschikbaar zijn, zijn veel daarvan in de Verenigde Staten ontwikkeld.
Hoewel bedrijven deze tools kunnen gebruiken om mogelijke vooroordelen in hun systemen te identificeren, slagen ze er vaak niet in zich aan te passen aan de Britse wet- en regelgeving, zegt de regering.
Aandachtsgebieden van de uitdaging
De uitdaging bevordert een frisse, door Groot-Brittannië geleide aanpak die naast de technische overwegingen ook de sociale en culturele context in AI-systemen benadrukt.
De uitdaging zal zich concentreren op twee hoofdgebieden:
De eerste betreft een partnerschap met King's College London, waar deelnemers uit de Britse AI-sector zullen werken aan het verminderen van vooroordelen in hun generatieve AI-modellen. Deze modellen, ontwikkeld in samenwerking met Health Data Research UK en met steun van NHS AI Lab, worden getraind op basis van geanonimiseerde gegevens van meer dan 10 miljoen patiënten om potentiële gezondheidsresultaten te voorspellen.
De tweede uitdaging is een oproep voor 'open use cases', waarbij aanvragers nieuwe oplossingen kunnen voorstellen die zijn toegesneden op het aanpakken van vooroordelen in hun unieke AI-modellen en specifieke aandachtsgebieden. Het omvat onder meer het bestrijden van fraude, het bouwen van nieuwe AI-instrumenten voor wetshandhaving, of het helpen van werkgevers bij het creëren van eerlijkere systemen voor het analyseren en op de shortlist zetten van kandidaten tijdens de werving.
Bedrijven worden momenteel geconfronteerd met een reeks uitdagingen bij het aanpakken van AI-vooroordelen, waaronder onvoldoende toegang tot gegevens over demografische gegevens en het garanderen dat potentiële oplossingen voldoen aan de wettelijke vereisten.
De CDEI werkt nauw samen met het Information Commissioner's Office (ICO) en de Equality and Human Rights Commission (EHRC) om deze uitdaging aan te gaan.
De Fairness Innovation Challenge sluit voor inzendingen om 11 uur op woensdag 13 december 2023, waarbij succesvolle aanvragers op 30 januari 2024 op de hoogte worden gesteld van hun selectie.