Das Regierung des Vereinigten Königreichs kündigte am Montag, den 16. Oktober, eine Fairness Innovation Challenge an, um Voreingenommenheit und Diskriminierung in der Welt zu bekämpfen artificial intelligence (KI)-Systeme.
Der Wettbewerb fordert Unternehmen mit Sitz im Vereinigten Königreich dazu auf, staatliche Investitionen in Höhe von bis zu 400,000 £ zu beantragen, um innovative neue Lösungen zu finanzieren, die darauf abzielen, Vorurteile durch KI-Technologien zu beseitigen.
Ziel des Wettbewerbs ist es, bis zu drei bahnbrechende Projekte zu unterstützen, die jeweils potenziell einen Finanzierungsschub von bis zu 130,000 £ sichern.
Diese Initiative steht im Einklang mit der Verpflichtung des Vereinigten Königreichs, den weltweit ersten großen KI-Sicherheitsgipfel auszurichten, bei dem sich die Dialoge um die Bewältigung der mit der KI verbundenen Risiken bei gleichzeitiger Maximierung ihres Potenzials zum Nutzen der britischen Bevölkerung drehen werden.
Das Center for Data Ethics and Innovation, das dem Ministerium für Wissenschaft, Innovation und Technologie untersteht, hat die erste Einreichungsrunde der Fairness Innovation Challenge initiiert. Ziel der Herausforderung ist es, die Entwicklung neuartiger Techniken zu fördern, um Fairness in die Erstellung von KI-Modellen zu integrieren.
Vorrangiges Ziel ist es, den Bedrohungen durch Voreingenommenheit und Diskriminierung durch die Förderung innovativer Ansätze entgegenzuwirken.
Entwickler von KI-Modellen werden aufgefordert, sofort einen breiteren sozialen Kontext zu berücksichtigen.
Die britische Regierung betont Fairness in der KI
Fairness in KI-Systemen ist eines der Grundprinzipien der Britische RegierungWeißbuch zur KI-Regulierung.
KI ist ein leistungsstarkes Werkzeug für das Gute und bietet nahezu unbegrenzte Möglichkeiten, die Weltwirtschaft wachsen zu lassen und bessere öffentliche Dienstleistungen bereitzustellen.
Im Vereinigten Königreich wird KI bereits im Rahmen des National Health Service (NHS) erprobt, um Ärzten bei der Identifizierung von Brustkrebsfällen zu helfen, und sie birgt großes Potenzial für die Entwicklung neuer Medikamente und Behandlungen sowie für die Bewältigung globaler Herausforderungen wie dem Klimawandel.
Diese Möglichkeiten können jedoch nur dann vollständig ausgeschöpft werden, wenn Probleme im Zusammenhang mit Voreingenommenheit und Diskriminierung in KI-Systemen angegangen und behoben werden.
Minister für KI, Viscount Camrose, sagt: „Die Chancen, die KI bietet, sind enorm, aber um ihre Vorteile voll auszuschöpfen, müssen wir ihre Risiken angehen.“
„Mit dieser Finanzierung stehen britische Talente an vorderster Front dabei, KI sicherer, gerechter und vertrauenswürdiger zu machen. Indem wir sicherstellen, dass KI-Modelle keine in der Welt vorherrschenden Vorurteile widerspiegeln, können wir nicht nur dafür sorgen, dass KI weniger potenziell schädlich ist, sondern auch sicherstellen, dass die KI-Entwicklungen von morgen die Vielfalt der Gemeinschaften widerspiegeln, denen sie dienen werden“, fügt Camrose hinzu.
Obwohl es auf dem Markt mehrere Tools zur Prüfung technischer Voreingenommenheit gibt, werden viele davon in den Vereinigten Staaten entwickelt.
Obwohl Unternehmen diese Tools nutzen können, um potenzielle Verzerrungen in ihren Systemen zu erkennen, halten sie sich oft nicht an die Gesetze und Vorschriften des Vereinigten Königreichs, sagt die Regierung.
Schwerpunktbereiche der Herausforderung
Die Herausforderung fördert einen neuen, von Großbritannien geleiteten Ansatz, der neben den technischen Überlegungen auch den sozialen und kulturellen Kontext in KI-Systemen betont.
Die Herausforderung wird sich auf zwei Hauptbereiche konzentrieren:
Bei der ersten handelt es sich um eine Partnerschaft mit dem King’s College London, bei der Teilnehmer aus dem britischen KI-Sektor daran arbeiten werden, Verzerrungen in ihren generativen KI-Modellen abzumildern. Diese Modelle, die in Zusammenarbeit mit Health Data Research UK und mit Unterstützung des NHS AI Lab entwickelt wurden, werden anhand anonymisierter Datensätze von über 10 Millionen Patienten trainiert, um mögliche gesundheitliche Folgen vorherzusagen.
Die zweite Herausforderung ist eine Ausschreibung für „offene Anwendungsfälle“, bei der Bewerber neuartige Lösungen vorschlagen können, die darauf zugeschnitten sind, Vorurteile in ihren einzigartigen KI-Modellen und spezifischen Schwerpunktbereichen zu beseitigen. Dazu gehört die Betrugsbekämpfung, die Entwicklung neuer KI-Tools für die Strafverfolgung oder die Unterstützung von Arbeitgebern bei der Schaffung gerechterer Systeme für die Analyse und Auswahl von Kandidaten bei der Einstellung.
Unternehmen stehen derzeit bei der Bekämpfung von KI-Voreingenommenheit vor einer Reihe von Herausforderungen, darunter unzureichender Zugang zu demografischen Daten und die Sicherstellung, dass potenzielle Lösungen den gesetzlichen Anforderungen entsprechen.
Das CDEI arbeitet eng mit dem Information Commissioner's Office (ICO) und der Equality and Human Rights Commission (EHRC) zusammen, um diese Herausforderung zu meistern.
Die Einreichungsfrist für die Fairness Innovation Challenge endet am Mittwoch, 11. Dezember 13, um 2023 Uhr. Die erfolgreichen Bewerber werden am 30. Januar 2024 über ihre Auswahl benachrichtigt.