Springe direkt zum: Inhalt

KI und Diversität | Civic Coding-Schlaglicht - Civic Coding – Innovationsnetz KI für das Gemeinwohl

Civic Coding-Schlaglicht: KI und Diversität: Wie KI Diskriminierung verstärkt – und sie bekämpfen kann

Durch KI-Anwendungen können sich Vorurteile verstärken, sie können aber bei entsprechender technischer Ausgestaltung auch Diskriminierung entgegenwirken und damit zu einer diverseren Gesellschaft beitragen. Im Civic Coding-Schlaglicht kommen wir darüber in den Austausch und werfen einen genaueren Blick auf Anwendungen und Projekte, die z. B. einen aktiven, transparenten und diversitätssensiblen Einsatz von KI in Unternehmen ermöglichen.

KI als Instrument gegen Vorurteile und Diskriminierung?

Künstliche Intelligenz (KI) kann bestehende Vorurteile in Daten, auf denen sie basiert, verstärken. Ein Beispiel ist die Gesundheitsforschung, in deren Datensätzen Frauen oftmals unterrepräsentiert sind. Dies kann zu verzerrten und ungerechten Ergebnissen bei der Entwicklung medizinischer Produkte führen. Ähnliches gilt für die KI-Nutzung in Unternehmen: Beispielsweise können im Recruiting eingesetzte KI-Anwendungen bestehende Vorurteile fördern und somit Frauen und Minderheiten benachteiligen. Auf der anderen Seite bietet KI auch Chancen, Diversität zu stärken. Durch sorgfältige Datenaufbereitung und bewusste Algorithmusgestaltung können Vorurteile reduziert werden; Bias-Monitoring-Tools können Vorurteile in bestehenden Systemen aufdecken und korrigieren. In der Personalbeschaffung kann KI helfen, eine diversere Kandidat*innenliste zu erstellen, indem sie unbewusste Vorurteile erkennt und beseitigt. Zudem können KI-gestützte Lernplattformen personalisierte Bildungsinhalte bereitstellen, die das Bewusstsein für Vielfalt und Inklusion fördern. Ganz wesentlich ist, Prozesse ganzheitlich zu denken. So hat das kürzlich abgeschlossene Projekt KIDD (Künstliche Intelligenz im Dienste der Diversität) einen Prozess entwickelt, der Unternehmen befähigt, die Implementierung von KI aktiv zu gestalten, um eine gerechte, transparente und verständliche KI-Nutzung zu ermöglichen. Der Prozess ist übertragbar und soll eine transparente, partizipative und diversitätssensible Einführung von KI in Unternehmen stärken.

Ziel dieses Civic Coding-Schlaglichts ist es, diese Aspekte zu beleuchten und mit Expert*innen zu diskutieren, wie wir KI als Werkzeug für eine gerechtere und inklusivere Gesellschaft nutzen können.

Annette von Wedel vom Forschungsprojekt „KIDD - Künstliche Intelligenz im Dienste der Diversität“ und Aliki Anagnostopoulou vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) geben dazu Einblicke in die Praxis und ihre Perspektiven auf das Thema.

Melde dich jetzt an und sei am Donnerstag, 11.07.2024 um 16:00 Uhr live dabei!

Hinweis: Die Veranstaltung wird aufgezeichnet und im Nachgang im Community-Bereich unseres Webportals zur Verfügung gestellt.

Die wichtigsten Infos im Überblick

  • Datum: 11.07.2024 (Donnerstag)
  • Uhrzeit: 16:00 - 17:00 Uhr
  • Ort: virtuell per Zoom

Annette von Wedel

arbeitete nach dem Studium der Betriebswirtschaft an der Universität Göttingen, der TU Berlin sowie an der London School of Economics einige Jahre als Unternehmensberaterin. 2001 wechselte sie zur Deutschen Bahn AG. Nach verschiedenen Führungsfunktionen in der Konzernstrategie wurde sie Leiterin der Personalstrategie und zuletzt bis 2018 Leiterin Diversity Management. Seit 2019 ist sie Initiatorin und Vorständin des gemeinnützigen Vereins female.vision e.V. Als selbstständige Beraterin berät und begleitet sie außerdem Organisationen dabei, Teamdynamik unter Berücksichtigung der vorhandenen Vielfalt zu verstehen und aktiv zu beeinflussen, insbesondere im Zusammenspiel mit Digitalisierung und KI. Vor diesem Hintergrund zählt Annette von Wedel zu den Initiatorinnen des BMAS-Forschungsprojekts „KIDD - Künstliche Intelligenz im Dienste der Diversität“ unter dem Dach der Initiative Neue Qualität der Arbeit (INQA). Annette von Wedel war an der Erarbeitung der 2. Ausgabe der KI-Normungsroadmap beteiligt und wird als deutschsprachige Algorithmen-Expertin im Bereich Zivilgesellschaft auf der Liste von reframe[Tech] der Bertelsmann Stiftung geführt.

© Cherie Birkner

Leitfragen

  • Wie lässt sich darauf hinwirken, dass die Daten, die zum Training von KI-Modellen verwendet werden, frei von Vorurteilen und Diskriminierung sind?
  • Welche Maßnahmen können Unternehmen, zivilgesellschaftliche Akteur*innen und öffentliche Institutionen ergreifen, um zu verhindern, dass KI-Systeme bestehende Diskriminierungen in ihren Entscheidungsprozessen verstärken?
  • Welche positiven Beispiele gibt es bereits, bei denen KI erfolgreich zur Förderung von Diversität und Inklusion eingesetzt wurde?
  • Welche Rolle sollten Regulierungen und Richtlinien spielen, um sicherzustellen, dass KI-Systeme fair und inklusiv gestaltet werden?
  • Wie lässt sich das Bewusstsein und die Bildung über die ethischen Implikationen von KI in Bezug auf Diversität und Inklusion fördern?

Melde dich jetzt an!

Civic Coding-Update

Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.