#meetdigilog
Porträt von Miguel Angel Meza Martinez mit dem Schriftzug meetdigilog auf weißem Grund.
Menschliche Entscheidungsprozesse mit KI-basierten Systemen
Do, 07.10.2021 17:30 – 18:00 Uhr CEST, Gespräch
Online
Sprache: Englisch

Ist dieses System voreingenommen? – Wie Nutzer:innen auf Gender Bias in einem erklärbaren KI-System reagieren

Aufgrund ihres Potenzials, die Entscheidungsfindung effizienter und zuverlässiger zu machen, unterstützt Künstliche Intelligenz (KI) zunehmend auch folgenreiche menschliche Entscheidungen. Es wurde jedoch festgestellt, dass KI-Systeme soziale Stereotypen replizieren und verstärken, indem sie Vorurteile gegenüber Minderheiten, Frauen und People of Colour durchsetzen. Insbesondere wurde wiederholt festgestellt, dass KI-Systeme geschlechtsspezifische Vorurteile verstärken, indem sie Männer gegenüber Frauen bevorzugen.

Ein Ansatz zur Minderung der negativen Auswirkungen von Gender Bias besteht darin, die Transparenz von KI-Systemen zu erhöhen, indem Erklärungen mit neuartigen Methoden der Explainable Artificial Intelligence (XAI) bereitgestellt werden. Erläuterungen helfen, die Benutzer:innenbeteiligung zu erhöhen und können Benutzer:innen dabei unterstützen, voreingenommene Entscheidungsempfehlungen von KI-Systemen zu erkennen und abzulehnen. Es gibt jedoch mehrere Herausforderungen bei der Forschung aus Benutzer:innenperspektive in XAI. Erstens wurden die entwickelten Erklärungs-XAI-Methoden durch Studien mit Benutzer:innen nicht ausreichend evaluiert. Daher ist unklar, wie Benutzer:innen die Erklärungen dieser Methoden verstehen und verwenden. Zweitens sind die Auswirkungen unklar, die XAI-Erklärungen eines verzerrten KI-Systems auf die Wahrnehmung der Benutzer:innen wie das Vertrauen haben könnten.

Mit unserer Forschung wollen wir untersuchen, wie Benutzer:innen XAI-Erklärungen bewerten und ob diese Erklärungen ihnen helfen könnten, Verzerrungen in KI-Systemen zu erkennen. Wir sind insbesondere daran interessiert, den Trade-off zwischen positiven Effekten der Erhöhung der Transparenz durch XAI-Erklärungen und negativen Effekten der Bias-Erkennung mithilfe von XAI-Erklärungen zu untersuchen.

Der Talk ist Teil des Forschungsprojekts »digilog@bw – Digitalisierung im Dialog« und wird auf Insta-Live https://www.instagram.com/zkmkarlsruhe gestreamt. Wir laden Sie herzlich dazu ein, Fragen im Instagram-Chat zu stellen und in die Diskussion einzusteigen!

Die Veranstaltung findet in englischer Sprache statt.

Sie können digilog abonnieren auf InstagramTwitter und Facebook!

Die Digiloglounge Digital gibt es außerdem zum Nachsehen auf YouTube.

Zu Gast: Seit Juni 2018 forscht Miguel Angel Meza Martinez für die Promotion am Institut für Wirtschaftsinformatik und Marketing (IISM) des Karlsruher Instituts für Technologie. Seine Forschung konzentriert sich auf Interactive Machine Learning und Explainable Artificial Intelligence (XAI). Das übergeordnete Ziel seiner Forschung ist es zu verstehen, wie KI-Systeme besser gestaltet werden können, damit Benutzer:innen mit dem System interagieren können, um es zu verbessern. Damit diese Zusammenarbeit erfolgreich ist, müssen KI-Systeme darin transparent sein, wie sie Entscheidungen treffen. Aus diesem Grund ist es wichtig, den Benutzer:innen Erklärungen zu geben. Die Gestaltung transparenterer KI-Systeme stärkt das Vertrauen der Nutzer:innen in sie und beeinflusst langfristig ihre Akzeptanz.

Moderation: Sabine Faller ist wissenschaftliche Mitarbeiterin in der Abteilung Museumskommunikation am ZKM | Karlsruhe. Ihr Schwerpunkt liegt in der Konzeption und Umsetzung von Workshops, Projekten und Bildungsprogrammen in den Bereichen Medienkunst, Digitale Bildung sowie Online Lernen – aktuell für das Forschungsprojekt »Digitalisierung im Dialog – digilog@bw«.

Die Veranstaltung ist Teil des Projekts »digilog@bw – Digitalisierung im Dialog«.

Organisation / Institution
ZKM | Zentrum für Kunst und Medien

Begleitprogramm

Mitwirkende