Design - Head - Color
default
Veranstaltung

#meetdigilog

Menschliche Entscheidungsprozesse mit KI-basierten Systemen

Do, 07.10.2021 17:30 – 18:00 Uhr CEST

© Miguel Angel Meza Martinez
Ort
Online
Kosten
Free of Charge
Sprache
Englisch

Ist dieses System voreingenommen? – Wie Nutzer:innen auf Gender Bias in einem erklärbaren KI-System reagieren

Aufgrund ihres Potenzials, die Entscheidungsfindung effizienter und zuverlässiger zu machen, unterstützt Künstliche Intelligenz (KI) zunehmend auch folgenreiche menschliche Entscheidungen. Es wurde jedoch festgestellt, dass KI-Systeme soziale Stereotypen replizieren und verstärken, indem sie Vorurteile gegenüber Minderheiten, Frauen und People of Colour durchsetzen. Insbesondere wurde wiederholt festgestellt, dass KI-Systeme geschlechtsspezifische Vorurteile verstärken, indem sie Männer gegenüber Frauen bevorzugen.

Ein Ansatz zur Minderung der negativen Auswirkungen von Gender Bias besteht darin, die Transparenz von KI-Systemen zu erhöhen, indem Erklärungen mit neuartigen Methoden der Explainable Artificial Intelligence (XAI) bereitgestellt werden. Erläuterungen helfen, die Benutzer:innenbeteiligung zu erhöhen und können Benutzer:innen dabei unterstützen, voreingenommene Entscheidungsempfehlungen von KI-Systemen zu erkennen und abzulehnen. Es gibt jedoch mehrere Herausforderungen bei der Forschung aus Benutzer:innenperspektive in XAI. Erstens wurden die entwickelten Erklärungs-XAI-Methoden durch Studien mit Benutzer:innen nicht ausreichend evaluiert. Daher ist unklar, wie Benutzer:innen die Erklärungen dieser Methoden verstehen und verwenden. Zweitens sind die Auswirkungen unklar, die XAI-Erklärungen eines verzerrten KI-Systems auf die Wahrnehmung der Benutzer:innen wie das Vertrauen haben könnten.

Mit unserer Forschung wollen wir untersuchen, wie Benutzer:innen XAI-Erklärungen bewerten und ob diese Erklärungen ihnen helfen könnten, Verzerrungen in KI-Systemen zu erkennen. Wir sind insbesondere daran interessiert, den Trade-off zwischen positiven Effekten der Erhöhung der Transparenz durch XAI-Erklärungen und negativen Effekten der Bias-Erkennung mithilfe von XAI-Erklärungen zu untersuchen.

Der Talk ist Teil des Forschungsprojekts »digilog@bw – Digitalisierung im Dialog« und wird auf Insta-Live https://www.instagram.com/zkmkarlsruhe gestreamt. Wir laden Sie herzlich dazu ein, Fragen im Instagram-Chat zu stellen und in die Diskussion einzusteigen!

Die Veranstaltung findet in englischer Sprache statt.

Admin Title
D7 Paragraph: r17_text / GPC_ID: 116869
Layout
flex-row-9-3 reverse

Sie können digilog abonnieren auf InstagramTwitter und Facebook!

Die Digiloglounge Digital gibt es außerdem zum Nachsehen auf YouTube.

Admin Title
D7 Paragraph: r17_text / GPC_ID: 116870
Layout
flex-row-9-3 reverse

Zu Gast: Seit Juni 2018 forscht Miguel Angel Meza Martinez für die Promotion am Institut für Wirtschaftsinformatik und Marketing (IISM) des Karlsruher Instituts für Technologie. Seine Forschung konzentriert sich auf Interactive Machine Learning und Explainable Artificial Intelligence (XAI). Das übergeordnete Ziel seiner Forschung ist es zu verstehen, wie KI-Systeme besser gestaltet werden können, damit Benutzer:innen mit dem System interagieren können, um es zu verbessern. Damit diese Zusammenarbeit erfolgreich ist, müssen KI-Systeme darin transparent sein, wie sie Entscheidungen treffen. Aus diesem Grund ist es wichtig, den Benutzer:innen Erklärungen zu geben. Die Gestaltung transparenterer KI-Systeme stärkt das Vertrauen der Nutzer:innen in sie und beeinflusst langfristig ihre Akzeptanz.

Moderation: Sabine Faller ist wissenschaftliche Mitarbeiterin in der Abteilung Museumskommunikation am ZKM | Karlsruhe. Ihr Schwerpunkt liegt in der Konzeption und Umsetzung von Workshops, Projekten und Bildungsprogrammen in den Bereichen Medienkunst, Digitale Bildung sowie Online Lernen – aktuell für das Forschungsprojekt »Digitalisierung im Dialog – digilog@bw«.

Admin Title
D7 Paragraph: r17_teaser_section / GPC_ID: 116871
Layout
default

Organisation / Institution

ZKM | Zentrum für Kunst und Medien
Begleitprogramm
Begleitprogramm

Footer

ZKM | Zentrum für Kunst und Medien

Lorenzstraße 19
76135 Karlsruhe

+49 (0) 721 - 8100 - 1200
info@zkm.de

Organization

Dialog