Chris Julien
Biografie
Chris Julien arbeitet als Forschungsdirektor bei Waag. Als Mitglied der Geschäftsleitung ist er verantwortlich für die gemeinsame Forschungsagenda und Methodik der der Waag. Darüber hinaus ist er einer der Sprecher der Institution und pflegt als solcher das internationale Forschungsnetzwerk.
Seine Fähigkeit, philosophische Perspektiven in konkrete Projekte umzusetzen, macht ihn zu einem zentralen Spielmacher der Institution. Die langfristige Ausrichtung auf interdisziplinäre Ansätze im akademischen und gesellschaftlichen Kontext prägt die neue Public Research Agenda der Waag. Dabei steht der Einzelne als ethischer Akteur im Mittelpunkt der gesamten Kette von Forschung, Design und Umsetzung sozialer Innovationen.
Vor seiner Tätigkeit bei Waag arbeitete Chris als Finanzdirektor der Studio 80 Foundation, gründete Novel Creative Consultancy und erforschte neue Arbeitsweisen im FreedomLab. Zu diesem Zeitpunkt ist er Vorstandsmitglied des Creative Industries Fund NL, Vorsitzender des GroenLinks Committee on Arts & Culture in Amsterdam und fester Bestandteil von Red Light Radio mit seinen POP CTRL-Shows.
Biased-by-default: AI Culture lab @ Waag, Amsterdam – Ein Vortrag auf der Open Conference »Kunst und Künstliche Intelligenz«
1984 erklärte Donna Haraway in ihrem berühmten Cyborg-Manifest: »Technologie ist nicht neutral«. Da wir fünfunddreißig Jahre später in das Anthropozän eintreten, wird ihr Punkt relevanter denn je. Ist es tatsächlich möglich neutral zu sein oder war die Möglichkeit einer so kühlen, distanzierten Sicht lediglich eine moderne Fantasie, die der europäische Mensch während seiner andauernden »Entdeckung« und Eroberung der Welt hervorgerufen hat?
Wie Haraway weiter sagt: »Wir sind in dem, was wir machen, und es ist in uns.« Die weichen Grenzen zwischen Technologie und Gesellschaft, zwischen Natur und Kultur zerfallen, und wir befinden uns kollektiv in der Situation, die wir einst zu betrachten und zu kontrollieren glaubten. Wenn der Begriff der Neutralität unhaltbar geworden ist, wie sollen wir dann unsere aktuellen Positionen verstehen? Was bedeutet es, grundlegend nicht neutral zu sein? Haraway fährt fort: »Wir leben in einer Welt der Verbindungen – und es spielt eine Rolle, welche davon gemacht und welche nicht gemacht werden.«
Dieser Perspektivenwechsel – von »auf« zu »in« der Welt – hat weitreichende ethische und epistemologische Folgen. Wir haben den Zugang zu einer Metaposition verloren und müssen unsere Position in Bezug auf und daher innerhalb jedes betrachteten Phänomens beschreiben. Seltsamerweise wirft die Künstliche Intelligenz ein zeitgenössisches Licht darauf, was diese Position der Nicht-Neutralität bedeutet.
Anstatt die glatte und objektiv zugängliche Realität zu bekräftigen, die für unsere modernen Empfindungen so selbstverständlich war, geben uns diese »Kulturmaschinen« einen klaren Blick auf die kulturellen Verflechtungen an den Wurzeln unserer Technologien. Aus der Perspektive der algorithmischen Berechnung wird nicht neutral gemeinhin als »bias« definiert. Mehr als ein »Bug« unserer glänzenden neuen Optimierungssystemen, welches in zukünftigen Versionen der Technologie überarbeitet und entfernt wird, scheint »bias« jener Katze sehr ähnlich zu sein, die an Neo und seiner Gruppe vorbei läuft, wenn er seine einst vertraute Welt in der Matrix durchquert. Keine kleine Störung im System, sondern ein vielmehr Moment, in dem das System seine materielle Verstrickung offenbart. »Bias« ist kein Fehler algorithmischer Systeme, sondern offenbart die konstitutive Rolle des Menschen als kultureller Akteur beim Ausführen dieser Systeme. Die Entwicklung unseres Verständnisses der kulturell verwobenen Wurzeln von KI-Technologien ist der Forschungsschwerpunkt des KI-Kulturlabors, der in diesem Vortrag am ZKM weiter beschrieben wird.