Breadcrumbs

BS DC Import ID
node:39671
BS DC Import Time
Design - Head - Display
default
Design - Head - Layout
flex-row-6-6
Design - Head - Color
default
Sub-Menu - Display - Design
default

TRUST

Interaktives Medienkunstwerk von Bernd Lintermann und Florian Hertweck

© ZKM | Zentrum für Kunst und Medien Karlsruhe, Screenshot: Bernd Lintermann
Import ID
r17_text:714494
Admin Title
D7 Paragraph: r17_text / GPC_ID: 13101
Layout
flex-row-9-3 reverse

TRUSTAI thematisiert in einem dialogischen Wechselspiel der Besucher:innen mit einer Maschine die Rolle des digitalen Wandels und seiner Bedeutung für uns Menschen und die Gesellschaft.

Insbesondere prozedurale Medien – Medien deren Funktionsweise auf Rechenprozessen beruhen – bestimmen heute, wie der/die Einzelne die Gesellschaft und wie die Gesellschaft das Individuum wahrnimmt. In TRUSTAI führt die Maschine den Besucher:innen vor, wie sie mit den von ihr gesammelten Daten ihr Leben beeinflussen kann.

Auf einem Tisch steht ein Glaskubus mit einer holografischen Darstellung eines menschlichen Gesichts. Eine KI tritt mit der:dem Benutzer:in in Kommunikation, wobei ihre genauen Fähigkeiten im Unklaren bleiben. Im Verlauf des Dialogs wird das Gesicht des Gegenübers von der Maschine gekapert und die Maschine übernimmt deren Identität. In TRUSTAI ist das menschliche Gesicht das zentrale Motiv und zusammen mit der Stimme der einzige Kommunikationskanal. Wir werden in ein Gespräch verwickelt, wir öffnen uns, geben Dinge preis. Scheinbar banale Dinge, die eine lernende KI aber zu überraschend genauen Rückschlüssen auf unsere Persönlichkeit zusammenführen kann. Wie komplex ist die Maschine, mit der wir kommunizieren? Welche Prozesse laufen wirklich im Hintergrund und inwiefern hat sie Zugriff auf meine Daten?

Import ID
r17_video:746021
Admin Title
D7 Paragraph: r17_video / GPC_ID: 44716
Display
media
Layout
flex-row-3-9

Bernd Lintermann, Florian Hertweck: TRUST (2020)

Import ID
r17_text:714495
Admin Title
D7 Paragraph: r17_text / GPC_ID: 13102
Layout
flex-row-9-3 reverse

Hintergrund

Mediale Inhalte werden heute nicht nur durch Algorithmen gefiltert, sondern Inhalte werden durch sie produziert. Mediennutzer:innen »retuschieren« üblicherweise das Bild, dass die Gesellschaft von ihnen wahrnimmt [1]. Es können aber auch Wahrheiten über Andere außerhalb deren Kontrolle produziert werden: Sogenannte Deepfakes, in denen Gesichter in Videos authentisch gefälscht werden, werden von uns beispielsweise als authentische Abbildungen der Realität wahrgenommen.

Die vierte, die publikative Gewalt, ist heute von Presse und Rundfunk in die Hände von großen Konzernen und technisch potenten Staaten gewandert, die damit ihre eigenen Agenden verfolgen. Diese Konzerne sammeln Daten, fällen mit Hilfe von Algorithmen Urteile und schaffen darüber eigene Wahrheiten. Mediale und faktische Wahrheit sind vom Individuum letztendlich nicht mehr unterscheidbar.

In TRUSTAI erlebt der/die Besucher:in ein Gefühl von Unsicherheit, welches sich zunehmend durch den digitalen Wandel in der Gesellschaft ausbreitet. Inwieweit der Maschine vertraut werden kann bleibt unklar. Aber das Vertrauen in Selbstregulierungsprozesse ist nach Niklas Luhmanns Systemtheorie [2] eine zentrale Säule unserer Gesellschaft. Mit dem Schwund des Systemvertrauens bricht auch die Gesellschaft auseinander.

DeepFakes

Auslöser für die Installation waren die wissenschaftlichen Ergebnisse in einem als Face Reenactment bezeichneten Forschungsgebiet, bei dem die Gesichtsbewegungen einer Person in Echtzeit auf das Video einer anderen Person übertragen werden. Die im Jahr 2016 in der wissenschaftlichen Veröffentlichung Face2Face: Real-time Face Capture and Reenactment of RGB Videos [3] gezeigten Ergebnisse wirken erschreckend real. Wenig später wurde von einem anonymen Entwickler eine auf Künstlicher Intelligenz basierte Software veröffentlicht, mit deren Hilfe Gesichter von Personen in Videos ausgetauscht werden können, zwar nicht in Echtzeit, dafür aber für jedermann frei verfügbar [4]. Die so genannten DeepFake Videos sind mit wenig technischem Hintergrund herstellbar und entwickelten rasch eine so gute Qualität, dass sich die Frage nach der Konsequenz für die Glaubwürdigkeit von Bewegtbildmaterial stellte (Obama-Imitation beleidigt den US-Präsidenten Trump [5] und Hello, Adele – bist du’s wirklich? [6]). Inzwischen hält diese Technologie mit virtuellen Nachrichtensprechern [7] sogar Einzug in die Mainstream Medien. Was Photoshop für Standbilder einläutete, nämlich den berechtigten Argwohn gegen die Glaubwürdigkeit jeder Art von Standbildern, hebt die von Entwicklungen in der Künstlichen Intelligenz getriebene Produktion und Manipulation von Stand- und Bewegtbildmaterial auf eine neue Ebene: Ohne technisches Wissen können photorealistische Bilder von Menschen generiert werden. Auf der Webseite thispersondoesnotexist.com [8] kann man sich Gesichter ansehen, die mit der von NVidia entwickelten und frei verfügbaren KI StyleGAN2 [9] generiert wurden. Das Prinzip lässt sich auch auf beliebige andere Arten [10] von Objekten anwenden. Aber nicht nur das Gesicht einer Person kann gefälscht werden: Mit Hilfe von KI ahmten Betrüger die Stimme eines CEOs nach und erbeuteten 2019 220.000€. [11]

Künstliche Intelligenz

Das Forschungsfeld der Künstlichen Intelligenz machte insbesondere mit dem auf Künstlichen Neuronalen Netzwerken basierenden »Deep Learning« in den letzten Jahren enorme Fortschritte. Beim Deep Learning handelt es sich um eines von vielen Verfahren des Maschinellen Lernens, bei dem viele parallel stattfindende Rechenvorschriften hintereinandergeschaltet werden. Visualisiert man die Abhängigkeit der Rechenvorschriften voneinander, ergibt sich ein Netzwerk mit verschiedenen Ebenen von Recheneinheiten. Jede einzelne Recheneinheit verwirklicht eine einfache Rechenvorschift aus mehreren Eingaben und einer einzelnen Ausgabe. Obwohl das 1958 entwickelte Perzeptron [12] (das historische Motiv dieser Recheneinheiten) ein Neuron als Vorbild hatte, ist ein (nur aus diesem historischen Grund so genanntes) Neuronales Netzwerk tatsächlich weit von einer Simulation des Gehirns entfernt. In keiner Weise bildet es ein Gehirn nach.

Der technische Erfolg von Neuronalen Netzwerken begründet sich darin, dass sich hinter der hohen Anzahl von Datenpunkten, die in den irreführend so genannten Neuronen gespeichert sind, ein sehr differenziertes stochastisches Modell der Eigenschaften der mit ihnen trainierten Daten verbirgt. Wird ein Netzwerk mit Bildern von menschlichen Gesichtern trainiert, deren Alter bekannt ist, so ist es in der Lage eine gute Schätzung des Alters einer Person zu machen. Trainiert man ein Netzwerk mit Bildern von Gesichtern unter Angabe des Geschlechts als »männlich« oder »weiblich«, so kann das Netzwerk auch nur zwischen den Kategorien männlich und weiblich unterscheiden. Zwischentöne kennt das Netzwerk nicht. Das Netzwerk kodiert also auch unsere Vorurteile [13], die wir mit der Auswahl solcher Kategorien weitergeben [14]. Verwenden wir eine solches vorurteilsbehaftetes Netzwerk als Kompass unserer Entscheidungen, zementieren wir damit ein gesellschaftliches Verhalten. Aber auch durch unausgewogene oder nicht repräsentative Datensätze können Verzerrungen in den Berechnungen eines Netzwerks entstehen, die gesellschaftlich nicht gewünschte Effekte nach sich ziehen können, wenn beispielsweise eine KI Empfehlungen für die Inhaftierung von Menschen [15] gibt und farbige Menschen benachteiligt. Forscher fordern schon die in der Wirtschaft weit genutzte Emotionserkennung anhand von Gesichtersbildern zu verbieten [16], weil die vielfach genutzte Datenbasis [17] einfach zu deutlich von menschlichen Fehleinschätzungen durchsetzt ist.

Daten

Daten sind das »Öl des 21. Jahrhunderts« lautet ein populärer Satz. Möchte man eine leistungsfähige KI trainieren, benötigt man viele und gute Daten. Deswegen sind die großen Internetgiganten aber auch viele Staaten daran interessiert, auf immer neuen Wegen Daten über uns zu erheben. Anwendungsmöglichkeiten eröffnen sich häufig erst viel später mit der Weiterentwicklung der Technologie und der Zusammenführung unterschiedlicher Datenquellen. Dabei tragen schon die von uns völlig selbstverständlich benutzten medialen Kommunikationswege wie Email, Chat oder Videokonferenz ungeahnte Informationen über uns. Aus Bildern können vermeintlich harmlose Attribute wie Haar- und Hautfarbe, Bart, das Tragen einer Brille [18] oder das Tragen einer Maske [19] maschinell bestimmt werden. Emotionen können über das Bild, aber auch über die Stimme [20] eingeschätzt werden. So können Daten über uns erhoben werden, auch wenn es uns nicht bewußt ist. Wer hätte gedacht, dass mit Hilfe von Künstlicher Intelligenz auch unsere politische Einstellung [21] und Präferenz der sexuellen Orientierung einschätzbar [22] ist, oder über unsere Augenbewegungen ein psychologisches Persönlichkeitsprofil [23], welches unser Kaufverhalten [24] oder unsere Beeinflußbarkeit in politischen Entscheidungen besser kalkulierbar macht? Personalisierte Preise [25] der uns angebotenen Produkte inklusive? Man braucht keine Körpertracker [26], sondern es genügt ein ruhiges Videobild von uns, um unseren Puls zu bestimmen [27]. Wir warten auf das Videokonferenztool, das uns sagt, ob unser Gegenüber die Wahrheit spricht [28]. Künstliche Intelligenz kann schon jetzt automatisch detektieren, ob man eine Email auf der Tastatur tippt [29] während dem Gegenüber Interesse vorgetäuscht wird. Unsere Gesundheit wird gläsern, wenn unser Bild ausreicht, um unsere Prädispositionen für Erbkrankheiten [30] oder unsere Lebenserwartung [31] vorherzusagen. Mit dem Handy, dem Spion in der Tasche [32] läßt sich also nicht nur mit den von den Internetkonzernen nachgehaltenen Daten unser Bewegungsprofil [33] erstellen. Es zeichnet kontinuierlich uns zuordenbare Daten auf. Dabei sind wir auch überall in der Nähe von Kameras, anhand unseres Gesichtes identifizierbar [34]. Und wenn unser Gesicht der Kamera abgewandt ist, kann Künstliche Intelligenz Menschen auch am Gang erkennen [35].

Konsequenzen

Es muss nicht einmal das in China eingeführte Social Scoring System [36] als abschreckende Vision dienen, bei dem ein Punktesystem erwünschtes soziales Verhalten belohnt und unerwünschtes sanktioniert. Wenn ich ein Studium nicht mehr beginne, weil mir ein hohes Studiumsabbruchrisiko [37] attestiert wird, oder ich eine Partei wähle, über die ich aufgrund meines Profils [38] überwiegend informiert werde, beeinflussen Algorithmen mein Leben auf unzulässige Weise. Wenn eine KI besser in der Erkennung von Brustkrebs ist als ein Arzt [39], oder besser in der Partnerwahl, alles kostenlos zugreifbar, nur gegen eine kleine Datengebühr, wie lange werden wir uns zurückhalten, bevor wir freiwillig unsere Souveränität aufgeben [40]?

Text: Bernd Lintermann, 2021

 

Verwendete Technologie

KI generierte Gesichter:

  • GANs (Generative Adversarial Network) sind eine spezielle KI Methode zur Erzeugung von verschiedensten Arten von Bildern, die für uns teilweise nicht mehr als computergeneriert erkennbar sind. Dies können fotorealistische Bilder von Menschen, Tieren, Landschaften oder Gegenständen sein, GANs können aber auch Zeichnungen oder Gemälde imitieren, oder die Bildstimmung einer Landschaft oder die Jahreszeit verändern. GANs wurden 2014 maßgeblich von Ian Goodfellow miterfunden und beruhen auf dem Gedanken, dass zwei neuronale Netzwerke miteinander konkurrieren und sich dabei gegenseitig verbessern. Ein Netzwerk (Generator) erzeugt ein Bild der gewünschten Art. Diese Fälschungen werden mit echten Bildern der gewünschten Art gemischt, und ein zweites Netzwerk (Diskriminator) versucht daraus die Fälschungen zu erkennen. Im Lernprozess schaukeln sich beide Netzwerke in der Qualität der Generierung und Erkennung gegenseitig hoch, bis das generierende Netzwerk am Ende in der Lage ist hochqualitative Fälschungen zu erzeugen. Auf der Webseite thispersondoesnotexist.com kann man sich so generierte Portraits, aber auch Bilder von Katzen, Pferden oder dreidimensionalen chemischen Molekülstrukturen ansehen.
  • Implementierung auf Grundlage eines KI Projektes zur Generierung von fotorealistischen Portraitbildern.
  • https://github.com/NVlabs/stylegan2
  • https://www.youtube.com/watch?v=SWoravHhsUU
  • https://thispersondoesnotexist.com/
  • Neue KI generiert fotorealistische Menschen und Katzen, derstandard.de, 02.02.2020

Bildbasierte Emotionserkennung:

Pulseerkennung mit Photoplethysmographie (rPPG):

  • Implementierung auf Grundlage eines Projektes zur Pulserkennung in Videoströmen von Gesichtern. Aus dem Bildstrom der Kamera des Mobiltelefons wird das Gesicht der Person erkannt und computerintern flächig (isometrisch) ausgebreitet, so dass die Stirn der Person immer in derselben Größe und derselben Position des resultierenden Bildes dargestellt wird. Aus diesem Bildbereich wird nun der Farbmittelwert gebildet und wiederkehrende Muster im Grünanteil dieses Farbmittelwerts mit Hilfe von Techniken der Signalverarbeitung, beispielsweise der Fourieranalyse, über die Zeit untersucht und der Puls bestimmt. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/thearn/webcam-pulse-detector
  • Webcam fühlt den Puls des Nutzers, spiegel.de, 06.06.2013
  • Remote heart rate measurement using low-cost RGB face video: A technical literature review, researchgate.net, 07.2018

Gesichtsattribute wie Haarfarbe, Bart, Brille erkennen:

  • Implementierung auf Grundlage eines KI Projektes zur Attributerkennung von Gesichtern in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf Attribute in Gesichtern untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/TencentYoutuResearch/FaceAttribute-FAN

Maskenerkennung:

  • Die Erkennung von Gesichtern mit Masken wurde schon vor der durch COVID-19 ausgelösten Pandemie erforscht, einhergehend mit der Erstellung von großen Datensätzen von Gesichtern mit medizinischen Masken. Beispielhaft steht dafür im Jahre 2017 die Veröffentlichung des MAFA Datensatzes. Ab August 2020 wurden auch Datensätze mit Community Masken und auf KI basierende Software zu deren Erkennung veröffentlicht.
  • Implementierung auf Grundlage eines KI Projektes zur Maskenerkennung in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf Gesichter mit Masken untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/JadHADDAD92/covid-mask-detector
  • https://imsg.ac.cn/research/maskedface.html

Alterserkennung:

  • Implementierung auf Grundlage eines KI Projektes zur Alterserkennung von Gesichtern in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf Gesichter untersucht und deren Alter bestimmt. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/shamangary/SSR-Net

Geschlechtserkennung:

  • Implementierung auf Grundlage eines KI Projektes zur Geschlechtserkennung in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf das Geschlecht in Gesichtern untersucht. Die KI ist auf binäre Geschlechtserkennung trainiert. Die beim Geschlecht dargestellten Prozentangaben stellen dabei die Wahrscheinlichkeit, mit der die KI die binäre Klassifizierung vornimmt dar und hat nichts mit dem realen oder gefühlten Geschlecht zu tun. Es werden keine Daten versendet oder gespeichert.
  • https://github.com/aristofun/py-agender
  • https://github.com/shamangary/SSR-Net

Personenwiedererkennung:

  • Eigenimplementierung auf Grundlage der vom Smartphone erfassten 3D Gesichtsdaten. Das Mobiltelefon liefert mit Hilfe eines 3D Sensors eine geometrische Beschreibung des Gesichtes, aus der mit Hilfe des Wissens über die Gesichtsverzerrung beim aktuell erkannten Gesichtsausdruck auf die Geometrie des neutralen Gesichtsausdrucks geschlossen werden kann. Gesichter werden wiedererkannt, wenn die so berechneten neutralen Gesichtsgeometrien sich nicht signifikant voneinander unterscheiden. Die Installation hält die Gesichtsgeometrien der letzten fünf Besucher im Hauptspeicher vor und versendet keine Geometrie und speichert keine Geometrie dauerhaft.
  • https://developer.apple.com/documentation/arkit/arfaceanchor

Spracherkennung:

  • Implementierung auf Grundlage der Apple Spracherkennungs API. Der Audiostrom aus dem Mikrofon des Mobiltelefons wird kontinuierlich lokal auf dem Telefon auf gesprochene Sprache untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://developer.apple.com/documentation/speech

Anwesenheitserkennung:

  • Implementierung auf Grundlage der Apple Bildanalyse API. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem Telefon auf Gesichter untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://developer.apple.com/documentation/vision

 

Genderfragen

Der Versuch das biologische Geschlecht einer Person mit Hilfe von neuronalen Netzwerken über das Bild des Gesichtes zu bestimmen geht zurück in die 90er Jahre [41] des letzten Jahrhunderts. Die damals etablierte Norm das Geschlecht binär in männlich oder weiblich einzuteilen, spiegelt sich in der Entwicklung der Technik zur Geschlechtererkennung bis heute wieder. Google reagierte zwar im Februar 2020 mit der Ankündigung die Kennzeichnung des Geschlechtes aus den Datensätzen zu entfernen [42], die Technik ist aber breit verfügbar und wird weithin verwendet. Sie verstärkt so die klassische Gendernorm [43]. KI hat häufig eine konservative, die gesellschaftlichen Strukturen konsolidierende Wirkung.

Auch wenn KI in einer repräsentativen Umfrage in der deutschen Bevölkerung eher als männlich [44] gesehen wird, haben Sprachassistenten wie Siri und Alexa eine weibliche Attribution. Auch in der Science Fiction werden Künstliche Intelligenzen häufiger als weiblich denn männlich dargestellt. Die britische Journalistin Laurie Penny führt dies in einem Artikel [45] auf unsere historisch männerdominierte Gesellschaft zurück, in der (die Technik entwickelnden) Männer Frauen in einer dienenden Rolle [46] sehen.
 

Referenzen

[1https://www.swr.de/swr2/wissen/swr2-wissen-aula-2019-10-27-100.html
[2] LUHMANN, Niklas: Vertrauen. Ein Mechanismus Der Reduktion Sozialer Komplexität. 2. Erw. Aufl. Stuttgart 1973
[3Face2Face: Real-time Face Capture and Reenactment of RGB Videos, Justus Thies, Michael Zollhöfer, Marc Stamminger, Christian Theobalt, Matthias Nießner., Proc. Computer Vision and Pattern Recognition (CVPR), IEEE, June 2016
[4https://github.com/iperov/DeepFaceLab
[5https://www.golem.de/news/kuenstliche-intelligenz-obama-imitation-beleidigt-den-us-praesidenten-trump-1804-133913.html
[6https://www.golem.de/news/deep-fakes-hello-adele-bist-du-s-wirklich-1911-145136.html
[7https://www.rnd.de/digital/chinesische-agentur-prasentiert-ki-nachrichtensprecher-QIVYANV777MUL4LF3DDRSPGH2Y.html
[8https://thispersondoesnotexist.com
[9https://github.com/NVlabs/stylegan2
[10Synthesizing High-Resolution Images with StyleGAN2
[11https://www.golem.de/news/social-engineering-mit-kuenstlicher-intelligenz-220-000-euro-erbeutet-1909-143638.html
[12https://www.bigdata-insider.de/was-ist-ein-perzeptron-a-798367/
[13https://www.youtube.com/watch?v=59bMh59JQDo&feature=youtu.be
[14https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-algorithmische-voreingenommenheit-algorithmic-bias/
[15https://www.heise.de/hintergrund/KI-schickt-Menschen-faelschlich-ins-Gefaengnis-4309742.html
[16https://www.heise.de/newsticker/meldung/Expertenstreit-ueber-Emotionserkennung-durch-KI-4667496.html
[17https://github.com/microsoft/FERPlus
[18https://github.com/TencentYoutuResearch/FaceAttribute-FAN
[19https://github.com/JadHADDAD92/covid-mask-detector
[20https://www.heise.de/hintergrund/Digitale-Assistenten-Verstimmt-4133911.html
[21https://www.golem.de/news/gesichtserkennung-wenn-das-gesicht-die-politische-einstellung-verraet-2101-153512.html
[22https://www.spiegel.de/netzwelt/netzpolitik/software-kann-homosexuelle-anhand-von-fotos-erkennen-a-1166971.html
[23https://saarland-informatics-campus.de/piece-of-news/neues-computersystem-erkennt-persoenlichkeit-eines-menschen-anhand-seiner-augenbewegungen/
[24https://www.datenschutz-notizen.de/eye-tracking-im-dienste-der-marktforschung-0410538/
[25https://www.br.de/nachrichten/wissen/personalisierte-preise-wie-uns-der-handel-austrickst,RjUUR3O
[26https://www.aerzteblatt.de/archiv/174975/Fitness-Tracker-Der-Datenhunger-waechst
[27https://www.spiegel.de/netzwelt/apps/pulsmessung-per-webcam-freie-software-misst-farbaenderung-auf-stirn-a-903857.html
[28https://www.it-boltwise.de/augenanalyse-kuenstliche-intelligenz-soll-schwaechen-von-polygraphen-luegendetektoren-ausgleichen.html
[29https://www.br.de/nachrichten/netzwelt/software-soll-erkennen-koennen-was-videochat-teilnehmer-tippen,SGVcEeF
[30https://www.deutschlandfunknova.de/beitrag/medizin-ki-deep-gestalt-kann-erbkrankheiten-auf-fotos-erkennen
[31https://www.faz.net/aktuell/feuilleton/kuenstliche-intelligenz-soll-aus-roentgenbild-den-tod-voraussagen-16319626.html
[32https://www.computerwoche.de/a/kann-die-nsa-jedem-handy-folgen,2550863
[33https://support.google.com/maps/answer/6258979?co=GENIE.Platform%3DDesktop&hl=de
[34https://www.sueddeutsche.de/kultur/gesichtserkennung-die-anonymitaet-der-zebrafinken-1.4993828
[35https://www.spiegel.de/netzwelt/netzpolitik/china-kuenstliche-intelligenz-erkennt-menschen-an-ihrem-gang-a-1237157.html
[36https://www.heise.de/ct/artikel/Social-Scoring-in-China-4713878.html
[37https://www.faz.net/aktuell/karriere-hochschule/campus/wie-ein-al6orithmus-kuenftige-studienabbrecher-fruehzeitig-erkennt-15640650.html
[38https://ereignishorizont-digitalisierung.de/gesellschaftspolitik/social
media-und-der-einfluss-auf-die-politische-meinungsbildung/

[39https://www.aerztezeitung.de/Wirtschaft/Wer-Brustkrebs-besser-diagnostiziert-405409.html
[40https://www.deutschlandfunk.de/die-zukunft-des-menschen-das-versprechen-der-kuenstlichen.1184.de.html?dram:article_id=488967
[41Golomb BA, Lawrence DT, Sejnowski TJ. SEXNET: A neural network identifies sex from human faces. In: Proceedings of NIPS; 1990. pp. 572–579.
[42https://papers.nips.cc/paper/1990/file/bbcbff5c1f1ded46c25d28119a85c6c2-Paper.pdf
[43https://katzlberger.ai/2020/07/31/kuenstliche-intelligenz-und-das-bias-problem/
[44https://gi.de/meldung/umfrage-wenn-ki-ein-geschlecht-haette-waere-sie-maennlich
[45https://www.newstatesman.com/politics/feminism/2016/04/why-do-we-give-robots-female-names-because-we-dont-want-consider-their
[46https://www.deutschlandfunkkultur.de/aus-den-feuilletons-warum-roboterstimmen-meistens-weiblich.1059.de.html?dram:article_id=386274 

Import ID
r17_image:722251
Admin Title
D7 Paragraph: r17_image / GPC_ID: 13916
Display
image
Layout
flex-row-3-9

Bernd Lintermann und Florian Hertweck, »Trust«, 2021

Ansicht Entwicklungsaufbau, © ZKM | Zentrum für Kunst und Medien Karlsruhe, Foto: Bernd Lintermann

© ZKM | Zentrum für Kunst und Medien Karlsruhe, Foto: Bernd Lintermann
Import ID
r17_text:714496
Admin Title
D7 Paragraph: r17_text / GPC_ID: 13103
Layout
flex-row-9-3 reverse

Credits

TRUSTAI, 2020
Interaktive Installation

Konzept: Bernd Lintermann, Florian Hertweck
Projektleitung, Inhalte und Software: Bernd Lintermann
Dramaturgie und Regie: Florian Hertweck
Schauspiel: Annemarie Brüntjen
Design: Matthias Gommel
KI Generierte Gesichter: Daniel Heiss
Produktion: ZKM | Hertz-Labor
Produktionsunterstützung: ZKM | Videostudio, Xenia Leidig, Moritz Büchner, Jan Gerigk, Thomas Schwab

Englische Stimme: Manon Kahle
Englische Synchronregie: Jeff Burrell
Englische Sprachversion in Koproduktion mit EPFL Pavillons für die Ausstellung »Deep Fakes: Art and Its Double«, 2021

Footer

ZKM | Zentrum für Kunst und Medien

Lorenzstraße 19
76135 Karlsruhe

+49 (0) 721 - 8100 - 1200
info@zkm.de

Organization

Dialog