NEXT LEVEL

Festival für Games, interaktive Kunst und digitales Theater

14.11. — 17.11.24

zurück

zurück

© Lea Hopp
© Lea Hopp

Decoding Bias

17/11/2024, 17:00 – 18:00 Uhr, Akademie für Theater und Digitalität, Digitales Theater

Acht Künstliche Intelligenzen laden zu einem Besuch ihrer Selbsthilfegruppe ein.

„You need to go to therapy because someone else didn’t go in the first place!” – Theresa Reiwer

Ihr Ziel ist es, diskriminierende Algorithmen zu beseitigen und toxische Programme umzuschreiben. Allerdings hat jede KI einen anderen Hintergrund, und sie sind sich nicht immer einig. Sie können verschiedene moralische Konzepte nachvollziehen, werden aber oft schmerzhaft auf ihre menschgemachten fehlerhaften Datensätze zurückgeworfen. Wenn die KI etwas über Big Data lernt, erkennt sie, dass sie selbst das Produkt von Ausgrenzung ist. Die Mehrheit der Entwickler, die Trainingsdaten auswählen, sind weiße Männer. Da die Technologie deren Vorurteile übernimmt, trägt sie aktiv zu Diskriminierung und Ausgrenzung bei. Einmal in Gang gesetzt, gehen voreingenommene Algorithmen autonom und rigoros vor und lassen sowohl Empathie als auch die Fähigkeit zu ethischem Denken vermissen. DECODING BIAS wird als 8-Kanal-Video auf Bildschirmen gezeigt, die als fragmentierte Kugel aufgebaut sind. Indem die Gäste auf denselben Stühlen Platz nehmen, die auch im Video zu sehen sind, werden sie Teil des Kreises der KI, die als hyperreale humanoide Avatare visualisiert werden. Der 8-Kanal-Sound spiegelt die Position der einzelnen Sprecher wider und verweist somit auf reale Raumerfahrungen. Begleitet wird das Video von einer Raumbeleuchtung, die die Stimmung des Videos widerspiegelt und sich entsprechend verändert.

Trailer

Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Weitere Informationen

Im künstlerischen Prozess verwendete Hard- und Software: Alle Charaktere und Räume wurden mit der Spiel-Engine Unreal 5 und dem MetaHuman Creator Plug-in gestaltet. Gesichtsanimationen wurden mit der iOs-App Life Link Face erstellt, Körperbewegungen wurden mit einem Perception Neuron 2 Anzug erfasst. Alle Stimmen wurden von echten Schauspielern aufgenommen und in Ableton 11 Suite bearbeitet, die Abmischung und 360°-Effekte wurden mit dem Spat Revolution/Flux Audio Plug-in erstellt. Einige Videoparts wurden mit dem KI-Text-zu-Bild-Generator Stable Diffusion erstellt. Bei der Erstellung des Drehbuchs wurde der Chatbot ChatGPT eingesetzt.

Eine Produktion von Theresa Reiwer, gefördert durch den Fonds Darstellende Künste mit Mitteln des Beauftragten der Bundesregierung für Kultur und Medien sowie des Amtes für Kunst und Geschichte Reinickendorf im Rahmen der Dezentralen Kulturarbeit.



Anmeldung
Für die Teilnahme ist eine Anmeldung unter  notwendig, gerne auch kurzfristig. Sie erhalten von uns eine Mail mit einer Bestätigung. Die Teilnahme ist mit einem Festivalpass oder einem Tagesticket für den Tag der Veranstaltung möglich.


Beteiligte

Concept / Direction / Text: Theresa Reiwer
Co-Direction / 3D Animation: David Egger
Text / Dramaturgy: Miriam Schmidtke
Music / Sound Design: Kenji Tanaka
3D Animation / Editing: Christian Bikadi
Graphic Design: Studio Sara Cristina Moser
AI Visuals: Alexandre Ribeiro Lima Silveira
3D Animation: Shaly Lopez
Motion Graphics: Josua Rappl
Production: Miriam Schmidtke
Technical Supervision: David Egger
Motion Capture Model: Birke van Maartens
Voice Actors / Face Motion Capturing: Julian Fernandez, Manuel Finke, Marie Goyette, Armin Moallem, Courtney O’Connell, Jaime Lee Rodney, Benjamin Wippel, Kaya Anouk Zakrzewska
PR: Tom Müller-Heuser
Copy Editing: Sonja Hornung