image

Ulf Otto, Professor für Theaterwissenschaft mit Schwerpunkt Intermedialitätsforschung an der Ludwig-Maximilians-Universität München, forscht zu Konvergenzen von Theater- und Technikgeschichte, Gesten und Genealogien des Reenactments und den Körperpolitiken theatraler Institutionen.

ALGORITHMEN
DES THEATERS

Ein Arbeitsbuch

Herausgegeben von Ulf Otto

image

© by Alexander Verlag Berlin 2020

Redaktionelle Mitarbeit: Christin Heinrichs-Lauer, Anna Raisich

Inhalt

Ulf Otto

Einleitung

Martina Leeker

Algorithmen in Performances

Umdeutungen, Verbergungen, Ver/Meidungen, Verharmlosungen in der Begegnung von Ingenieurswissen und künstlerischen Experimenten

Georg Werner

Arbeitsbericht: Das Publikum als Prozessor

Turbo Pascal, Algorithmen, 2012

Ulf Otto

Performanzen der Kontrollgesellschaft

Algorithmen (Turbo Pascal) und die Frage der Regierung des Theaters

Robin Hädicke

Arbeitsbericht: machina eX: Von Gafferband und Gespenstern – Spiel und Spuk in der Zustandsmaschine

Improvisieren, Programmieren und Ausprobieren spielerischer Atmosphären bei machina eX

Sascha Förster und Sabine Päsler

Foyer-Erkundungen zwischen programmiertem Handeln und freiem Navigieren

Über Raumpraktiken von Open-World- und Explorative Games in enter wonder.land und Filoxenia

Friedrich Kirschner

Arbeitsbericht: Der Polymythos

Michael Bachmann

Spiel-Regelung

›Eins-zu-Eins-Theater‹ und die Algorithmen partizipativer Performance

Nina Tecklenburg

Partizipative Games, Hypertext-Performances, immersive Theaterinstallationen

Neue Erzählformen im Theater und in Arbeiten von Interrobang

Lisa Großmann

»… anders als gewöhnliche Theaterproben«

Der Umgang mit Telefonen, Programmierung und Zuschauerpartizipation in den Proben zu Interrobangs Inszenierung Callcenter Übermorgen

Anna Königshofer

Wenn die Dramaturgie zur Frage der Technik wird: Der Produktionsprozess von Top Secret International (Rimini Protokoll) und seine kollaborativen Herausforderungen

Jessica Hölzl und Jochen Lamb

Robotik im Figurentheater

Sebastian Schlemminger

Arbeitsbericht: Das computerisierte Objekt als Performer im interaktiven Theater

Innenansichten aus den Proben zur Konferenz der wesentlichen Dinge von pulk fiktion

Wolf-Dieter Ernst

Roboter, Cyborgs und Androiden

Von prothetischem und algorithmischem Theater

Autor*innen

Abbildungsnachweise

Ulf Otto

Einleitung

Einst waren Algorithmen das, wofür Computer gebaut wurden, später brauchte es sie, um die Computer am Laufen zu halten. Inzwischen sind sie nicht nur zu entscheidenden Akteuren der Informationsgesellschaft aufgestiegen, sondern auch zum technischen Horizont der Kultur avanciert – einer Kultur, die es nur noch im Plural, als Vielfalt von Kulturen gibt und in der das Technische wiederum niemals rein technisch, sondern immer schon sozial und politisch ist.

Mit Conchita Wurst, nicht etwa mit Alan Turing und Norbert Wiener, nicht mit Rekursionstheorie und Kybernetik also, wie noch Charlie Gere (2002) und andere, beginnt Felix Stalder 2016 seine Überlegungen zur Kultur der Digitalität, besser gesagt mit ihrem Auftritt beim ESC 2014. Diesen Triumph einer Figur, die »attraktiv jenseits der Dichotomien« (Stalder 2016: 7) sei und vom Mainstream vor Kurzem noch unverstanden, versteht Stalder als Zeichen dafür, dass sich etwas in der Kommunikation der Gesellschaft verändert habe. Die »Vervielfältigung der kulturellen Möglichkeiten« (ebd.: 9) habe, von einer Verbreiterung der sozialen Basis der Kultur ausgehend, zu einer Flut an konkurrierenden kulturellen Projekten und Bedeutungsansprüchen geführt. Allerdings ruhten diese Projekte zunehmend auf technischen Fundamenten und könnten somit überhaupt nur noch technisch bewältigt werden. Suchmaschinen und ihre Algorithmen sind daher Fluch und Segen zugleich, erzeugen sie doch einerseits jene Filter Bubbles, die Eli Pariser schon 2011 problematisiert hat. Andererseits aber wäre ohne sie, das heißt ohne die statistische und stochastische Vorverarbeitung, eine individuelle wie kollektive Orientierung im Big Data, das zu großen Teilen unsere Wirklichkeit geworden ist, kaum noch möglich. Insofern wir auf Algorithmen angewiesen sind, um Sinn zu machen, wohnt ihnen eine Gesetzeskraft (vgl. Lessig 2006) inne, die über die Definition von Normen weit hinausgeht und jene klassische Kritik, die sich an menschengemachten Bedeutungen abarbeitet, oft hilflos erscheinen lässt.

Die Zukunft des Theaters liegt in dieser digitalen Kultur verortet, die kein Außerhalb mehr kennt, das heißt einzig im Kontext von Suchmaschinen, sozialen Netzwerken und mobilen Medien besteht. Aufführungen, von denen es einst hieß, sie spielten sich vor Ort in sich entziehender Gegenwärtigkeit und leiblicher Anwesenheit ab, sind inzwischen immer schon verlinkt und geliked, getaggt und geflaggt, überschattet von einem digitalen Double, welches Publika, Perzeptitionen und Reaktionen neu ordnet und unauflöslich mit dem Ding an sich verbunden ist. Die Herausforderungen, vor die der Algorithmus das Theater stellt, reichen insofern tiefer als bis zu seiner Inszenierung auf der Bühne. Sie betreffen die Sache selbst, nicht nur ihre Ästhetik, also Fragen der Institution, der Organisation und der Repräsentation, und sie treten häufig gerade dort auf, wo die Technik nicht sichtbar ist. Dennoch stellt sich auch für die Kunst des Theaters, die sich traditionellerweise in Abgrenzung von Schrift und Medialität auf den Begriff gebracht hat, die Frage nach dem Umgang mit den operativen Codes der Algorithmen.

Wenn sich dieser Band nun doch wieder dem ausgestellten Spiel mit der Technik und den Apparaten auf der Bühne und im Saal zuwendet, also der Versuchung nicht widerstehen kann, die Technik dort zu diskutieren, wo sie vorgeführt wird, dann geschieht dies unter doppeltem Vorbehalt: Weder soll hier noch einmal das Theater als privilegierter Ort behauptet werden, von dem aus sich in kritischer Distanz über Gesellschaft und Technik zu ihrem Besten sprechen ließe, noch soll einem neo-avantgardistischen Versprechen auf Wiedergeburt des Theaters aus technologischem Geiste das Wort geredet werden. Vielmehr geht es in den vorliegenden Beiträgen darum zu beschreiben, was sich im Spiel mit den digitalen Maschinen zeigt und wie die gesellschaftliche Logik der Technik in der Aufführung, der Rezeption aber auch in der Produktion von Theater wirksam wird.

Auch deshalb verbindet der Band wissenschaftliche Aufsätze mit Produktionsberichten und -eindrücken, Texte von Wissenschaftler*innen wie auch von Theatermacher*innen und Programmierer*innen. Nicht zuletzt trägt diese Zusammenstellung der Tatsache Rechnung, dass mit den digitalen Technologien die Produktionsverhältnisse nicht nur zum Thema werden, sondern auch einer Wandlung unterliegen, welche die im 20. Jahrhundert etablierte Trennung von Kunst und Technik wieder in Frage stellt.

Ursprünglich hervorgegeangen aus einer kleinen Konferenz an der Universität Hildesheim im in digitalen Maßstäben schon weit zurückliegenden Jahr 2015 und seitdem um entscheidende Beiträge gewachsen, markiert dieser Band jenen historischen Moment, in dem das Technische in neuem Gewand auf die Bühne zurückkehrte, wo es weniger als Erweiterung des einzelnen Körpers und der Wahrnehmung des Individuums auftrat, wie vielfach in der zweiten Hälfte des vorherigen Jahrhunderts, als vielmehr in Bezug auf Kollekivitäten und das Soziale.

Dabei versteht sich der Band als ein möglicher Anfang einer Diskussion, die es womöglich erst noch zu führen gilt, und möchte an eine aktuell sich abzeichnende Debatte um das Verhältnis von Theatralität und Technizität anknüpfen, die ihrerseits vielleicht unter neuen Vorzeichen wiederaufnimmt, was Ende der 1990er-Jahre unter der Überschrift »Theater und Medien« diskutiert wurde.

Den Auftakt macht daher ein Aufsatz von Martina Leeker, der die zeitgenössische Entwicklung in eine längere historische Perspekive seit den 1960er-Jahren stellt, das Verhältnis von Theater und Technik in Hinblick auf seine epistemologischen Fundamente diskutiert und durchaus kritisch hinterfragt, ob Performances die technische Wirklichkeit nicht auch immer wieder verbergen, vermeiden oder verharmlosen, um in drei historischen Schritten schließlich aber bei aktuellen Produktionen anzukommen. Die Produktion Algorithmen (2014) von Turbo Pascal bildet den Abschluss von Martina Leekers Text und ist zugleich das Thema des darauffolgenden Arbeitsberichts von Georg Werner, der als Darsteller, als Teil der Gruppe und zugleich als technisch Verantwortlicher an dem Projekt beteiligt war. Eine Diskussion der gleichen Produktion von Ulf Otto, die ausgehend von einer aufführungsanalytischen Perspektive Fragen nach Kontrolle und Regierung in Theater und digitaler Kultur aufwirft, schließt einen ersten thematischen Bogen.

Anschließend fokussieren die Beiträge eines zweiten Blocks das Thema der Games und Gamification im Theater. Robin Hädicke, Teil des Kollektivs machina eX, das seit 2010 Hybride aus Theater und Computerspielen entwickelt, gibt einen Einblick in einen Probenprozess, der der Logik des Designs folgt und von der Verhandlung zwischen technischen und theatralen Bedingungen geprägt ist. Sascha Förster und Sabine Päsler verfolgen die Logik in Open-World- und Explorative Games im Kontext von zwei Produktionen, enter wonder.land (2015) und Filoxenia (2015), welche Logiken des Gamings ins Foyer übertragen und damit zu einer spielerischen Ausweitung der Vorstellung beitragen. Friedrich Kirschners Arbeitsbericht diskutiert anhand der mit Christiane Hütter realisierten Arbeit Plattform Polymythos (2015) die Spielelogik im Spannungsfeld von Grenzsetzungen und Grenzüberschreitung. Und der darauffolgende Beitrag von Michael Bachmann untersucht die Logik des Spiels am Schnittpunkt von Intimitätsinszenierung, Handlungsspielräumen und Erlebnisökonomie in den One-on-one-Performances Wanna Play? (Love in the Time of Grindr) (2014) von Dries Verhoeven und A Game of You (2010) von Ontroerend Goed.

Auch die Arbeiten von Interrobang, die in zwei Aufsätzen des Bandes im Mittelpunkt stehen, schließen an Fragen nach den Logiken des Spiels im Theater an: Nina Tecklenburg beschreibt als Theaterwissenschaftlerin und Theatermacherin im ersten Teil ihres Beitrags aus einer theoretischen Perspektive das Verhälntis von Immersion und Narration, unter anderem in Bezug auf die Arbeiten von SIGNA, und skizziert in einem zweiten Teil die konzeptionelle und praktische Arbeit von Interrobang anhand der Beispiele Preenacting Europe (2014) und To Like or Not To Like (Ein Big Data Spiel) (2015). Eine dritte Perspektive auf die Arbeit von Interrobang steuert Lisa Großmann bei, die aus einer ethnografisch inspirierten Perspektive die Proben der Produktion Callcenter Übermorgen (2013) auf das Wechselspiel künstlerischer und technischer Verfahren untersucht. Ebenfalls aus einer ethnografischen Probenbeobachtung ist Anna Königshofers Beitrag hervorgegangen, der den Produktionsprozess von Rimini Protokoll im Fall von Top Secret International (Staat 1) (2017) aus der Perspektive der Organisationsforschung und in Hinblick auf kolloborative Konstellationen im Umgang mit digitalen Geräten in den Blick nimmt.

Die drei letzten Beiträge des Bandes schließlich haben es aus je unterschiedlichen Blickwinkeln mit algorithmisch animierten Dingen im Theater zu tun. Jochen Lamb und Jessica Hölzl beschäftigen sich anhand der Inszenierung Robot Dreams (2018) von Meinhardt & Krauss mit der Robotik im Figurentheater. In der detaillierten Analyse des Ineinanders von Prozessen der digitalen Steuerung und des szenischen Spiels untersuchen sie die Animation von robotischen Körperteilen im Grenzbereich von Subjektivität und Objekthaftigkeit. Der Arbeitsbericht von Sebastian Schlemminger steht im Kontext des Kinder- und Jugendtheaters und beschreibt das Design eines interaktiven Spieltisches als kommunikativen Spielraum in der Inszenierung Konferenz der wesentlichen Dinge (2014) von pulk fiktion. Abschließend beschreibt Wolf-Dieter Ernst den Auftritt von Robotern, Cyborgs und Androiden im Theater aus einer größeren historischen wie auch theoretischen Perspektive. In Bezug auf Körpertheorien und die Arbeiten Stelarcs verfolgt er prothetische im Vergleich zu algorithmischen Inszenenierungsstrategien, insbesondere in einer eingehenden Analyse von My Square Lady (2015), einer Inszenierung von Gob Squad, die in Zusammenarbeit mit dem Neurorobotik Lab der Beuth Hochschule für Technik Berlin und der Komischen Oper Berlin zustandegekommen ist. Gerade jene algorithmischen Strategien, die sich in ihrer maschinellen Logik einer spiegelbildlichen Reproduktion des Menschlichen entziehen, erscheinen dabei im Kontext der Oper, dieses ›Kraftwerks der Gefühle‹ (Kluge), als vielversprechend.

Der Herausgeber ist den Autor*innen und dem Verlag zu großem Dank für die Geduld verpflichtet, mehr noch aber Anna Raisich, der das Erscheinen dieses Bandes maßgeblich zu verdanken ist, ohne die es sicher noch einiges mehr an Dank für noch mehr Geduld bedurft hätte. Er verbindet mit diesem bescheidenen Band die Hoffnung, einen kleinen Beitrag zur längst überfälligen Wiederaufnahme der Diskussion der Technizität des Theatralen zu leisten, die vor einem Rückfall in die immer schon unterkomplexe Entgegensetzung von Theater und Medien, Liveness und Reproduktion, Technischem und Sozialem etc. gefeit ist. Denn die Frage nach der Technik ist mehr als andere Fragen auch immer eine politische Frage, die abgesehen von Implikationen in Hinblick auf ›race‹, class, gender & c., unser Verhältnis zur Welt maßgeblich mitbestimmt.

Literatur

Gere, Charlie (2002): Digital Culture, London: Reaktion Books.

Lessig, Lawrence (2006): Code. Version 2.0, New York: Basic Books.

Stalder, Felix (2016): Kultur der Digitalität, Berlin: Suhrkamp.

Martina Leeker

Algorithmen in Performances

Umdeutungen, Verbergungen, Ver/Meidungen,
Verharmlosungen in der Begegnung von
Ingenieurswissen und künstlerischen Experimenten1

Die Zusammenkunft von Performance und in Maschinen implementierten Algorithmen ist ein komplexes und kompliziertes Unterfangen.2 Denn Algorithmen werden in Performances mit menschlichen Agierenden nicht einfach aus- oder aufgeführt. Sie werden vielmehr umgedeutet, verborgen, gemieden beziehungsweise vermieden oder verharmlost.3 Algorithmen tauchen also in Performances eher nicht direkt oder wenn, dann zum Beispiel auf metaphorischer Ebene auf.4

Diese Lage ist Anlass, sich mit dieser Beziehung im Hinblick auf die Hintergründe ihrer Entstehung sowie auf ihre kulturelle Leistungsfähigkeit auseinanderzusetzen. Ihre Brisanz ergibt sich daraus, dass Algorithmen für eine potenzielle Selbstorganisation von technischen Dingen und Infrastrukturen stehen, die auch eine neue Positionierung des Menschen einfordern. Algorithmen ermöglichen insofern eine technologische Selbstregelung, als sie Handlungsvorschriften sind, bei denen jeder Schritt festgelegt ist, und die Operationen unabhängig von materiellen Trägern zu einem Ende führen müssen (vgl. Bächle 2014). Daher sind Algorithmen qua konzeptueller Konstitution Regulatoren, dies allerdings mit einem prekären Status. Denn sie gehen mit der grundlegenden Nichtberechenbarkeit und Nichtformalisierbarkeit von Welt um, indem sie zum Beispiel mit Annäherungen an gestellte Problemlösungen oder dem Herausrechnen von Fehlern operieren. Ihre Operationen sind dabei ständig Übersetzungs- oder Berechnungsfehlern ausgesetzt, die in Störungen, schlimmstenfalls in Ausfällen oder gar Unfällen münden können. Das heißt, die von Algorithmen gesteuerten Prozesse und Operationen können immer scheitern, ohne dass sie in ihrer machtvollen Verfasstheit für menschliche Nutzer*innen sichtbar, gänzlich verstehbar oder gar kontrollierbar wären. Die These ist, dass Performances mit Algorithmen in dieser Situation daran beteiligt sind, die mit den technologischen Bedingungen prekär werdende Position von Technologie sowie von menschlichen Agierenden zu re-designen.

Die Inszenierungsgeschichte von Algorithmen durch Theater und Performance, die sich mit den Methoden der Umdeutung, des Verbergens, des Ver/Meidens sowie der Verharmlosung andeutet, wird hier nun in Ausschnitten vorgestellt. Es handelt sich um eine doppelte Geschichte, die sich nicht nur in künstlerischen Performances abspielt. Vielmehr zeigen sich zeitliche Koinzidenzen, Parallelläufe oder direkte Zusammenarbeit mit Computer- und Ingenieurswissenschaften, in denen Algorithmen in ähnlicher Weise wie in Performances inszeniert werden. Diese quer zu den Disziplinen verlaufende Inszenierungsgeschichte soll im Folgenden ab den 1960er-Jahren im Hinblick auf unterschiedliche Muster der Beziehung von Performance und Algorithmus verfolgt werden. Hier setzt diese Geschichte mit der Durchsetzung von komplexen (sozio-)technischen Systemen wie zum Beispiel der Telekommunikation und der zeitgleichen Auflösung von Medien und Geräten in technische Umwelten ein. So wird etwa in den 1960er-Jahren in den Performances der 9 Evenings. Theatre and Engineering die Selbstorganisation von Systemen aufgenommen und dabei den menschlichen Performenden sowie technischen Dingen unter Zuhilfenahme der Umdeutung von algorithmischen Operationen eine neue Position zugewiesen. In den 1980er-/1990er-Jahren kommt der Computer qua algorithmischer Steuerungen mit menschlichen Agierenden in ein kooperatives Verhältnis statt sie weiterhin als Servomechanismus (Mindell 2001) zu integrieren (vgl. Lettkemann/Meister 2004). Andererseits tritt der Computer mit der Erfindung des Ubiquitous Computing gleichsam hinaus in die Welt, denn er geht über in kleine, smarte Geräte, die als ›Internet der Dinge‹ (Engemann/Sprenger 2015) eine vernetzte technische Umwelt bilden. Kunst und Performance agieren in dieser Zeit mit interaktiven Settings und verbergen dabei die algorithmischen Steuerungen. In einer dritten Phase zu Beginn der 2000er-Jahre tauchen in Arbeiten des britischen Choreografen Wayne McGregor mit der zunehmenden Durchsetzung des ubiquitären Computing und des Internets der Dinge Performances mit algorithmischen Assistenten auf, in denen es darum geht, sich mit dem nur einigermaßen Funktionierenden zufrieden zu geben. Dies entpuppt sich als Ver/Meidung von Algorithmen, indem in der Fokussierung auf die Kreativität von heuristischen Algorithmen vermeintlich ihr Regelwerk unterlaufen wird. Schließlich erscheint seit den 2010er-Jahren eine neue Welle von Performances über Algorithmen, die diese ausstellen, dies aber letztlich mit dem Effekt, sie zu vereinfachen und zu verharmlosen und ihr in Zeiten von unmenschlichen Datenmengen undurchsichtiges Werk im Aufdecken erneut zu verdecken.

Das Verhältnis von Algorithmen und Performances ist mithin Bestandteil der »Technikgeschichten des Menschen« (Leeker 2001). In Performances mit und durch Technik wird diese nie einfach nur genutzt. Vielmehr werden kollektive Notlagen und Umbrüche aufgefangen und mit ihnen umgegangen, Menschliches und Technisches re-designed und an der Konstruktion sozio-technischer Ensembles mitgewirkt.

9 Evenings und Systems Engineering. Wenn Künstler Ingenieurswissen umdeuten

Paradigmatisch für den Umgang mit Algorithmen in den 1960er-Jahren, der sich durch Umdeutungen konstituiert, sind die Performances der 9 Evenings. Theatre and Engineering.5 Sie kamen auf Initiative von Robert Rauschenberg und Billy Klüver im Herbst 1966 in einer riesigen Militärhalle (Armory) in New York zur Aufführung.6 Billy Klüver war Ingenieur bei den amerikanischen Bell Telephone Laboratories (Bell Labs)7 (vgl. Gertner 2012), unter anderen eine der federführenden Institutionen im Systems Engineering (vgl. Leeker 2012), das sich als eine kybernetische Theorie und Praxis der Verkopplung beschreiben lässt. Unterschiedliche Bestandteile wurden zu einem selbstregulierten, technischen Ganzen verbunden, wie zum Beispiel in technischen Systemen zur Abwehr, Verkehrsregelung oder Telekommunikation.

Mit den Performances der 9 Evenings wurde nun zunächst ganz im Duktus des Systems Engineering ein signifikanter Bruch mit tradierten Vorstellungen von Kunst und Performance sowie zum Verhältnis von Mensch und Technik vollzogen. Denn in dieser Kunst standen nicht länger Werke im Zentrum, sondern, so der Kunstwissenschaftler Jack Burnham, eine »Systems Esthetics« (Burnham 1968). In den im Rahmen der Kunst entstandenen, sich selbst organisierenden Systemen wurden menschliche Agenten dabei wie in den technischen Systemen zum integralen Bestandteil. Dies wurde in den Versuchen der Crème de la Crème der amerikanischen Neo-Avantgarde – beteiligt waren unter anderen die Komponisten John Cage und David Tudor sowie die Begründer*innen des zeitgenössischen Tanzes Alex Hay, Yvonne Rainer und Deborah Hay – mit mindestens 30 Ingenieuren der Bell Labs in einem System zum Transport und zur Steuerung von Signalen entworfen und umgesetzt. So konnten zum Beispiel Manifestationen der Körper wie Hirnströme, Hautspannung oder Herzschlag sowie Operationen der Dinge, etwa deren Bewegung durch den Raum oder das Schwingen von Saiten, die Scheinwerfer und damit das Licht im Raum beeinflussen, Sound erzeugen oder visuelle Effekte, zum Beispiel bei Filmprojektionen, steuern. Algorithmen aber, die die selbstorganisierten Systeme steuerten, wurden in diesen Performances umgedeutet und damit umgangen.

Dies wird im Weiteren an zwei Beispielen dargelegt. In Bandoneon! (A Combine) von David Tudor wurde auf der technischen Ebene eine Umdeutung und damit Verdeckung der technisch-algorithmischen Möglichkeiten vorgenommen. Eine andere Methode war, die Algorithmen statt auf der technischen auf der menschlichen Ebene einzusetzen. Dies wird hier am Stück Carriage Discreteness von Yvonne Rainer ausgeführt, in dem Handlungsvorschriften der Choreografin nach ›Wenn-dann-Vorgaben‹ genutzt wurden, um Performances der menschlichen Agierenden sowie der technischen Dinge zu steuern.

Um die Umdeutung der technischen Verfahrensweisen bei Tudor zu verstehen, ist zunächst noch ein Blick auf die kybernetischen Prinzipien des Systems Engineering bei den Bell Labs nötig. Dieses stützt sich seit den 1920er-Jahren auf negatives Feedback, mit dem Systeme Ist- und Sollzustände abgleichen und auf diese Weise selbstorganisiert und ohne Zutun vom Menschen und in dessen Stellvertreterschaft handeln können (vgl. Mindell 2001). Die Arbeit der Ingenieure sowie die der gesteuerten Systeme war dabei keinesfalls stupide oder linear-kausal. Vielmehr beruhte das Systems Engineering der 1960er-Jahre als Anwendung kybernetischer Konzepte und Regelungspraktiken auf deren Regeln der Zirkularität, wodurch es umweltoffen war und auf unvorhergesehene und nur bedingt berechenbare Ereignisse eingehen konnte.8

Es gesellte sich ein zweites Prinzip, nämlich technische Kreativität, in die algorithmische Regelung, mit dem Systeme aus ihrer Selbstbezüglichkeit heraus entstehen. Der Ingenieur Arthur D. Hall fügte in sein bei den Bell Labs entwickeltes Grundlagenwerk zum Systems Engineering (Hall 1962) die Arbeit mit der »Zwicky Box« (Zwicky 1966) hinzu. Die Box gründet auf einer morphologischen Analyse der Parameter eines Gegenstandes, zum Beispiel eines Tisches. Dieser besteht aus Beinen, einer Platte, weist eine Größe auf und ist aus einem bestimmten Material gefertigt. In einem Matrixdiagramm werden diese Parameter auf der linken Seite eingetragen. Im rechten Feld werden die möglichen Gestaltungsweisen notiert, sodass kombinierend etwa ein 30 cm hoher Tisch aus Filz mit 100 Beinen erfunden werden kann. Es handelt sich um eine gleichsam algorithmische Kreativtechnik, mit der Eigenschaften von neuen Objekten über das Matrixdiagramm frei de- und re-kombiniert werden. Hall übertrug diese Technik auf Systeme, um neue, ohne die diagrammatische Spekulation nicht denkbare Systemlösungen zu erfinden (Hall 1969). Das heißt, Systeme entstanden weniger aus dem Abgleich mit der Wirklichkeit als vielmehr aus selbstbezüglichen Variationen und Versionen möglicher Gestaltungsweisen. Es ging darum, Welt experimentell nach einem festgelegten Schema, mithin algorithmisch, zu konstruieren und im laufenden Prozess der Systementwicklung und Implementierung, wenn nötig, zu korrigieren.

Bandoneon! (A Combine). Höheres Sein im Technischen

Die Performances der 9 Evenings treffen auf diese Epistemologie des Engineerings, das sie allerdings im Hinblick auf die skizzierte Selbstregelung und Selbstbezüglichkeit gründlich modifizierten. So unterlief David Tudor in Bandoneon! (A Combine) Algorithmen als Ermöglicher von Selbstregelung und deutete sie als bloße Steuerungstechnik um. In dieser Arbeit des führenden Vertreters der elektroakustischen Musik sollten zwar mit der Übertragung von Signalen eine akustische Selbstkomposition der Geräte sowie visuelle Effekte über ein modifiziertes TV-Gerät erzeugt werden. Das System beruhte allerdings gerade nicht auf Selbststeuerung. Vielmehr bauten die Ingenieure gemeinsam mit dem Künstler, ganz entgegen ihrer gewohnten Arbeit bei den Bell Labs, ein elektrische Signale leitendes statt Informationen schaltendes Environment (vgl. Leeker/Steppat 2015). Dabei wurde eine informationstechnische Selbststeuerung über negatives Feedback, mithin die Grundlage für die im Systems Engineering unerlässliche Selbstorganisation, ausgeschlossen und durch ein sich selbst aufheizendes und kaum kontrollierbares positives Feedback ersetzt. Dazu wurden die Schwingungen der Stimmzungen im Bandoneon abgenommen, über Mikrofone in elektrische Signale verwandelt, verstärkt und anschließend über Wellen im Raum oder aber über Kabel an Ausgabegeräte weitergeleitet. Auf kleinen, ferngesteuerten Wagen (carts) bewegten sich dabei Resonanzkörper und Mikrofone zu nah an die im Raum installierten Klangkörper und Lautsprecher heran, sodass Phasenverschiebungen und Interferenzen zwischen den Klangschwingungen entstanden, mithin das unkontrollierbare positive Feedback erzeugt wurde. So entstand zunächst der Eindruck eines sich wie von Zauberhand selbst organisierenden, akustisch-visuellen Environments.

Durch die Selbstkomposition der Geräte und der elektromagnetischen Wellen kam es zu einer Übertragung des Technologischen auf den ganzen Raum. Medientechnik überspringt die Gehäuse und Interfaces und wird zum tätigen und einhüllenden Environment. Dies ist der Beginn dessen, was heutzutage in digitalen Kulturen als Techno-Ökologie (vgl. Hörl 2011) firmiert, in der menschliche Handelnde, zum Beispiel in entstehenden Smart Cities, in eine infrastrukturelle, sozio-technische Umwelt eingelassen sind, der sie sich nicht entziehen können, da diese überall, allgegenwärtig und alltäglich ist.

Mit einer solchen Inszenierung von technischer Handlungsmacht löst sich auch die Vorstellung auf, dass Handeln allein einem intentionalen Subjekt und dessen instrumentellem Gebrauch von Technik zuzuordnen ist. Technisch Geregeltes performt, und die menschliche Performance wird auf ein operatives Level heruntergefahren. Diese Re-Definition von Performativität ist entscheidend dafür, dass technische Systeme und menschliche Agierende überhaupt in Bezug gesetzt werden können.

Allerdings gibt Tudor in der environmentalen Performance die Kontrolle nicht gänzlich aus der Hand. Er vermeidet nämlich in der Gestaltung der Selbstkomposition der technischen Geräte nicht nur negatives Feedback, sondern nimmt zudem eine deutliche technische Einmischung am Selbstorganisation ermöglichenden Vochrome9 vor.10 Dieses Gerät, das der Ingenieur Bob Kieronski als Medium für elektromechanische Klanganalysen entwickelt hatte, wurde so zu einem riesigen Schalter umfunktioniert. Während in Kieronskis Gestaltung im Vochrome Töne in Frequenzen zerlegt und in unterschiedliche Kanäle geschaltet wurden, um einen Ton zu erzeugen, nutzte Tudor das Gerät nach dessen Modifikation, um den Output der positiven Rückkopplungen zu unterbrechen.

Auf der Grundlage dieser Modifikation und Umdeutung inszenierte sich Tudor in einer widersprüchlichen Kontrollfunktion. So formulierte er in einem Interview: »If you put yourself in a situation of unpredictability and then find that it’s completely possible to accept it, then you become an observer.«11 Er fährt dann allerdings fort: »And that’s when it occurs to me, it’s I who have done that […]. I have given life to this configuration.«12

Tudor entwirft mit Bandoneon! (A Combine) mithin ein äußerst ambivalentes Modell von Selbst und Subjektivierung. Einerseits ist er in der Figur des »Beobachters« an den Status eines Agenten der Technik gebunden, der in fremdem Auftrag handelt. Zugleich aber behauptet Tudor in seiner Reflexion ein wirkmächtiges »I«, das die Selbstkompositionen technischer Dinge überhaupt erst ermöglicht. So wird der Eindruck erzeugt, dass der Agent im Sinne eines Super-Agenten, das heißt als Agent der Agenten beziehungsweise als Beobachter der Beobachter, Entscheidungen treffen und das System kontrollieren kann. Selbst-Entmachtung und Selbst-Ermächtigung gehen Hand in Hand. Es entsteht ein sich selbst aufheizendes System, in dem ob des prekären Zusammenspiels von Kontrolle und Unkontrollierbarkeit Selbst sowie Kontrolle erzeugt und aufgelöst werden, um sich erneut zu erzeugen und wieder aufzulösen (vgl. Moser 2013). Eine veritable Selbst-Illusionierung entsteht (vgl. Leeker 2016).

Von besonderem Interesse ist schließlich, welche Art der Integration menschlicher Agierender bei Tudor erzeugt wurde. Wenn er die Selbstkomposition der Geräte unterbrach, ging es ihm darum, den sphärischen Klang des Armory selbst erklingen zu lassen. Diese riesige Militärhalle zeichnete sich nämlich durch einen nicht zu unterbindenden Hall aus, den Tudor im Duktus seines Konzeptes von der Eigenkomposition technischer Geräte als Performance des Raums nutzte. Sein Anliegen dürfte dabei gewesen sein, einen Klangäther evident zu machen, dem im Eigenklang der elektrischen Geräte das Ertönen eines Techno-Äthers zur Seite gestellt wird. Dies erschließt sich, wenn in Betracht gezogen wird, dass Tudor nachweislich Leser von Rudolf Steiner war und seit 1957 Mitglied der anthroposophischen Gesellschaft.13 Im elektromagnetischen Leitungsund Modulationsraum des technisch gestützten Äthers entstanden so die Visionen des Künstlers zur Verkopplung von Mensch und Technik als Faszinationsgeschichte medialer Vermittlung als Unmittelbarkeit mit spiritistischen Reminiszenzen (vgl. Hagen 1999). Diese von Äther und elektrischen Vibrationen durchtränkte Mediengeschichte wurde dem codierten Signaltransport über Information bei den Ingenieuren der Bell Labs entgegengestellt.

Die 9 Evenings halluzinieren mit ihren Umdeutungen kybernetischer Feedbackschleifen mithin ein Environment elektrischer Übertragung, in dem in einem Sein in höheren, übersinnlichen Ordnungen alles mit allem schwingt, in dem Menschen aber gleichwohl eine Position von Kontrolle und Außenblick zugestanden wird.

Carriage Discreteness. Menschliche Algorithmen

In Carriage Discreteness von Yvonne Rainer (vgl. Leeker 2013) kommt die zweite Methode der Umdeutung von Algorithmen zum Tragen. Sie wurden den technischen Geräten entwendet und auf die Steuerung der menschlichen Performances übersetzt. Dies wird wie folgt beschrieben:

Rainer remained on the Armory balcony throughout the performance, relaying her instructions by walkie-talkie (Robert Morris played this role on October 21). The dancers, for their part, were equipped with receivers that they wore on either their wrists or shoulders. At the start of the performance, an array of objects (including plywood panels, metal sheets, pipes and parallelepipeds made by the sculptor Carl André) was placed into 20 separate sections of a grid that had been drawn with chalk on the Armory floor. Alone or in pairs, the dancers carried objects designated by the choreographer from one zone to another. Before being called upon, the dancers stood and waited for instructions. […] Echoing this first choreographic series, the second series of events unfolded in accordance with a program designed to trigger (in a 67-step sequence) the mechanisms of various devices.14

Im Kontext der Zusammenarbeit von Ingenieuren und Künstler*innen in den 9 Evenings erzeugte Rainer damit menschliche Performances selbst als Systems Engineering nach dem Vorbild algorithmischer Operationen: Wenn ein Ereignis X geschieht, wird Y ausgelöst. Im Gegensatz zur kybernetischen Selbstorganisation, die dezentral funktioniert, stellte Rainer allerdings, ähnlich wie Tudor, sich selbst als zentrale Führungsperson in den Mittelpunkt.

Mit den beschriebenen Umdeutungen und Verkehrungen wird auf das Systems Engineering reagiert, das ob seiner Selbstorganisation sowie seiner geheimnisvollen Funktionsweise den Menschen zu einer Neubestimmung zwingt. Diese unterstützen die 9 Evenings, indem sie im Armory an der Transformation von Technologie zu einem Environment teilhaben. Technischen Dingen wird darin eine Handlungsmacht zugestanden, denn sie performen, während die menschlichen Agierenden zu deren Agenten werden. Lange vor der Theorie der Agentennetzwerke (vgl. Latour 2007) und der Durchsetzung der Medien- und Kulturwissenschaft mit dieser Theorie, wurden Menschen und Dinge im Kontext des kybernetischen System-Ingenieurwesens also in eine symmetrische Agentenschaft katapultiert. Den Künstler*innen gelingt es dennoch, Kontrolle in die vermeintliche Selbstkomposition der Dinge und Selbstorganisation der Systeme einzuziehen.

Schließlich kommt es zu einer Beseelung des Systems, wenn es zu einem resonanten Environment wird, das für eine höhere Ordnung einer Technosphäre einsteht. Auf diese Weise konstituiert sich die Inszenierungsgeschichte von Algorithmen im Kontext der Auseinandersetzung mit kybernetischen Systemen als eine Faszinationsgeschichte des Technologischen, in der Beseelung/Animismus, Affekte und Begehren, mithin irrationale und unbewusste Ebenen, eine zentrale Rolle spielen. Es stellt sich die Frage, ob und mit welchen Auswirkungen sich diese technologische Bindung tradiert.

Algorithmen: embodied und verborgen. Interaktive Performances, 1980/90

In den 1980er- und 1990er-Jahren kommt es zu einer neuen Sicht auf die Beziehung von Mensch und Technik und damit auf Algorithmen und das Performen mit ihnen. Es ging nun darum, die Komplexität von Handeln und Verstehen im Austausch von Mensch und (digitaler) Maschine zu erfassen und zu regeln.15 So kamen zum Beispiel in den sogenannten »Workplace Studies« Soziologen, Ingenieure, Computerwissenschaftler, Ethnologen und Anthropologen zusammen, um die nunmehr als soziotechnische Ensembles und Handlungsgemeinschaften aufgefassten Systeme zu erkunden (vgl. Knoblauch/Heath 1999). Ein Ergebnis dieser transdisziplinären Kooperation sind die Programme der Computer Supported Cooperative Work (CSCW), die in unterschiedlichen Arbeitsbereichen Gruppenarbeit mit Informationstechnologie unterstützen. So können etwa über elektronische Konferenzsysteme Beteiligte an entfernten Orten zusammenarbeiten oder unterschiedliche Arbeitsschritte eines Teams mit Hilfe von Computerprogrammen koordiniert werden. Ausschlaggebend für diese Reformulierung des Mensch-Maschine-Verhältnisses waren unter anderem Unfälle in den großen technischen Systemen, die ebenso durch deren Zusammenbrüche wie durch menschliches Versagen ausgelöst wurden.16 Diese riefen die Beachtung der sozialen Faktoren in der Arbeit mit Computern auf den Plan (vgl. Knoblauch/Heath 1999: 165). Denn, so die Techno-Anthropologin Lucy Suchman, Kommunikation und Handeln sind nicht rational organisiert und in hohem Grade von kontingenten Ereignissen in sozialen Kontexten abhängig (vgl. Suchman 1987; 1993).

In den 1990er-Jahren wandern Algorithmen zudem mit dem Ubiquitous Computing aus vernetzten Computern in die Umwelt und die sie besiedelnden technischen Dinge aus. Es entsteht ein technologisches Environment, das die Kooperation mit menschlichen Agierenden zur Selbstverständlichkeit werden lassen will und deshalb auf Unsichtbarkeit setzt. Seit 1988 arbeitete Mark Weiser an diesem neuen Projekt, das er als eine Welt beschreibt »in which each person is continually interacting with hundreds of nearby wirelessly interconnected computers.« (Weiser 1993: 75) Rich Gold, seines Zeichens Musiker, Komponist, Performer, Schriftsteller, Gestalter, Comiczeichner, Spielentwickler und Spielzeugmacher, setzte ab 1991 in Weisers Projekt im Palo Alto Research Center (PARC) von Xerox der Entwicklung und Konzeptualisierung noch eins drauf. Denn bei ihm sind die technischen Dinge beseelt und es entsteht mit ihnen eine infrastrukturelle Zauberwelt, von der wir wohl bis heute profitieren, um in digitalen Kulturen auch wider besseres Wissen Daten abzugeben und uns wohl zu fühlen (vgl. Sprenger 2016; Leeker 2017). Gold schreibt: »This new augmented reality is perhaps a little like the enchanted village, in which common objects have magically acquired new abilities, a village where toy blocks really do sing and dance when I turn out the lights.«17

Von Interesse für die Auseinandersetzung mit Theater, Performance und Algorithmen ist nun, dass menschliche Akteure als Partner und Gegenüber ins Spiel kommen, die den technischen Performances helfen, menschlicher zu sein, und dass damit die Situiertheit und Prozessualität als Faktor von Arbeit, Organisation und Ökonomie beachtet wird (vgl. Knoblauch/Heath 1999: 166). Die Vision ist, dass immer mehr ›Mensch‹ und damit Unbestimmtheit, Kontextualität und Emergenz in die technologischen Umwelten einginge. Dies aber läuft auf eine Illusionierung der Technik hinaus, denn Code verträgt keine echte Störung (vgl. Arns 2007), würde dies doch die Systeme zusammenbrechen lassen. Garant für die Aufrechterhaltung dieser verdeckenden Inszenierung von Algorithmen sind der Diskurs von vermeintlich unhintergehbaren sozio-technischen Systemen (vgl. Suchman 1983; 1993; Knoblauch 1999) sowie die Debatten um Interaktivität und deren immersive oder sichtbare Interfaces. Technische und menschliche Systeme sollen sich aufeinander zu bewegen18 und sich dauerhaft wechselseitig beeinflussen und miteinander kooperieren.19 Im Ubiquitous Computing, vor allem in den Visionen von Rich Gold, zeigt sich, dass die in den 9 Evenings erfundene Faszinationsgeschichte tatsächlich fortgeführt wird. Nun sind es allerdings weniger spiritistische Reminiszenzen, als vielmehr gleichsam tiefenpsychologisch angelegte Kinderzauberwelten, die dazu führen, dass Menschen sich in den technologischen Umwelten geborgen fühlen.20

Die Vermutung ist, dass die Fähigkeit, sich in dieser neuen Handlungsgemeinschaft wiederzufinden und zu verhalten, sowie die Selbstverständlichkeit von technischen Umwelten eingeübt werden mussten.21 Hier kommen die nunmehr wichtig werdenden interaktiven Installationen (vgl. Dinkla 1997) als Format des Performens mit Algorithmen ins Spiel, die die sozio-technischen Arbeitswelten ästhetisch und diskursiv nobilitierten und dabei die algorithmischen Regelungen verdeckten.

Interaktive Installationen

Mit den interaktiven Installationen der 1980er- bis Ende der 1990er-Jahre wurden Konstellationen entworfen, in denen menschliche Nutzer*innen in anscheinend direkte Interaktion mit von Computern gesteuerten ›Welten‹ traten. In The Interactive Plant Growing (1993) von Laurent Mignonneau und Christa Sommerer konnten die Interagierenden zum Beispiel über das Berühren von Pflanzen auf einer großen Projektionsfläche Pflanzenbilder generieren. Ein anderer Klassiker des Genres, David Rokebys Very Nervous System (1986–1990), erlaubte es, durch Bewegungen in sogenannter Echtzeit Sounds auszulösen.22 Diese Installationen brauchen eine Sensorik (zum Beispiel Kameras, Drucksensoren, Mikrofone), mit der die Inputs der Interagierenden erfasst werden können. Im Computer findet eine Verarbeitung der Daten statt und in einem Ausgabemedium, oft eine überdimensionierte Projektionsoberfläche, werden die Effekte der Interaktion sichtbar gemacht. Technisch betrachtet unterbrechen die Interagierenden die Verrechnungen des Computers und steuern damit dessen weitere Regulierungen. Oft sind die Installationen in einem abgetrennten Raum aufgebaut, in dem eine oder mehrere Personen die Interaktionen erproben. Hier geht es um die Erfahrung der Interaktion und nicht mehr um das Vorführen von Performances (vgl. Ascott 2007: 122). Zugleich haben diese Installationen einen performativen Duktus, da die Handelnden beim Interagieren beobachtet werden (vgl. Büscher 2001). In den 1990er-Jahren bestand ein regelrechter Hype auf solche interaktiven Installationen.

Von Interesse ist nun auch hier, welches Verhältnis von Algorithmen und Performance in den interaktiven Installationen hergestellt wurde. Dies lässt sich exemplarisch am Very Nervous System von David Rokeby skizzieren, der als einer der Pioniere interaktiver Medienkunst gilt und eine eigene Software (softVNS, 1999) für entsprechende Arbeiten entwickelte (Rokeby 2001). Ein Beitrag interaktiver Installationen besteht Rokeby zufolge zunächst darin, die Interagierenden in der technischen Umwelt zu situieren. David Rokeby schreibt: »The music of the Very Nervous System installations is not so much in the sounds that you hear, but in the interplay of resonances that you feel as you experience the work with your body.«23

Diese Situiertheit sei Grundlage dafür, dass im Wechselspiel von Aktionen und Reaktionen eine »response-ability« (Leeker 2001: 230), das heißt eine Verantwortlichkeit für die sozio-technischen Umwelten entstehe. Dabei wird mit der Installation ein Beziehungsmuster von Mensch und Maschine unterlaufen, in dem bei ersterem der Eindruck entstehen könne, die Kontrolle zu haben. Denn eine Wiederholung eines bestimmten Sounds sei, wie Rokeby betont, nicht möglich, da jede wiederholte Bewegung eine andere sei und somit ein anderer Soundtrack ausgelöst und gestaltet werde (vgl. Rokeby 2001: 50–77). Damit werden die menschlichen Agierenden bezogen auf ihre Handlungsmacht enttäuscht und Vorstellungen von Intentionalität torpediert. Eine auf ein Subjekt bezogene Konstitution von Handeln wird abgelöst durch das Sein in der Interaktion mit der technischen Umwelt. Die Interagierenden lernen algorithmisch gesteuerte Maschinen intuitiv und im Performen zu ›verstehen‹ und sich ihnen mit ihren eigenen Handlungsweisen sensibel und gleichsam frohgemut anzupassen. Bezogen darauf, welche Kompetenzen im Umgang mit den kooperativen Systemen in der Arbeitswelt nötig sind, erlernt man mithin in interaktiven Installationen, mit Maschinen ein soziales System zu bilden und sich selbst dabei zurückzunehmen. Gerade am Very Nervous System wird zudem die Faszination am Beseelten aus den Performances der 1960er-Jahre fortgeführt, wenn das Erklingen des Sounds des Raumes im Diskurs der »responseability« als Medium einer erweiterten und als positiv bewerteten technohumanen Seinsweise lanciert wird. Damit verbindet diese Installation die Diskurse zu Kooperation und Interaktion mit denen des ubiquitären Computing.

Die These ist nun, dass mit diesen Installationen unterschiedliche Muster der Mensch-Maschine-Interaktion entworfen und erprobt werden, die dazu dienen, die reibungslose Arbeit mit einem Computer zu schulen und in diesem Framework Verantwortung zu übernehmen.24 Entscheidend dabei ist, dass die menschlichen Agierenden die Manifestationen des Computers auf sich beziehen und zudem etwaig entstehende Lücken in der sogenannten Interaktion durch Imagination und Auto-S(t)imulation25 schließen. Rich Gold bringt auf den Punkt, was geschieht:

Interactivity exploits one of the mis-wirings of our minds: if something moves and reacts based on invisible forces (like the calculations of a small computer chip) we think it is alive. Our economy is now based on this mis-wiring.26

Arbeitsplatz-Interaktivität und künstlerische Interaktivität

Während in der algorithmisch gesteuerten Arbeitswelt kooperative Handlungsagenturen von Mensch und Maschine erzeugt werden sollten, geht es in den interaktiven Installationen um eine beobachtete Intimität in der Interaktion mit Algorithmen. Diese ist jedoch hochgradig metaphorisch, denn der menschliche Agierende ist nur als Datengeber von Interesse, nicht als Individuum, die Manifestationen der Geräte könnten schließlich auch durch andere Trigger ausgelöst werden. Damit aber dürften diese Performances mit Algorithmen zu einer Selbsttäuschung beigetragen haben, die dort glaubt, im emphatischen Sinne interagieren zu können (im Sinne von Rokebys »response-ability«), wo doch nur Vorgefertigtes abgerufen und modifiziert wird. Durch emotionale und affektive Bindungen helfen die künstlerischen Projekte dabei, Lücken in der Interaktion mit Maschinen zu schließen oder über diese hinwegzutäuschen. Solche interaktiven Performances mit Algorithmen basieren mithin auf Illusionen, Auto-S(t)imulationen und Verdeckungen. Signifikant dafür ist die sogenannte Echtzeit der Interaktionen, die ob der technischen Operationen allerdings immer schon zu spät ist, da die in der techno-humanen Interaktion nötigen Übersetzungen innerhalb des Prozessierens von Information Zeit erfordern. Die Interaktionen erscheinen gleichwohl als gleichzeitig und damit unmittelbar, weil die Illusion erzeugt wird, man hätte es mit einem sozio-technischen Handlungsensemble zu tun.

Von besonderem Interesse ist nun die doppelte Anordnung von Erfahren und Anschauen, das heißt von selbst Erleben und Betrachten von Erlebenden, die im Setting interaktiver Installationen hergestellt wird. Mit der Situiertheit von Algorithmen verlieren Theater bzw. Performance, die mit Technologie umgehen, als strikte Trennung von Handelnden und Schauenden für eine Weile an Wichtigkeit. In den Fokus rückt vielmehr reales Handeln, das in interaktiven Installationen zudem neu formiert wird.27 Diese dürfte aus einer Zeit heraus zu verstehen sein, in der in der Arbeitswelt auf vermeintlich menschlichere Systeme umgestellt wurde und Algorithmen sich zugleich zu einer technischen Umwelt entwickelten. Diese Umstellung musste handelnd vollzogen und zugleich betrachtet werden, was die doppelte Anordnung der interaktiven Installationen ermöglichte und forcierte. Im Schauen auf die in ›Echtzeit‹ in den Installationen Interagierenden ließen sich Ängste vor der Begegnung mit den neuen Maschinen abbauen. Man konnte sich tastend an die seltsame neue, immaterielle Materialität antwortender Computer und technischer Umwelten heranwagen. Performance und Theater mit Algorithmen wanderten in den 1980er-/1990er-Jahren insofern in die Installation aus, um Handlung selbst zu einer paradoxen, performativ-theatralen Inszenierung zu verwandeln.

Erst dieser Kombination von einer zielgerichteten Interaktivität am Arbeitsplatz mit einer sinnlichen Interaktivität in künstlerischen Interaktionen dürfte es gelingen, ersterer den nötigen performativ-spielerischen Charme zu verleihen. Effekt ist ein Verdecken, Illusionieren und Metaphorisieren von Algorithmen. Während sie in den 9 Evenings umgedeutet wurden, wurden sie hier mit großem Aufwand verzaubert, beseelt und schöngemacht, um sie letztlich als Partner zu nobilitieren und ihr Desinteresse an menschlichen Agierenden zu verbergen.