Die Datenbank als mediale Praxis – Tagungsprogramm

Nohr/Wiemer/Böhme | 27.01.2011 | Zitierlink |

Die Tagung 2011 ist abgeschlossen. Die folgenden Informationen dienen der Dokumentation.

Ausführliche Informationen zum inhaltlichen Rahmen der Tagung finden Sie im Tagungskonzept, alles zur Organisation der Tagung sowie den ursprünglichen CfP auf der Übersichtsseite.
.
Tag 1: 03.03., Veranstaltungsort: Haus der Wissenschaft, Raum “Veolia”
Uhrzeit Thema ReferentIn
12:00 Registrierung
13:00 Begrüßung
13:30 Fokussierung Böhme/Nohr/Wiemer
14:15 Das papierne Internet von Paul Otlet und Henri La Fontaine
Lena Christolova
15:00 Kaffeepause
15:30 Digital Humanities. Die Rolle der Datenbank in den Geisteswissenschaften
Theo Röhle
16:15 Zwischen Mimesis und Poiesis – Datenbanken als Taxonomie der Welt
Harald Hillgärtner
17:00 Kaffeepause
17:30 Datenbanken als Spielräume Robin Krause
18:30 Keynote: Datenbanken als Zitadellen im Zentrum des Web 2.0 Martin Warnke
20:15 Abendessen im Restaurant “La Cosa”
.
Tag 2: 04.03., Veranstaltungsort: Haus der Wissenschaft, Raum “Veolia”
Uhrzeit Thema ReferentIn
09:15 Begrüßung und Fokussierung Böhme/Nohr/Wiemer
09:30 Eugenische Daten
Uwe Wippich
10:15 Biomotionlab-Walker – Datenbank und Gangmuster
Irina Kaldrack
11:00 Kaffeepause
11:30 Informationspotentiale: Vom Kommunikationsmodell der Datenbank zur ANSI/X3/SPARC-Architektur
Marcus Burkhardt
12:15 Die Datenbank-Ästhetik von Computerspielräumen
Christian Huberts
13:00 Mittagspause
14:30 Engführung Böhme/Nohr/Wiemer
15:15 Die Visualisierung der Datenbank – Geo-Informationssysteme im Strategiespiel
Gunnar Sandkühler
16:00 Kaffeepause
16:30 Die Datenbank als Wunderkammer: Über Bodyscanner, Risikomanagement und Sammeleifer
Jutta Weber
17:15 No Risk No Fun – Risiko und Sicherheit als datenbankgenerierte Elemente im Computerspiel
Julius Othmer und Andreas Weich
20:00 Abendprogramm: Flirten, lästern, tratschen – und Alles wird protokolliert padeluun (FoeBuD e.V.)
.
Tag 3: 05.03., Veranstaltungsort: Haus der Wissenschaft, Raum “Veolia”
Uhrzeit Thema ReferentIn
09:15 Begrüßung und Fokussierung Böhme/Nohr/Wiemer
09:30 ‘Hulu-ism’ oder implizite Nutzer televisueller Datenbanken
Ralf Adelmann
10:15 Database Cinema? Zum Verhältnis von Datenbank und Film
Florian Krautkrämer
11:00 Kaffeepause
11:30 Von fiktiven Enzyklopädien und realen Datenbanken – die Ästhetik von Fan-Wikis
Felix Raczkowski
12:15 ‘Prüfen’ und ‘Bewerten’ – Redaktionelle Medien als Gatekeeper der Datenbank
Tobias Conradi
13:00 Projektfokussierung und Zusammenführung Böhme/Nohr/Wiemer
14:00 Ende der Tagung

.

Vorträge

Lena Christolova: Das papierne Internet von Paul Otlet und Henri La Fontaine

An der Schwelle zum 20. Jahrhundert starten zwei belgische Rechtsanwälte, Paul Otlet (1868-1944) und Henri La Fontaine (1854-1943), ein enzyklopädisches Projekt, dessen Ziel darin besteht, ein Repetitorium alles Wissens zu erstellen. Aus dem Répertoire Bibliographique Universel sollte eine internationale Organisation, ein Weltzentrum des Wissens hervorgehen, das 1895 in Brüssel durch das Institut International de Bibliographie institutionalisiert wird und vorläufig in Brüssel im Palais Mondial, auch Mundaneum genannt, untergebracht wird. Nach seiner Schließung 1934 wird ein Teil der Datenbanken nach Mons gebracht, wo sie heute noch im Museum des Mundaneums zu sehen sind. Das sind riesige Katalogkisten mit handschriftlich gefertigten Karteikarten (etwa 15 Millionen), erstellt nach der Dezimalklassifikation von Melvil Dewey (1876), die La Fontaine und Otlet zwischen 1904 und 1907 zu einer Universellen Dezimalklassifikation (UDK) erweitern, die bis dato die meist gebräuchlichste in dem Bibliothekswesen ist.

Zur Frage der rationellen Organisation der Datenbanken nach dem Modell des Bibliothekswesens gesellte sich schnell das Problem der Rolle und Einbindung von damals neuen Medien wie Film, Radio und Telegrafie. Mikroverfilmung und ein Datenaustausch über Telefon- und Funkverbindungen werden anvisiert und teilweise im Rahmen des Projekts realisiert. Neben mit elektrischen Motoren angetriebenen Classeurs, die Dokumente finden und aussortieren sollten , waren auch frei verfügbare, mit dem heutigen Desktop vergleichbare, Oberflächen angedacht, welche Daten aus einem international vernetzten Bestand aus Mikrofilmen per Telekommunikation abrufen und zeigen sollten. Maschinen, die nach dem Vorbild von Holleriths Lochkarten funktionierten, sollten miteinander verbunden werden, sodass dadurch die Möglichkeit der Entstehung eines mechanisch verlinkten kollektiven „Gehirns“ (cerveau mécanique et collectif) gegeben sein sollte.

In meinem Vortrag möchte ich den Möglichkeiten der Organisation von Wissen im Répertoire Bibliographique Universel von Paul Otlet und Henri La Fontaine nachgehen, die unter dem Begriff „Dokumentation“ ein erweitertes Konzept des Datensammelns und Archivierens entwickeln, das durch die damals neuen Medien Film, Radio und Telegrafie sich zu einem Netzwerk der Kommunikation, der Kooperation und des wissenschaftlichen Austausches (Réseau de communication, de coopération et d’échanges“)entwickeln sollte und aus heutiger Sicht als „papiernes Internet“ bezeichnet werden kann.

» zurück zur Programmübersicht

Theo Röhle: Digital Humanities. Die Rolle der Datenbank in den Geisteswissenschaften

Im Dezember 2010 präsentierte Google den „Ngram Viewer“, ein Visualisierungstool, mit dem sich Begriffshäufigkeiten im gesamten Bestand der für Google Books eingescannten Bücher darstellen lassen. Die mediale Aufmerksamkeit, die dieser neue Dienst erntete, ist symptomatisch für die Faszination, die Googles Möglichkeiten zur Speicherung und Verarbeitung immenser Datenmengen hervorrufen. Unter dem Motto „What can science learn from Google?“ verabschiedete Wired-Herausgeber Chris Anderson bereits vor einigen Jahren Modellbildungen in den Naturwissenschaften und läutete ein neues Zeitalter induktiver Data Mining-Verfahren ein. Ein ähnlicher Trend zeichnet sich nun in den Geisteswissenschaften ab: In expliziter Assoziation zu „Google Analytics“ wertet Lev Manovich im Projekt „Cultural Analytics“ Texte, Filme und Bilder statistisch aus und visualisiert die Ergebnisse auf Displaygrößen, die zuvor Klimasimulationen vorbehalten waren. Programmatisch wird die Abkehr von weitestgehend hermeneutischen Zugängen und die Hinwendung zum „distant reading“ (Franco Moretti), der quantitativen Analyse umfangreicher mulitmedialer Datenbestände, eingefordert. Im populären und wissenschaftlichen Diskurs über diese neuen Analysewerkzeuge werden radikale Umbruchsszenarien entworfen. Selbst renommierte WissenschaftlerInnen sprechen von einem „post-theoretical age“ (Tom Scheinfeldt) – einem Bedeutungsverlust theoretischer Fragestellungen, der mit dem Fortschreiten der technischen Auswertungsmöglichkeiten einhergehe. Die Aufnahme der Datenbank in das Methodenarsenal der Geisteswissenschaften erscheint dabei oftmals als Erfindung der jüngsten Generation technophiler WissenschaftlerInnen. Bei genauerer Betrachtung wird jedoch deutlich, dass erste Schritte in Richtung der „Digital Humanities“ bzw. des „Humanities Computing“ bereits seit den 1950er Jahren unternommen wurden und das Feld seitdem eine Reihe interessanter Entwicklungen durchlaufen hat. Der Beitrag geht auf spezifische Verfahren der Relationierung und Darstellung von Daten in diesem Bereich ein und erörtert, mit welchen Vorstellungen von Wissensordnungen diese einhergehen. Es wird zu diskutieren sein, ob sich eine allgemein veränderte Sicht auf die Rolle der Datenbank – als Motor von Spiel und Experiment statt als Technologie der Planung, Kontrolle und „mechanischen Objektivität“ (Lorraine Daston/Peter Galison) – auch in diesem Bereich beobachten lässt und eine Erklärung für die aktuelle Revitalisierung digitaler Methoden liefern kann.

» zurück zur Programmübersicht

Harald Hillgärtner: Zwischen Mimesis und Poiesis – Datenbanken als Taxonomie der Welt

„Oh, che dolce cosa è questa banca dati!”

In der Monografie „The Language of New Media” versucht Lev Manovich, Ernst Cassirers Begriff der symbolischen Form für eine Gegenwartsdiagnose fruchtbar werden zu lassen und diagnostiziert für die Gegenwartskultur einen „Datenbank-Komplex” (durchaus im psycho- analytischen Sinne). Als „symbolische Form” nun stünde die Datenbank für eine neues Weltverständnis: Sie verleiht ihm einen fassbaren Ausdruck und beschreibt gleichzeitig den Modus, wie durch dieses ‚Paradigma‘ hindurch die Welt erschlossen wird. Tatsächlich scheint diese Diagnose mit einem (relativ ‚oberflächlichen‘) Verständnis der ‚Postmoderne‘ übereinzustimmen, in der der vorherrschende Modus kultureller Produktion in der Wiederverwendung von bereits Vorhandenem bestehe. Interessanterweise findet sich in Vilém Flussers Essay Ins Universum der technischen Bilder ein ähnlicher Gedanke. Hier sind es die technischen Bilder, die die vorhandene ‚Geschichte‘ verschlingen und damit eine gigantische Datenbank speisen, wobei die technischen Bilder in einer Feedback-Schleife zwischen ihnen und ihren Konsumenten zu einer ‚Wiederkehr des Ewiggleichen‘ und damit zur maximalen Entropie tendieren. Alles komme daher darauf an, diese ‚Datenbank‘ (die von Flusser jedoch nicht so benannt wird) für eine Praxis zu öffnen, durch aus den vorhandenen Informationen immer neue, nie dagewesene Informationen synthetisiert werden. Kurz: Es kommt darauf an, aus dem „Verschlingen” (Mimesis) ein „Synthetisieren” (Poiesis) werden zu lassen.

Unter dem Stichwort der ‚Neogeographie‘ versammeln sich inzwischen schon eine ganze Reihe von Projekten, in denen Nutzerinnen und Nutzer geographische Informationen sammeln und verschiedene Datenbanken damit speisen. Für War-Driving unerlässlich ist etwa eines der ältesten Projekte unter dem Titel WiGLE, bei dem eine Kartographie privater und öffentlicher, verschlüsselter und unverschlüsselter WLAN-Hotspots entsteht, eine Daten- bank, die inzwischen über 21 Millionen solcher Netzwerke enthält. Die umfangreichste Neogeographie-Seite ist, und dies in zunehmender Konkurrenz zur Google-Produktpalette Maps, Earth und Street View, das internationale Open Street Map-Projekt, deren Datenbank ausschließlich aus mit Tags versehenen Geodaten in Form alpha-numerischer Werte besteht. Es handelt sich gewissermaßen um eine ‚textuelle‘, um eine ‚ASCII‘-Version der Welt. Unterschiedliche ‚Renderer‘ stehen zur Verfügung, um hieraus nutzbare Karten ent- stehen zu lassen. Dieses flexible Konzept bietet den Vorteil, dass die Nutzerinnen und Nutzer die Möglichkeit haben, die zur Verfügung stehenden Geoinformationen auf Basis eines offenen XML-Schemas um weitere, selbst definierte Tags zu erweitern und darüber Karten etwa der Club-Mate-Abdeckung der BRD zu erstellen (was in diesem Fall der CCC-Sektion in Mainz zu verdanken ist). Hierüber entstehen die unterschiedlichsten ‚Layer‘, die doch nichts anderes als Datenbankfelder sind und eine je unterschiedliche ‚Sichtweise‘ der Welt repräsentieren. Idee ist, dass dieses Modell einen Kontrapunkt zu den in Kartenwerken üblichen hegemonialen Repräsentationen wie etwa den Grenzen der Nationalstaaten, der Verteilung ökonomischer Ressourcen, der Bodenschätze etc. ermöglicht.

Dennoch sind auch solche Club-Mate-Tags im Grunde reaktiv, indem sie lediglich verzeichnen, was ‚ist‘. Insofern wird es zunächst um die Bestandsaufnahme einer medialen (Datenbank-)Praxis gehen, dies jedoch bereits im Vergleich zu korrespondierenden Phänomenen etwa in Google-Earth, in dem über eine definierte Schnittstelle von den Nutzerinnen und Nutzern 3D-Gebäude mitsamt passender Texturen erstellt werden oder durch KML-Dateien die Fundstellen seltsamer Geo-Formationen markiert werden können. Es sind auch dies Operationen auf einem Datenbestand, die aber einen anderen, einen weniger ‚poietischen‘ Status haben. Im Kern steht daher das im Arbeitstitel angekündigte Spannungsfeld zwischen Abbildung und Hervorbringung, untersucht anhand neogeographischer Datenbanken.

» zurück zur Programmübersicht

Robin Krause: Datenbanken als Spielräume

Die Ubiquität von Datenbanken in der heutigen Informationsgesellschaft und der tägliche Umgang mit ihnen lässt sich längst an zahlreichen Beispielen als ein fester Bestandteil unserer Alltagskultur beschreiben. Nichtsdestotrotz klingt es visionär, wenn die Evangelisten der “Augmented Reality” vom Internet der Dinge und den Ausdehnungen des virtuellen in den realen Raum sprechen. Dass wir mit diesen Phänomenen bereits ganz alltäglich umgehen, ist auf vielen Ebenen so selbstverständlich geworden, dass wir die vermeintlich erweiterte Realität gar nicht mehr als solche wahrnehmen. Wir sind umgeben von Datenbanken, mit denen wir tagtäglich operieren und die wir fleißig mit Inhalten füttern. Sie sind ein Teil des öffentlichen Raums oder dieser ist in verschiedenen Formaten wie You- tube und Google Street View ein Teil von ihnen geworden. Der Vortrag will darlegen, wie die digitale Repräsen- tation öffentlicher Räume in Datenbanken und die Präsenz von Datenbanken im öffentlichen Raum dazu führen, dass die Räume unseres Alltags spielbar werden. Er will aufzeigen, wie das Relationsgefüge des Raums sowie die Parameter seiner Datenbank durch das Spiel sichtbar werden und wie diese in ihm neu organisiert werden können. Es gilt zu klären, wo und wie durch das Spielen mit Computern in den Räumen unserer Alltags- oder Arbeitskultur neue Spielräume entstehen können und wie diese den Umgang mit den Datenbanken, die ihnen als Grundlage dienen, verändern. Mit dem Begriff ‚Gamespace‘ bietet McKenzie Wark ein fruchtbares Konzept an, um beschreibbar zu machen, wie die Verinnerlichung der Logik und Strukturen des Computerspiels die Wahrneh- mung realer Orte sowie ihrer Datenbanken als Spiel ermöglicht.1 Mit einem Fokus auf Game-Design untersucht Jane Evelyn McGonigal Formen des „Ubiquitous Play“, das den Alltag und seine Orte mit spielerischen Struk- turen durchzieht bzw. diese dort, wo sie zum Beispiel in der Form von Datenbanken bereits vorhanden sind, sichtbar werden lässt.2 Eine mögliche Antwort auf die Allgegenwart von Datenbanken als Machttechnologien wäre demnach das durch ihr ludisches Moment induzierte Potential für Spiel. Die im Rahmen des Vortrags zu vol- lziehende Suchbewegung soll davon ausgehend an beispielhaften Datenbanken darlegen, wie sich das Spiel mit ihnen in konkrete Orte unseres Alltags einschreibt und wie der spielerische Zugriff sowohl die Räume als auch die mit ihnen verbundenen Datenbanken verändert. Die vorgestellten Beispiele und Überlegungen sind Teil des Forschungsprojekts »Topografie von Spielräumen: Untersuchungen zur kulturellen Verortung von Computerspielen«, an dem der Referent derzeit gemeinsam mit Prof. Dr. Mathias Mertens und Dipl.-Kult. Christian Huberts arbeitet.


1 Für McKenzie Wark ermöglicht die Naturalisierung der Logiken des Computerspiels durch den Spieler, kulturel- le und gesellschaftliche Strukturen als Spiel wahrzunehmen und zu kritisieren: „So this is the world as it appears to the gamer: a matrix of endlessly varying games – a gamespace – all reducible to the same principles, all producing the same kind of subject who belongs to the gamespace in the same way as a gamer to a game“ (Wark 2007, Abschn. 15).

2 Vgl. McGonigal, Jane (2007) Ubiquitous Gaming. A Vision for the Future of Enchanted Spaces. In: von Borries, Friedrich/Walz, Steffen P./ Böttger, Matthias (Hrsg.) Space Time Play. Computer Games, Architecture And Urbanism: The Next Level. Basel u.a.: Birkhäuser Verlag. S.233- 237

» zurück zur Programmübersicht

Uwe Wippich: Eugenische Daten

Die Idee einer genetischen Identität und damit verbunden einer genetisch verbesserten Bevölkerung erfordert mediale Strategien der Datenerfassung und Datenverarbeitung, in die Phantasmen der Kontrolle und der Steuerung des Lebens eingeschrieben werden. Genetische Merkmale werden verwertet um neu kombiniert oder „abgeschnitten“ zu werden und so Bevölkerungen zu optimieren. Der Vortrag befasst sich mit einem historischen Versuch derartiger genetischer Datenverarbeitungpraktiken in den Vereinigten Staaten. Unter der Leitung von Charles B. Davenport ist das 1910 gegründete und von der Carnegie-­‐Gesellschaft geförderte »Eugenics Records Office« (ERO) eine zentrale Institution des amerikanischen »Eugenic Movement« im ersten Drittel des 20. Jahrhunderts. Mehr als nur eine Sammelstelle genetischer Merkmale werden im ERO Vergangenheit, Gegenwart und Zukunft der amerikanischen Bevölkerung in prozessuale Faktoren zerlegt, durchmustert und operationalisiert. Das ERO prozessiert dazu stabile, invariante Elemente von vorgeblich genetischen Merkmalen („Traits“) und macht diese zu einem Agens der Bevölkerungsoptimierung. In einem »Trait-­‐Book« werden diskrete genetische Merkmale, durch Zeichencodes ergänzt, für den Einsatz in „Family-­‐Records“ und „charts“ aufbereitet und in ein numerales Klassifikationssystem überführt. Ein „taste for science“ erhält den code 423265, „love for rythm“ den code 42116, Nasenbluten 718, Masturbation, markiert als „self-­‐abuse,“ 9413, usw.. Auch der stellvertretende US-­‐ Landwirtschaftsminister Hays entwirft 1912 unter dem Stichwort „constructive eugenics“ eine Szenerie staatlich eugenischer Datenpraxis. Er schlägt für jeden Menschen auf der Welt eine Nummer als Namen vor, in die, nach Hays, mit geringen Kosten die Nummern-­‐Namen von Eltern und Kindern integriert werden könnten, ebenso Geburts-­‐ und Sterbedaten und Orte, um die Codierung einer linearen Genealogie zu erhalten. Diese Codes könnten dann, um genetische Ratings ergänzt, als personalisierte Werte austauschbar und kombinierbar sein. Auch in der biopolitischen Perspektive des ERO liegt die Wahrheit des Lebens im medialen Code, in den Daten und deren grafischen Repräsentationen, in den Markierungen und ihren Evidenzbeziehungen. Doch um das Leben in den Operatoren und Prozessoren des Rechen(schafts)zentrums (Rottenburg/Latour) ERO in seinen Zugriffen, Bussystemen und Sensoren fassbar zu machen, sind Algorithmen und Standardisierungen zu entwickeln, die das Datenmaterial, dessen Ein-­‐ und Ausgabeprozeduren sowie die Ordnungssysteme der Anforderung, Analyse und Aufbewahrung betreffen. So werden Suchräume definiert und Methoden entwickelt, diese Suchräume zu erschließen. Dazu werden mobile und eugenisch gebildete Agenten ausgesandt, welche die Daten sammeln und den Datenstrom gewährleisten. Zwischen 1910 und 1924 wurden 258 „Field-­‐Worker“ vom ERO in Summer-­‐Schools zu „human research machines“ (Amy Sue Bix) ausgebildet und trainiert um eine qualitative Bewertung der Bevölkerung zu erarbeiten, 219 davon Frauen. Deren Arbeit als Suchalgorithmus im Außendienst wurde engmaschig kontrolliert: Jeden Morgen sollte eine Postkarte an das ERO geschickt werden, alle drei Tage ein Report über die Arbeitsfortschritte. Auf der Grundlage der gesammelten Daten und in der Selbstgewissheit politischer Bedeutung produziert das ERO Rechenschaft über Maßnahmen positiver wie negativer Eugenik, entwirft Heiratsregelungen und berechnet Wunschfamiliengrößen ebenso wie „notwendige“ Sterilisationen, empfiehlt Immigrationsbeschränkungen und verwertet dazu IQ-­‐Tests und physische Durchmusterungen. Doch letztlich fällt das ERO der eigenen Medialität zum Opfer. Denn das Leben produziert mehr Daten, als das ERO als Messeinrichtung für die Lebensverbesserung prozessieren kann.

» zurück zur Programmübersicht

Irina Kaldrack: Biomotionlab-Walker – Datenbank und Gangmuster

In meinem Beitrag stelle ich den Biomotionlab-Walker vor. Anhand des Beispiels diskutiere ich, welche Form von Wissen in dieser spezifischen medialen Praxis einer Datenbank erzeugt und welche Position die Nutzer darin zugewiesen bekommen.

Der Biomotionlab-Walker (BMLwalker) ist eine Art mathematisch-empirisch- mediales Framework, um den menschlichen Gang und die Wahrnehmung des menschlichen Gehens zu erforschen. Beim BMLwalker wirken drei Komponen- ten zusammen: In der zugrunde liegenden Datenbank sind Motion-Capturing- Daten menschlicher Gänge gespeichert. Auf Grundlage dieser Daten berechnet die mathematischen Formalisierung Gangmuster und konstruiert neue, so niemals gemessene Gangdarstellungen. Auf verschiedenen Interfaces werden die- se Gangmuster dargestellt. Benutzer können sie manipulieren (www.biomotionlab.ca/Demos/BMLwalker.html) oder beurteilen (http://www.biomotionlab.ca/Demos/BMLrating.html).

Ich diskutiere anhand des BMLwalker eine grundsätzliche Verschiebung in der zeitgenössischen Ordnung des Wissens: In dieser Form datenbankgestützter medialen Praktiken werden Messung und Empirie mit Verrechnung, Konstruktion und Beurteilung verbunden, dieses Zusammenwirken allerdings nicht transparent gemacht. Im BMLwalker werden weniger Modelle und Theorien der Funktionsweisen des menschlichen Gehens erprobt, sondern kohärente Darstellungen oder Muster erzeugt. Deren Beurteilung durch die Benutzer schreibt wiederum kulturelle (Geschlechter)Stereotype in die Datenbank ein. Darstellung und Beurteilung statt Theorie und Erklärung – welche Position nimmt in dieser Form des Wissens „der Mensch“ ein?

» zurück zur Programmübersicht

Marcus Burkhardt: Informationspotentiale: Vom Kommunikationsmodell der Datenbank zur ANSI/X3/SPARC-Architektur

Digitale Datenbanktechnologien dienen der Versammlung, der Speicherung, dem Zugriff respektive der Abfrage und der Präsentation von Informationen. Charakteristisch sind die den digitalen Datenverarbeitungstechnologien inhärenten bzw. aus diesen resultierenden „Rekombinationsofferten“ (Gugerli). In dieser Hinsicht bildet die Datenbank – verstanden als konkrete Sammlung von Informationen – ein Reservoir, einen Fundus, eine Ressource zur Befriedigung künftiger Informationsbedürfnisse. Sie ist ein Informationspotential, welches einerseits auf den abgelegten Informationen basiert, die unsichtbar abgespeichert durch Suchanfragen selektiert und auf der Benutzeroberfläche zugänglich gemacht werden können. Andererseits aber geht das Informationspotential nicht in den abgespeicherten Informationen auf bzw. kann nicht gänzlich auf diese reduziert werden. Die findige Kombination und Rekombination vorhandener Informationen birgt die Möglichkeit, neue Informationen zu erhalten. Digitale Datenbanken können unter Umständen etwas wissen lassen, was so noch nicht gewusst, was allenfalls latent und rein virtuell als potentielle Information vorhanden war. Deutlich wird dies bei dem heute virulenten Phänomen des Mashups, welches in der Kultur digital-vernetzen Wissens im Kontext des Semantic Web und Linked Open Data zunehmend an Bedeutung gewinnt. Der Vortrag zielt darauf ab die medienhistorischen und technologischen Voraussetzungen freizulegen, vor deren Hintergrund sich die in Datenbanken angelegten Informationspotentiale realisieren. Ausgehend von der doppelten Vorgeschichte der Datenbanktechnologien im Managementdiskurs und dem Information Retrieval wird das Entstehen eines Kommunikationsmodells der Datenbank (von Claude E. Shannon über Calvin N. Mooers zu Charles Bachman) diskutiert, welches in den 1970er Jahren in der ANSI/X3/SPRAC-Datenbankarchitektur gemündet ist. Mehr noch als in dem relationalen Datenbankmodell Codds, gründen die heutigen Datenbanktechnologien auf der grundlegenden Drei-Ebenen-Architektur der Informationsverarbeitung, die im ANSI/X3/SPARC-Modell vorgeschlagen wurden. Durch die propagierte Entkopplung der internen Ebene der Signalverarbeitung und der externen Nutzerebene, d.h. von Ort und Ordnung(en) der Sammlung, wird Kombinierbarkeit und Rekombinierbarkeit von Informationen zu neuem Wissen angestrebt; eine Vision, die auch im Entwurf des Semantic Web wiederkehrt. Doch das damit einhergehende Versprechen einer Vervielfältigung von Wissensordnungen, wird nur durch das Einziehen einer dritten konzeptuellen Ebene erreicht, die zwischen den Operationen des Nutzers und den Operationen der Computertechnik vermittelt. Dabei wird ein Weltmodell in die Datenbank eingeschrieben, welches vermeintlich neutral bzw. objektiv vorherbestimmt, was wie in die Datenbank eingeschrieben werden kann und damit auch, was mit der Datenbank letztlich gewusst werden kann. Eine (medien-) kritische Perspektive auf Datenbanken kann nur entwickeln, wer dies hinterfragt. Dabei gilt es medientheoretisch zu bedenken, dass die konzeptuelle Ebene des ANSI/X3/SPARC-Modells stets zwischen technischer Einschreibung respektive algorithmischer Informationsverarbeitung einerseits und dem Informationsbedürfnis der Nutzer andererseits schwebt, d.h. weder allein auf die Technik noch allein auf den Sinn abzielt, sondern vermittelnd zwischen beidem ein Drittes entstehen lässt, eine besondere Technik des Sinns.

» zurück zur Programmübersicht

Christian Huberts: Die Datenbank-Ästhetik von Computerspielräumen

Computerspiele bedienen sich umfangreicher Datenbanken von Grafiken, Polygon-Modellen, Texten, Geräuschen, Videos und Animationen. Sie unterscheiden unter anderem darin mit welchen räumlichen Interface-Metaphern sie die Einträge ihrer Datenbank anordnen, navigierbar und spielbar machen. Der geplante Vortrag möchte eine erste Sammlung von Datenbank-Ästhetiken des Computerspiels anstellen und anhand beispielhafter Raum-Modelle populärer Computerspiele – beispielsweise Straßen- und Tunnelsysteme, Gebäudekomplexe und offene Landschaften – analysieren. Welche prototypischen Räume existieren im Computerspiel und wie wirkt sich ihre Logik auf die Ästhetik der Datenbank aus? Ein ‚Open World‘-Szenario bedingt andere Formen des Sortierens, Sammelns, Suchens und Spielens als eine ‚Tunnel‘-Levelarchitektur. Die Räume des Computerspiels und ihre topografischen Eigenschaften beeinflussen unmittelbar ob und wie wir in und mit der Datenbank des Spiels agieren können. Gleichzeitig sind die Räume des Computerspiels selbst Teil der Datenbank und bringen die kulturelle Praxis ihrer realen Vorbilder in das Spiel mit ein. Der Vortrag basiert auf Ergebnissen der Publikation des Referenten »Raumtemperatur: Marshall McLuhans Kategorien ‚heiß‘ und ‚kalt‘ im Computerspiel« 1. Darüber hinaus soll Henry Jenkins Ansatz der „spatial story“2 als Grundlage zur Entwicklung eines Konzepts der ‚spatial database‘ in Computerspielen zur Anwendung kommen. Von Interesse für die Datenbank-Ästhetik von Computerspielen ist außerdem Lev Manovichs Ansatz der „cultural interfaces“3, der auf Computerspielräume hin konkretisiert werden soll. Der Vortrag ist zudem ein Auftakt für das Forschungsprojekt »Topografie von Spielräumen: Untersuchungen zur kulturellen Verortung von Computerspielen« in Zusammenarbeit mit Prof. Mathias Mertens und Dipl.-Kult. Robin Krause.

1 Vgl. Huberts, Christian (2010) Raumtemperatur. Marshall McLuhans Kategorien »heiß« und »kalt« im Computerspiel. Göttingen: Blumenkamp.

2 Vgl. Jenkins, Henry (2006) Game Design as Narrative Architecture. In: Salen, Katie/Zimmerman, Eric (Hrsg.) The Game Design Reader: A Rules of Play Anthology. Cambridge: MIT Press. S. 670-689.

3 Vgl. Manovich, Lev (2001) The Language of New Media. Cambridge, MA; London: The MIT Press.

» zurück zur Programmübersicht

Gunnar Sandkühler: Die Visualisierung der Datenbank – Geo-Informationssysteme im Strategiespiel

Karten stellen eine Form visueller Kommunikation von Daten und Informationen dar, die über kartographische Konventionen eine hohe Informationsdichte für den Nutzer rasch erfassbar machen.1 Diese Funktion erfüllen sie auch als graphische Übersichtsdarstellungen der aktuellen Handlungsumgebung im Computerspiel. Die Spannweite der in den Spielkarten gegebenen Informationen kann von rein räumlicher oder geopolitischer Orientierung für den Spieler („Establishing traditional boundaries für visual reference.“),2 über rudimentäre Geländedetails3 bis hin zu differenzierten, vom Spieler selbst in ihrem Informationsgehalt anpassbare thematische Karten zu Ressourcen, Verkehrswegen, Bevölkerung etc.4 reichen. Abgesehen vom erstgenannten Beispiel basieren diese Karten gerade im Strategiespiel vielfach auf Datenbanken; ein Merkmal, welches sie mit ihren „großen“ Verwandten, den Geo-Informationssystemen (GIS) der „realen“ Welt, teilen.5 Je komplexer sich das dem Spiel zu Grunde liegende Modell darstellt, desto umfangreicher sind notwendigerweise auch die im Spielgeschehen zum Einsatz kommenden GIS und damit auch die dem Spieler zur Verfügung stehenden Datenbankoperationen. Untersucht werden soll in dem Tagungsbeitrag einerseits, in welchem Verhältnis die Grundoperationen an der Datenbank (Lesen, Ändern, Hinzufügen, Löschen) zu den von der Spielmechanik vorgegebenen Rollen stehen. Dabei ist es von besonderem Interesse, nach den Vorentscheidungen zu fragen, die – sowohl in GIS im Spiel wie auch in denen der Realität – dazu führen, eine Information als strategisch wichtig zu klassifizieren, ihre Veränderbarkeit zu beschränken oder Hinzufügungen und Löschungen zuzulassen oder zu unterbinden. Ausgehend von der Annahme, dass eine überwiegende Zahl der Strategiespiele ihre Siegbedingungen letztlich an Ressourcen- und Raumbeherrschung koppeln, soll der Blick zweitens darauf gerichtet werden, in welcher Form und mit welchen Möglichkeiten die graphischen Darstellungen der Spielgeographie den Spieler beim Erreichen dieses Ziels unterstützen oder auch behindern. Ein weiterer Fokus soll auf der abschließenden Frage liegen, wie das Verhältnis zwischen der Kartographie im Strategiespiel und klassischer Kartographie der „realen“ Welt als mediale Praxis der Informationsvisualisierung zu bestimmen ist.

1 Vgl. einführend H. Asche: Auf dem Weg zum virtuellen Atlas. Stand und Perspektiven der Atlasnutzung im Medienzeitalter. In: Kartographie 2001. multidisziplinär und multimedial. Beiträge zum 50. Deutschen Kartographentag. Heidelberg 2001, S.22-32.

2 Command & Conquer: Tiberian Dawn (1995).

3 Seven Cities of Gold (1984); Eastern Front 1941 (1981).

4 Sim City (1989); Civilization IV (2005).

5 Beispielsweise basieren die Datenmodelle des Amtlichen Topographisch-Kartographischen Informationssystems (ATKIS) der BRD und die des Strategiespiels Civilization IV jeweils auf der Datenbeschreibungssprache XML.

» zurück zur Programmübersicht

Jutta Weber: Die Datenbank als Wunderkammer: Über Bodyscanner, Risikomanagement und Sammeleifer

Am 25. Dezember 2009 versuchte Umar Farouk Abdulmutallah sich an Bord eines Airbus 330 im Anfluges auf Detroit in die Luft zu sprengen. Die New York Times betont am darauffolgenden Tag, dass die mutige und geistesgegenwärtige Reaktion der Passagiere ein Disaster verhinderte – und nicht die Milliarden, die für Anti-Terrorprogramme, biometrische Überwachung und Sicherheitsforschung ausgegeben wurden (NYT, 26nd Dec. 2009). Trotz dieser Faktenlage kündigten kurz nach dem versuchten Anschlag mehrere Flughafenbetreiber – u.a. in Amsterdam, London und Kopenhagen – die Einführung von (weiteren) Bodyscannern bzw. (whole) body imaging-Systemen an. Im Herbst 2010 wurden in Deutschland die ersten Systeme probeweise am Hamburger Flughafen installiert. Ungeklärt blieb hierbei die Frage, ob die erstellten Bilder in einer Datenbank abgelegt und langfristig gespeichert werden, wie es die US-Amerikanischen Sicherheitsbehörden forderten, oder die Bilder nach dem Bodycheck sofort gelöscht werden. In meinem Beitrag möchte an Hand der Diskussion um den Nackt- bzw. Körperscanner der Frage nach dem Konnex von Technologie, Sicherheit und Datensammelwut nachgehen. Es scheint, dass im Zuge eines neuen Sicherheitsbegriffs es immer weniger um die Abwehr spezifischer Gefahren und die Verfolgung eines konkreten Tatverdachts, sondern um die präventive ‚Sicherung‘ von Sicherheit geht – interessanterweise zu einem Zeitpunkt in dem zumindest in Deutschland de facto ein Rückgang von Straftaten zu verzeichnen ist. In dieses neue Sicherheitsszenario passen Phänomene wie Sicherheitsverwahrung, das Operieren mit Vorfeldtatbeständen oder die Datenvorratsspeicherung. Aus einer biopolitischen Perspektive ist interessant, dass die Nachfrage nach Sicherheit prinzipiell unbegrenzt und nie vollständig erfüllbar ist. Damit ist auch die Idee von ausreichendem Datenmaterial eine Chimäre. Gleichzeitig wird aber die Datenbank essentiell, wenn es nicht mehr um die Abwehr konkreter Gefahren, sondern um Risikomanagement geht. Denn der Begriff des Risikos zielt nicht auf eingrenzbare Handlungen und konfligierende Parteien, sondern auf die Idee von allgemeinen, permanenten und systemischen Zufällen wie z.B. Pandemien, Terrorismus, Armut oder illegale Immmigration. Risiko ist dann eng verbunden mit der Idee der Unsicherheit, der Unvorhersehbarkeit und einem verschwommenen Bedrohungs- bzw. Feindbild. Dementsprechend basiert Risikopolitik auf Statistik, Wahrscheinlichkeiten und Risikoprofilen, die Risiko nicht eliminieren sondern den Zufall konstruieren, interpretieren und managen soll. In dieser Logik ist der Körperscanner integraler Bestandteil einer Assemblage von Überwachungstechnologien und die Datenbank ihr Herzstück. Eine zentrale weltweite oder doch wenigstens westliche Vernetzung aller Datenbanken wäre die Wunderkammer, die für alle denkbaren und undenkbaren Gefahrenszenarien Fakten, Anregungen und Lösungsvorschläge zur Verfügung stellen soll. Wäre da nicht das Rauschen, das schon den Kybernetiker Angst einjagte…

Aas, K. F. et al. (Eds.) (2009). Technologies of InSecurity. The Surveillance of Everyday Life. Oxon/New York: Routledge-Cavendish

Ammicht-Quinn, R. et al. (2009). The Ethical Dimension of Terahertz and Millimeter-Wave Imaging Technologies. In C.S. Halvorson et. al. (Eds), Global Homeland Security V and Biometric Technology for Human Identification VI (pp. 1-11). Proc. of SPIE Vol. 7306

Aradau, C. et al. (2008). Security, Technologies of Risk, and the Political: Guest Editors’ Introduction. Security Dialogue, 39(2/3), pp. 147–154

Deleuze, G. (1995). Postscript on Control Societies. In Idem: Negotiations: 1972-90 (pp. 177-182). New York: Columbia University Press.

EU Council (2010). Draft Internal Security Strategy for the European Union: “Towards a European Security Model” Febr. 2010. from http://ec.europa.eu/enterprise/newsroom/cf/document.cfm?action=display&doc_id=5923&userservice_id=1&request.id=102456 [accessed 17 November 2010]

Haggerty, K. & Ericson, R. (2000). The surveillance assemblage. In British Journal of Sociology. Vol. 51, No. 4, 605-622

Star, S.L. (1991). Power, Technology and the Phenomenology of Conventions: on Being Allergic to Onions. In: J. Law (Ed.), A Sociology of Monsters. Essays on Power, Technology and Domination (pp. 26-56). London / New York: Routledge.

Van der Ploeg, I. (2003): Biometrics and Privacy. A note on the politics of theorizing technology. In Information, Communication & Society. Vol. 6, No. 1, 85–104

Weber, J. (2011): Die kontrollierte Simulation der Unkontrollierbarkeit. Kontroll- und Wissensformen in der Technowissenschaftskultur. In: Hannelore Bublitz / Irina Kaldrack / Theo Röhle / Hartmut Winkler (Hg.): Unsichtbare Hände. Automatismen in Medien-, Technik- und Diskursgeschichte München: Fink 2011 (in Vorbereitung)

Zedner, L. (2007): Pre-crime and post-criminology“. Theoretical Criminology, 11, 261-281

» zurück zur Programmübersicht

Julius Othmer und Andreas Weich: No Risk No Fun – Risiko und Sicherheit als datenbankgenerierte Elemente im Computerspiel

Die „Semantik des Risikos“ gewinnt laut Ulrich Beck mit dem Beginn der Modernisierung, also der frühen Neuzeit, zunehmend an Bedeutung (Beck 2007, 19f.). Doch erst seit seinen Thesen zur Risikogesellschaft (Beck 1986, zur Weltrisikogesellschaft 2007) in der reflexiven Moderne rückt das Konzept des permanenten Risikos ins Zentrum des Sicherheitsdiskurses und verdrängt dabei die Vorstellung der Gefahr als bedrohliche Ausnahme (vgl. hierzu auch Aradau/Lobo-Guerrero/Van Munster 2008). Das in erster Linie statistische Wissen über vergangene vergleichbare Situationen und das kulturelle Wissen des Konzepts „Risiko“ bilden dabei in der je gegenwärtigen Situation die Grundlage für Entscheidungen über Handlungen im Hinblick auf zukünftige Situationen. Sicherheit besteht somit (ex negativo) in der Reduzierung bzw. der Bewertung von Risiken. Für die Handhabung der zugrunde liegenden Statistik und die Erstellung von Risikoprofilen und -szenarien bieten sich Datenbanken durch ihre Funktionen des Speicherns, Sortierens, Suchens und Filterns an. Datenbanken dienen somit einerseits der Berechnung und Beherrschung von Risiken, gleichzeitig können sie aber auch als Produzent und Implementierungsinstanz des Konzepts „Risiko“ betrachtet werden, da sie es erst pragmatisch denk- und darstellbar machen.

Die These des Vortrags ist, dass das Computerspiel als größtenteils datenbankbasiertes Medium Elemente dieses Sicherheits- und Risikodiskurses aufweisen muss. In einer Fallanalyse soll auf verschiedenen Ebenen untersucht werden, wie Sicherheit und Risiko in World of Warcraft eingeschrieben sind und wie sie implizit und/oder explizit verhandelt werden.

a) Strukturellen Ebene: Risiko als Game Design Element zwischen Unsicherheit und Sicherheit/Gewissheit:

  1. Wege und Steuerung durch die Datenbank
  2. Speichern und Kontrollpunkte als Sicherung in der Datenbank
  3. Hilfe durch Datenbanken

b) Interface:

  1. Visualisierung von Datenbanken im Interface zur Risikobewertung
  2. Alternative Visualisierungen von Gefahr und Risiko
  3. „Datenbanksprache“ Sprechen der Spieler über das Spiel im Chat

c) Narrativ: Bestimmt die Datenbank als symbolische Form das Narrativ (Vgl. Manovic 1999)

Die Beobachtungen der Analyse sollen dann im Anschluss an Ralf Adelmanns Vortrag „There is no correct way to use the System. Datenbanklogiken in Computerspielen“ (Adelmann 2010) und das darin beschriebene Konzept des „doppelten Subjekts“ interpretiert werden. Dabei stellt sich die Frage, wie das spielende Subjekt im Hinblick auf das durch das Spiel produzierte und gleichzeitig vom Spieler zu managende Risiko im Zusammenspiel zwischen dem imaginierten bürgerlichen, d.h. handlungsmächtigen, und dem real verstreuten und in der Datenbank aufgelösten Subjekt konzeptualisiert werden kann.

Adelmann, Ralf (2010): There is no correct way to use the System. Datenbanklogiken in Computerspielen. Unveröffentlichtes Manuskript.

Aradau, Claudia / Lobo-Guerrero, Luis / Van Munster, Rens (2008): “Security, Technologies of Risk, and the Political: Guest Editors’ Introduction.” In: Security Dialogue, Vol. 39, No 2-3, S. 147 – 154.

Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt am Main: Suhrkamp.

Beck, Ulrich (2007): Weltrisikogesellschaft. Auf der Suche nach der verlorenen Sicherheit. Frankfurt am Main: Suhrkamp.Manovic,

Lev, Manovich (1999): “Database as symbolic form.” In: Convergence, Vol. 5, No. 2, S. 80 – 99.

» zurück zur Programmübersicht

padeluun (FoeBuD e.V.): Flirten, lästern, tratschen – und Alles wird protokolliert

Nach Forderungen von CDU und CSU soll künftig nachvollziehbar werden, wer mit wem in den letzten sechs Monaten per Telefon, Handy oder E-Mail in Verbindung gestanden oder das Internet genutzt hat. Bei Handy-Telefonaten und SMS soll auch der jeweilige Standort des Benutzers festgehalten werden. Entgeltliche Anonymisierungsdienste sollen verboten werden. Zwar hat das Bundesverfassungsgericht das deutsche Gesetz zur Vorratsdatenspeicherung jüngst aufgehoben. CDU und CSU wollen jedoch, dass so bald wie möglich ein neues Gesetz zur Vorratsdatenspeicherung beschlossen wird, und führen aktuell entsprechende Verhandlungen mit der FDP.

Mit Hilfe der über die gesamte Bevölkerung gespeicherten Daten könnten Bewegungsprofile erstellt, geschäftliche Kontakte rekonstruiert und Freundschaftsbeziehungen identifiziert werden. Auch Rückschlüsse auf den Inhalt der Kommunikation, auf persönliche Interessen und die Lebenssituation der Kommunizierenden würden möglich. Zugriff auf diese immensen Datenbanken hätten Polizei, Staatsanwaltschaft und ausländische Staaten, die sich davon eine verbesserte Strafverfolgung versprechen. Die Aufzeichnung von Informationen über die Kommunikation, Bewegung und Mediennutzung jedes Bürgers stellt die bislang größte Gefahr für unser Recht auf ein selbstbestimmtes und privates Leben dar.

Im Rahmen der Abendveranstaltung wird padeluun vom FoeBuD über jüngste Entwicklungen, Konsequenzen und Hintergründe der geplanten politischen und gesetzlichen Entwicklungen berichten und diskutieren.

» zurück zur Programmübersicht

Ralf Adelmann: ‘Hulu-ism’ oder implizite Nutzer televisueller Datenbanken

In den letzten Jahren wurden die Veränderungen auf Seiten der Videoproduktion und -distribution (insbesondere in Bezug auf YouTube) oder auf Seiten etablierter Medienkonzerne und ihre Geschäftsmodelle der Inhaltsvermarktung im Internet verstärkt diskutiert. Die medialen Veränderungen bei der Transformation von einem Rundfunk-Modell zu einem Datenbank-Modell werden dabei häufig nur am Rande gestreift.

An dieser Stelle sollen die Fragen nach diskursiven und medialen Konstruktionen der Nutzer televisueller Datenbanken gestellt werden. Welche historischen Kontinuitäten und Brüche zur Fernsehrezeption im Rundfunk-Modell lassen sich feststellen? An aktuellen Internetangeboten von Fernsehinhalten (Mediatheken der Sender, hulu.com usw.) werden die impliziter Nutzer analysiert sowie deren Formatierungen durch Datenbankstrukturen und durch Schnittstellen (Webdesign, Suchmaschinen, Kategorisierung, Listen, ästhetische Aufbereitung des Fernsehmaterials usw.) nachvollzogen.

» zurück zur Programmübersicht

Florian Krautkrämer: Database Cinema? Zum Verhältnis von Datenbank und Film

Der Zusammenhang von Film und Datenbank teilt sich zunächst in zwei verschiedene Bereiche. Auf der einen Seite befindet sich der anwendungsbezogene Aspekt: aus einer Ansammlung von Filmmaterial werden Filme geschnitten, das verwendete Material geht in einer neuen Narration auf. Je genauer das Material erfasst wurde, um so präziser und kleinteiliger kann damit gearbeitet werden. Beispiele hierfür wären u.a. die Found-Foota- ge-Filme von Alan Berliner oder Jay Rosenblatt, die ihre Themen durch eine komplexe Montage von Filmausschnitten erzählen, die weit über die Materialbearbeitung früherer Found-Footage-Filme hinausgeht. Die einfachere und schnellere Verknüpfung heteroge- nen Materials führt langfristig auch zu einer Veränderung der narrativen Organisation post- klassischer Filme wie der multiperspektivischen Erzählung.

Die andere Vergleichsbasis führt über die Ästhetik. Besonders in den Filmen Peter Greenaways steht das Ordnen und Verwalten von Dingen und Ereignissen im Vorder- grund, was sich in Filmen wie The Pillow Book visuell niederschlägt. Aber auch populäre Filme wie Crank, Stranger Than Fiction oder die Terminator- und Resident-Evil-Reihe set- zen an einigen Momenten die Interface-Ästhetik von Datenbanken ein.

Beide Aspekte decken jeweils einen bestimmten Teil dessen ab, was eine Datenbank ausmacht. Im ersten steht zwar das handelnde Moment, die Arbeit mit den Daten (Filmen) in der Bank (Sammlung), im Vordergrund, im fertigen Film bleibt das Steuerungsinstru- ment (Interface) dann jedoch transparent, das gilt selbst für interaktive Filmarbeiten wie Chris Markers Immemory. Bei der zweiten Gruppe von Filmen hingegen steht der graphi- sche Aspekt der Datenbanken und ihrer Interfaces im Vordergrund, das Filmmaterial selbst erscheint aber homogener.

Die Möglichkeiten beider Aspekte sehen Autoren wie Joachim Paech oder Thomas El- saesser als Eigenschaften, die besonders das digitale bzw. post-klassischen Kino kenn- zeichnen: bspw. die non-lineare Narration oder die graphischen Möglichkeiten im Filmbild. Und Lev Manovich (2001) betont die Datenbank als eine der zentralen Möglichkeiten des Computerzeitalters, weist aber auch darauf hin, dass bestimmte Strukturen in Filmen wie Vertovs Der Mann mit der Kamera (UdSSR 1929) oder verschiedenen Installationen und Filmen Peter Greenaways bereits angelegt waren.

Daran anknüpfend möchte ich drei Überlegungen folgen. Erstens: Wie werden die In- terfaces in den Filmen inszeniert? Spricht das Database Cinema dort von sich selbst oder verweist es auf andere mediale Gebrauchsweisen? Zweitens: Ist es sinnvoll, eine Meta- pher, die auf Interaktivität zielt, auf ein Medium anzuwenden, das vor allem Passivität zur Rezeption voraussetzt? Wo liegen Vor- und Nachteile der Metapher des Databse Cinema im Vergleich zu bisherigen Metaphern wie dem Kino-Auge (Stummfilm), der caméra stylo (Tonfilm) oder caméra pinceau (digitaler Film)? Und drittens: Manovich ging es um das Aufgehen von Datenbank und Narration in einer neuen Form. Aber möglicherweise taugt das Bild der Datenbank 10 Jahre später viel besser, um die Veränderung der Filme in den jeweils wechselnden Dispositiven (Kino, DVD, Handheld) beschreiben zu können. Denn im Gegensatz zu den Autoren-Metaphern (Federhalter, Pinsel) rückt die Datenbank den Gebrauch des Films stärker in den Vordergrund.

» zurück zur Programmübersicht

Felix Raczkowski: Von fiktiven Enzyklopädien und realen Datenbanken – die Ästhetik von Fan-Wikis

Eine Erscheinungsform der strukturellen Praxis der Datenbank ist die Enzyklopädie, die insbesondere in ihrer digitalen Ausprägung als typisches Beispiel computergestützter Datensammlung bzw. – Verwaltung gilt (Manovich 1999, 81f.). Die Form der Enzyklopädie hat sich im digitalen Zeitalter von einem streng reglementierten, kanonische Expertenmeinungen versammelnden System zu einer flexiblen, für unterschiedliche Zwecke adaptierbaren Praxis gewandelt, die unter dem „Wiki“- Oberbegriff zu einer typischen Form der Wissensorganisation im Internet geworden ist. Dabei ist neben an klassische Nachschlagewerke angelehnten Online-Enzyklopädien auch das Aufkommen von umfassenden, enzyklopädisch organisierten Datenbanken zu populärkulturellen Inhalten zu beobachten. Von TV-Serien (http://lostpedia.wikia.com/wiki/Main_Page) über Romanreihen (http://lotr.wikia.com/wiki/Main_Page) bis hin zu komplexen Computerspielen (http://www.wowpedia.org/Portal:Main) erstrecken sich die Themenfelder, die zum Gegenstand einer enzyklopädischen Aufbereitung werden. Die Datenbank wird hier gewissermaßen zu einem Medium für die Externalisierung (und Organisierung) der Fiktion jenseits der TV-Serie bzw. des Computerspiels. In meinem Vortrag möchte ich der Fragenach der Bedeutung von Fan-verwalteten Datenbanken für diese „deterritorialisierten“ (Gwennlian-Jones 2004, 95; Übersetzung des Autors) Fiktionen nachgehen. Dabei sollen besonders Computerspiele im Vordergrund stehen, die durch ihre wachsende Komplexität nicht nur eine Erscheinungsform der Datenbank als technischer Voraussetzung (im Sinne von Datenbankstrukturen als Werkzeugen in der Spielprogrammierung) darstellen, sondern deren vielfältige Inhalte ihrerseits jenseits des eigentlichen Programms nochmals in enzyklopädischer Form in Erscheinung treten. Datenbanken sollen in Bezug auf ihr Potential hin untersucht werden, als ästhetisches Prinzip Inhalte nicht nur zu organisieren und auffindbar zu machen, sondern fiktionale Welten auszuformen und Spiele jenseits des eigentlichen Spiels (Programms) fortzuführen. Auf theoretischer Ebene nimmt der Beitrag neben Überlegungen zur Ästhetik der Datenbank (vgl. Manovich) Bezug auf Ansätze aus der Fanforschung und Transmedialitätstheorien (vgl. Jenkins; Long) sowie auf Grundlagen der Computerspieltheorie.

Gwennlian-Jones, Sara (2004) Virtual Reality and Cult Television. In: Gwennlian-Jones, Sara; Pearson, Roberta (eds.) Cult Television, Minnesota.

Jenkins, Henry (2006) Convergence Culture – Where Old And New Media Collide. New York

Jenkins, Henry (2006) Fans, Gamers and Bloggers: Exploring Participatory Culture. New York

Long, Geoffrey (2007) Transmedia Storytelling. Business, Aesthetics and Production at the Jim Henson Company. Masterarbeit; Cambridge, Mass.

Manovich, Lev (1999) Database as Symbolic Form. In: Convergence: The International Journal of Research into New Media Technologies. Vol. 5 No. 2, p. 80-99.

http://lostpedia.wikia.com/wiki/Main_Page [letzter Zugriff: 05.01.2011]

http://lotr.wikia.com/wiki/Main_Page [letzter Zugriff: 05.01.2011]

http://www.wowpedia.org/Portal:Main [letzter Zugriff: 05.01.2011]

» zurück zur Programmübersicht

Tobias Conradi: ‘Prüfen’ und ‘Bewerten’ – Redaktionelle Medien als Gatekeeper der Datenbank

»Der SPIEGEL verhielt sich gegenüber Wikileaks nicht anders als in ähnlichen Fällen. Informationen und Dokumente wurden geprüft und bewertet. Das kann so – auch im Zeitalter des Internets – nur der klassische Journalismus leisten« (SPIEGEL-SPEZIAL: Die enthüllte Supermacht 1/2010, 3)

Nimmt man die vorstehende Aussage der ›Hausmitteilung‹ des SPIEGEL zum Ausgangspunkt, so lässt sich die Reihung »Sortieren, Sammeln, Suchen, Spielen« um zwei weitere und – nach Ansicht des SPIEGEL – offensichtlich essentielle Praktiken im Umgang mit Datenbanken erweitern: Prüfen und Bewerten. Informationen zu sammeln, zu sortieren und zu suchen, so lässt sich dem Zitat weiter entnehmen, können Viele. Diese Informationen aber tatsächlich zu Filtern – zu prüfen und zu bewerten – bleibe Aufgabe des ›klassischen Journalismus‹ als Gatekeeper. WIKILEAKS bietet für diese Argumentation ein sicherlich aktuelles und kontroverses Ausgangsbeispiel, aber es ist nicht das Einzige. Insbesondere angesichts von zeit- und informationskritischen Katastrophenereignissen ist die Thematisierung von nutzerbasierten Datenbanken und sozialen Netzwerken in Form von Blogs, Twitter, Facebook, YouTube oder Flickr eine mittlerweile etablierte Praxis der Mainstream-Nachrichten-Medien. Im August 2005 als der ›Hurricane Katrina‹ über die amerikanische Südküste hinweggezogen war, widmeten die ARD Tagesthemen »privaten Internettagebüchern« (TT 290805) einen eigenen Beitrag. Hier wird die Authentizität der entsprechenden Informationen noch ungebrochen beschworen: »Auch wenn die Weblogs oft nur eigene Hilflosigkeit dokumentieren, sie sind direkter, unmittelbarer, ungeschminkter als so manch professionell distanzierter Medienmensch« (ebd.). Drei Jahre später, im November 2008, ist es der Kurznachrichtendienst TWITTER, der die ersten Informationen über eine Anschlagsserie in Mumbai liefert: »Das soziale Netz hängte die alten Medien einmal mehr ab, was die Verbreitung und Verarbeitung von Nachrichten anging – wenn auch nur kurzfristig«1

Nur drei Monate später ist es die Information über die Notwasserung eines Airbusʼ auf dem Hudson-River, die sich zuerst über Twitter verbreitet: Twitter »[...] erlebt seine Feuertaufe als echtes Nachrichtenmedium – und besteht sie zumindest in einer Hinsicht: Kein Medium ist schneller«.2 Doch die »Legende«, »dass sich die professionellen Medien durch all das bedroht« fühlten, sieht der Autor nicht bestätigt: »Obwohl er [ein dem gewasserten Flugzeug entkommener Passagier; TC] vor Ort war, haben wir von ihm nichts weiter erfahren.« (ebd.) ›Prüfen und Bewerten, das kann – auch im Zeitalter des Internets – nur der klassische Journalismus‹. Die Reihe lässt sich weiter fortsetzen: Einen Tag nachdem im Januar 2010 in der Haitianischen Hauptstadt Port-au-Prince ein Erdbeben die Stadt in Schutt und Asche gelegt hatte, berichten die Tagesthemen über die Suche von Angehörigen via Facebook.3 In der Liveberichterstattung über einen Amoklauf an einer Schule in Ludwigshafen setzt der Nachrichtensender n-TV einen ›Internetreporter‹ ein, der auf einem Bildschirm Twitpic-Fotos ›analysiert‹ und parallel »Luftaufnahmen [sic!]« (N-TV 18.02.10) von Google-Earth zeigt.4

Auf diesen Beispielen aufbauend möchte ich in meinem Vortrag einen offensichtlich fragmentierten Diskurs verfolgen: Auf einer Seite steht hier die ›Wunschkonstellation‹ (Winkler) einer instantanen Berichterstattung, eines ›free flow of communication‹, die mit Hilfe des Zugriffs auf Datenbanken und soziale Netzwerke ein ›Erleben‹ phantasiert, das authentisch und ungetrübt Information, Wissen und Gewißheit übermittelt. Auf einer anderen Seite steht der rhetorisch propagierte Bedarf nach einem Ordnung garantierenden Gatekeeper, der Authentizität erst als Ergebnis einer komplizierten Kette von Operationen des ›Prüfens‹ und ›Bewertens‹ von Informationen/Daten generiert und anschließend didaktisch aufbereitet präsentiert.

1 Stöcker, Christian: »Netzgeschwätz übertönt Augenzeugenberichte« In: http://www.spiegel.de/netzwelt/web/0,1518,593173,00.html (eingesehen: 06.01.2011)

2 Patalong, Frank: »Da ist ein Flugzeug im Hudson River. Verrückt«. In: http://www.spiegel.de/netzwelt /web/0,1518,601588,00.html (eingesehen: 06.01.2011)

3 Hinsichtlich der Informationen die eine Deutsch-Haitianerin via Facebook über die Situation in Port-au-Prince erlangt, erklären die Tagesthemen: »Studentin Lawrence weiß, viele Informationen die sie hier findet muss sie mit Vorsicht genießen, sie gelangen ungefiltert ins Netz. Und dennoch: die Suche im World Wide Web hat sich für sie zumindest etwas gelohnt – sie hat inzwischen Nachricht von zwei Schwestern bekommen.« (TT140110)

4 Dass das Ein- und Auszoomen auf der Google-Earth-Oberfläche sofortige Assoziationen zur Grafik vermeintlicher ›Killerspiele‹ weckt ist hier eine sicherlich erheiternde Randbemerkung

» zurück zur Programmübersicht