Digitale Praktiken

Digitale Praktiken
29/1/2020

Editorial:
Digitale Praktiken

Virginia Kuhn:
Die Rhetorik des Remix

Malte Hagener / Dietmar Kammerer:
Infrastrukturierung der Filmforschung
Auf dem Weg zu digitalen Forschungsumgebungen im Netz?

Johannes Pause / Niels-Oliver Walkowski:
Welten abnehmenden Lichts
Ein Multi-Scale Viewing des Politthrillers

Vrääth Öhner:
Mapping als Praxis der Orientierung
Filmwissenschaft im «verteilten Archiv»

Jan-Hendrik Bakels / Matthias Grotkopp /
Thomas Scherer / Jasper Stratil:

Digitale Empirie?
Computergestützte Filmanalyse im Spannungsfeld von
Datenmodellen und Gestalttheorie

Sarah-Mai Dang:
Forschungsdatenmanagement in der Filmwissenschaft
Daten, Praktiken und Erkenntnisprozesse

Anja Sattelmacher:
«Ein Digitalisat ist niemals Ersatz für das analoge Filmobjekt»
Interview mit Miriam Reiche, Restauratorin an der TIB Hannover

Aus der Projektwerkstatt

Barbara Flückiger:
Digitale Werkzeuge zur ästhetischen Analyse von Filmfarben

Deb Verhoeven / Skadi Loist / Paul S. Moore:
(Inter-)Disziplinäre Routen und digitale Praxis
Kinomatics und die industrielle Geometrie der globalen Kinoforschung

Ästhetische Eigenzeit und Film

Jörg Schweinitz:
Die ästhetische Eigenzeit des Films
Plädoyer für ein theoretisches Konzept

Clea Wanner:
Die ekstatische Pause
Rauschhaftes Erleben als Aspekt ästhetischer
Eigenzeitlichkeit im frühen russischen Film

Selina Hangartner:
Remediatisierung, Hybridität, ästhetische Eigenzeit:
Queens RADIO GAGA

Matthias Brütsch:
Filmische Zeitschlaufen und die Inszenierung ästhetischer Eigenzeit: Das Beispiel TRIANGLE

In memoriam

Thomas Elsaesser (1943–2019)
Ein Nachruf von Christine N. Brinckmann

Editorial: Digitale Praktiken

Die Frage nach den Methoden der Filmwissenschaft scheint sich mit neuer Dringlichkeit zu stellen, seit digitale Werkzeuge nicht nur etablierte Arbeitsweisen unterstützen – etwa die Annotation von Filmen –, sondern auch neue Zugänge zum Material zu erschließen versprechen. Diese Zugänge sind jedoch nicht nur dadurch neu, dass sie eine Reihe neuer Forschungsgegenstände, Perspektiven und Erkenntnisse ermöglichen; vielmehr scheint sich infolge der Digitalisierung mit den Werkzeugen der Wissenschaft auch deren epistemologisches Gefüge insgesamt zu verschieben: «Digitale Kulturen », so formulierten es kürzlich Christoph Engemann, Florian Sprenger und Till Heilmann in einem Beitrag zur Methodendebatte in der Medienwissenschaft, «können etablierte Forschungsprozesse grundlegend verändern und werfen damit unweigerlich auch methodische Fragen auf, indem sie das Verhältnis von Forschungsinstrument und Forschungsgegenstand neu gestalten» (2019, 156).

Worin besteht nun das Wesen dieser epistemischen Verschiebung? In der Debatte, die in den Digital Humanities um diese Frage geführt wird, mangelt es nicht an radikalen Positionsbestimmungen. So wird einerseits die Sehnsucht nach einem «end of theory» (Anderson 2008) laut, andererseits die Angst vor einem «neoliberal takeover of the university» (Allington/ Brouillette/Golumbia 2016) in Form positivistischer Forschungsdesigns formuliert. Innerhalb der Filmwissenschaft macht etwa Chávez Heras (2012) digitale Werkzeuge gerade für eine Rückkehr zur klassischen Filmanalyse verantwortlich, während andere die Bedeutung des einzelnen Films als traditionellem Gegenstand der Disziplin schwinden sehen. Einigkeit zwischen solch traditionellen Positionen scheint bisweilen allein in der Feststellung zu bestehen, dass sich die Arbeit mit computergestützten Methoden vor allem durch die Tätigkeit des Quantifizierens charakterisieren lasse.

Auch in der Filmwissenschaft scheint der Einsatz digitaler Werkzeuge und Verfahren auf den ersten Blick eine methodische Vorentscheidung zu verlangen, die die Quantifizierung von isolierbaren Merkmalen filmischer Werke oder der Filmkultur insgesamt in den Fokus rückt. Sinnvoll erscheint dieser Einsatz etwa dann, wenn «Big Data» zum Gegenstand der Analyse wird (Dang 2018). Die starke Formalisierung und Vereinheitlichung der Arbeitsweisen, die zugleich angestrebt wird, ermöglicht dabei den Aufbau großer Datenbanken, sodass der Eindruck entsteht, dass sich der Mehrwert solcher Methoden vor allem langfristig einstellt – etwa wenn, wie im Cinemetrics- Projekt Yuri Tsivians,1 eine große Zahl von Nutzern über Jahre hinweg ihre Analyseergebnisse zur Verfügung stellt. Auch der Aufbau digitaler Text-Datenbanken, der in den letzten Jahren im filmwissenschaftlichen Kontext begonnen hat – prominent etwa im Project Arclight –,2 stellt neben der besseren Zugänglichkeit der Dokumente vor allem die Möglichkeiten ihrer quantitativen Aufbereitung in den Fokus.

Ein eindrucksvolles Beispiel für die Tendenz computerbasierter Filmforschung zur Quantifizierung ihrer Objekte ist das ACTION Toolkit von Michael Casey und Mark Williams, das der stilometrischen Analyse dient. Die Software bestimmt den Stil zum Beispiel einer Regisseurin anhand verschiedener ästhetischer Aspekte – der Verteilung des Hell-Dunkel- Kontrastes, der durchschnittlichen Schnittlänge eines Films und seiner Klangstruktur –, wobei Maßeinheiten für ästhetische Ähnlichkeit generiert werden. In einer Tabelle, die Ergebnisse einer Analyse mit dem ACTION Toolkit zusammenfasst (Abb. 1), steht so etwa das Kürzel «DL» für David Lynch. Der Kreuzungspunkt stellt dar, wie hoch die Ähnlichkeit innerhalb der Werkgruppe von Lynchs Filmen ist, während die anderen Felder in der Spalte «DL» einen statistischen Vergleich seines OEuvres mit dem anderer Regisseure visualisieren. Der (im Original) tiefrote Kreuzungspunkt bedeutet, dass die ästhetische Kohärenz der Werke Lynchs sehr hoch ist, während zum Beispiel das Werk der Brüder Coen (CB) eine hohe ästhetische Varianz aufweist (Casey/Williams 2014, 16). Die Metrisierung der Ästhetik bedingt hier, dass die gleiche quantifizierende Methode für alle untersuchten Werke Anwendung findet. Eine Weiterentwicklung dieses Ansatzes stellt die Programmbibliothek Distant Viewing Toolkit von Lauren Tilton und Taylor Arnold (2019) dar.

Doch lässt sich der Einsatz des Computers für Fragen der Filmwissenschaft tatsächlich auf Verfahren des quantifizierenden Vermessens reduzieren? Abgesehen davon, dass die «Vermessung ästhetischer Erscheinungen» bereits Teil geisteswissenschaftlicher Arbeit war, bevor Computer dafür Einsatz fanden (Flückiger 2011, Salt 1974), und mithin das Quantifizieren und Berechnen keineswegs ein Alleinstellungsmerkmal digitaler (Film-) Wissenschaft sein kann, stellt sich die Lage noch einmal entschieden anders dar, sobald der Fokus auf die konkreten Arbeitsformen gelegt wird, die sich mit computergestützten Methoden verbinden. Ansätze datengetriebener Forschung können sich für medien- und filmwissenschaftliche Fragestellungen gerade dann als produktiv erweisen, wenn sie als Werkzeuge im Rahmen einer vielgestaltigen Praxis konzipiert werden (vgl. Antonijevic 2015). Quantifizieren kann dann Teil eines Projektes sein, muss aber nicht dessen dominante Methode darstellen, wie computergestütztes Arbeiten insgesamt Tätigkeiten beinhalten kann, die nicht auf statistische Berechnung, sondern auf ein direktes Arbeiten mit dem Material zielen.

Sinnfällige Beispiele hierfür sind etwa die «Anordnung, Montage, Rekombination oder Kommentierung» von Bewegtbildern zur Herstellung eines Videoessays, also einer digitalen Analyse- und Publikationsform, die sich gerade dadurch auszeichnet, dass sie «innerhalb der Logik der Bilder, nicht auf der darunter liegenden Ebene der Daten und Algorithmen» operiert (Pantenburg 2017, 489 u. 496). Zu nennen wäre ferner der Aufbau vernetzter und kollaborativer Forschungsstrukturen und -programme, so etwa die von Rainer M. Köppl in den 2000er-Jahren in Wien entwickelte filmanalytische Lehrplattform ELOISE (Hiebler 2012, 299). Ein weiteres Beispiel ist die hypertextuelle Organisation und Inszenierung von Wissensbeständen im Sinne der «Multimodal Humanities» (McPherson 2009), die in den Projekten Stephen Mambers eine prototypische Umsetzung erfahren haben.3 Die Funktion des Computers im Forschungsprozess ist hier die eines Multiplikators und Diversifizierers, dessen Einsatz nicht unmittelbar mit einer wissenschaftspolitischen Grundsatzentscheidung für ‹harte› quantifizierende Verfahren zusammenfällt.

Aus einer praxeologischen Perspektive charakterisiert sich computergestützte filmwissenschaftliche Forschung demzufolge weniger durch einheitliche Zugriffsformen, die sich als Ausdruck quantitativer oder qualitativer Ansätze monolithisch gegenüberstehen, als vielmehr durch eine Vielfalt zusammenhängender Tätigkeiten, in die computergestütztes Arbeiten zu verschiedenen Zwecken eingebettet sein kann. Wissenschaftliche Disziplinen tendieren gleichwohl dazu, verbindliche Sets solcher Praktiken auszubilden: Wie Lorraine Daston festgestellt hat, sind sie selten durch eine Einigkeit über ihre Methoden, häufiger hingegen durch eine grundsätzliche «Solidarität auf der Ebene der Praxis» geprägt (2000, 20). Das vorliegende Heft führt daher exemplarisch Forschungs- und Infrastrukturprojekte vor, die Forschung in diesem Sinne als flexibles Set an Praktiken auffassen. Statt eine epistemologische Revolution zu postulieren, geht es den vielen kleinen Verschiebungen nach, die sich auf der Ebene wissenschaftlichen Arbeitens tatsächlich dingfest machen lassen. Wurde der praxeologische Ansatz bereits als medienwissenschaftliche Methode erprobt (Couldry 2004), soll er hier also als scientologischer Rahmen der Selbstreflexion einer ihrer Teildisziplinen dienen.

Das Anliegen des Heftes ist dabei insofern auch politisch, als die praxeologische Perspektive als Intervention in ein wissenschaftspolitisches Feld betrachtet werden kann, in dem Methoden zunehmend als Ausdruck hegemonialer Theorieentwicklung reflektiert werden (Engemann/Sprenger/ Heilmann 2019, 155). Eine Betonung digitaler Methoden, wie sie in den Digital Humanities oftmals zur Abgrenzung von anderen Ansätzen in Anschlag gebracht wird, entgeht einer solchen Dynamik nicht: Sie enthält unweigerlich das Versprechen «empirischer Adäquatheit […] durch einen Rekurs auf ‹harte› Wissenschaften» (Hartmann/Wulff 1995, 12; vgl. Sittel 2017) bis hin zur Ausrufung einer «empirischen Wende für die Geisteswissenschaften » (Jan-Christoph Meister, zit. n. Thiel 2012). Demgegenüber sind Praktiken antiessenzialistisch und antiprogrammatisch (Reckwitz 2013). Durch die Thematisierung konkreter Arbeitspraktiken lässt sich zwar nur schwer die Förderungswürdigkeit eines Forschungsprogramms begründen; sie können aber einer Verständigung über die Selbstverständlichkeiten dienen, die Wissenschaftler*innen einer Disziplin miteinander teilen.

Dazu müssen diese Praktiken jedoch expliziert werden – und gerade darin besteht, wie Steffen Martus und Carlos Spoerhase gezeigt haben, oftmals die Schwierigkeit. «Die Verhaltensroutinen werden für den Praktiker » nämlich «in einem Maße zur ‹zweiten Natur›, dass sie nur mit großer Mühe artikuliert und zum Gegenstand expliziter Analysen oder theoretischer Diskussion gemacht werden können» (2009, 89). Implizit geteilte Selbstverständlichkeiten können jedoch infolge epistemischer Verschiebungen problematisch und infolgedessen sichtbar werden. Die Chance der Digitalisierung besteht mithin darin, dass sie im Arbeitsprozess selbst zu neuen Verständigungen zwingt (Liu 2013), sind es doch gerade für jede geisteswissenschaftliche Disziplin grundlegende Tätigkeiten wie Lesen und Schreiben, Recherchieren und Annotieren, Analysieren und Dokumentieren, Bibliografieren und Sortieren, die durch digitale Innovationen verändert werden. Die ‹Digitalisierung› wissenschaftlicher Praktiken kann aus diesem Grund nachhaltiger und tiefgreifender erscheinen, als die bloße Implementierung digitaler Methoden.

Die Struktur des vorliegenden Heftes orientiert sich daher an grundsätzlichen Praktiken, die in den jeweiligen Beiträgen auf unterschiedliche Weise zum Gegenstand werden. Um der Zusammenstellung eine Struktur zu verleihen, wird digitale filmwissenschaftliche Praxis heuristisch in drei unterschiedliche Tätigkeitsgebiete unterteilt: jene der Organisation des Materials, jene seiner Analyse sowie jene der Kommunikation und Dissemination von Forschungsderivaten.

Auf der ersten Ebene sieht sich die Filmwissenschaft unter anderem mit neuen Korpora und Archiven konfrontiert, die im Zuge der Digitalisierung zugänglich geworden oder überhaupt erst entstanden sind. In unterschiedlichen Projekten werden Informationen zu Filmproduktion oder -rezeption gesammelt sowie Film- und Kinoarchive digital organisiert oder algorithmisch erfasst. In ihrem Interview in diesem Heft zeigen Anja Sattelmacher und Miriam Reiche dabei die Fallstricke einer zu unbedarften Gleichsetzung von Digitalisiertem und Digitalisat auf. Diese Probleme stellen sich zwar für jeden konservierenden Akt und jede dabei zum Einsatz gebrachte Technologie, doch wird die konkrete Ausprägung im hier thematisierten Fall von Praktiken des Digitalen bestimmt. Trotz der Komplexität der technologisch gestützten Übersetzung eines analogen Films in ein Digitalisat lassen Sattelmacher und Reiche keinen Zweifel an dessen positivem Effekt für die Herstellung völlig neuer Zugangsweisen zum Material. Eine radikale Umsetzung einer solchen Idee unternimmt etwa das Sensory Moving Image Archive (Olesen 2018): Die Navigation durch dieses Archiv gestaltet sich nicht mehr entlang bestimmter Metadaten, sondern anhand automatisch generierter ästhetischer Ähnlichkeitsparameter wie Bewegung oder Farbstruktur.

Doch ist es nicht allein der Film selbst, der in den neuen digitalen Archiven reorganisiert wird. Mit ihrer Evaluation des media:rep-Projekts geben Dietmar Kammerer und Malte Hagener in ihrem Beitrag ein Beispiel für neue Wege der Vorhaltung und Kuratierung von Forschungsliteratur innerhalb von Fachrepositorien. Initiativen wie die Media History Digital Library4 digitalisieren etwa Filmzeitschriften und anderes Begleitmaterial, das Media Ecology Project wiederum verbindet Forscher*innen mit Archiven, die Materialien digitalisiert haben. Der Aufbau digitaler Archive bietet daher die Chance, Ressourcen zu mehr Prominenz zu verhelfen, die zuvor nur schwer zugänglich waren oder als peripher verstanden wurden. Hierdurch können kanonische Diskurse aufgebrochen und – wie die in Anlehnung an die Internet Movie Database entstandene Amateur Movie Database5 eindrucksvoll zeigt – andere Filmkulturen für die Forschung erschlossen werden.

Diese neuen Repositorien, Onlinedatenbanken und Portale deuten jedoch noch auf eine andere Dimension des Digitalisierungsschubs der letzten 15 Jahre hin, der aus einer praxeologischen Perspektive von besonderer Bedeutung ist: die (Forschungs-)Infrastruktur. Infrastrukturen sollen Forschung ermöglichen oder zumindest erleichtern, indem sie Zugänge und Dienste bereitstellen, deren Voraussetzungen und Funktionslogiken zugunsten der Forschung in den Hintergrund rücken. Im Kontext von Repositorien, Datenbanken und digitalen Archiven betrifft das vor allem die Dimension der Ordnung. So unterstreichen Kammerer und Hagener in ihrem Beitrag das Potenzial, das sich durch die Normierung und Standardisierung von Metadaten für Repositorien ergibt und sich zum Beispiel in der Vernetzung von Repositorien und Daten realisiert. Gleichzeitig droht hier aber auch eine Reproduktion und Verfestigung von Repräsentationsregimen: Die Struktur formaler Semantiken ist auch Ausdruck bestehender Machtverhältnisse. Die Critical Library and Information Studies haben gezeigt, dass es gerade marginale Gruppen sind, deren Perspektiven infolge solcher Mechanismen unterrepräsentiert bleiben. Das Media Ecology Project oder Projekte wie die Open Memory Box versuchen dieser Problematik mit Mitteln der «Folksonomy» oder eines «Anti-(Film-)Archives» aus dem Weg zu gehen. Allerdings ließen sich solche Ansätze durchaus selbst wieder als ein Regime des Ephemeren thematisieren, das gerade in digitalen Kuratierungsformen eine fast konkurrenzlose Prominenz gewonnen hat.

Die zweite Ebene umfasst die Verfahren der filmwissenschaftlichen Analyse, für die der Werkzeugbegriff zentral erscheint. So ist die Geschichte der computergestützten Filmwissenschaft immer wieder als Geschichte ihrer Tools geschrieben worden. Sie beginnt in der Regel mit den frühen, besonders im deutschsprachigen Raum verbreiteten Annotationswerkzeugen: Werner Faulstichs CAFAS (Computer Aided Film Analysis Siegen) oder Helmut Kortes CNFA (Computergestützte Notation filmischer Abläufe) ebenso wie ANVIL von Michael Kipp markieren die relative Nähe der deutschsprachigen Filmwissenschaft zu philologischen Disziplinen, indem sie der Angleichung des filmischen Untersuchungsobjekts an Textquellen Rechnung tragen.

In den 2000er-Jahren entstehen mit Rolf Kloepfers AKIRA III, Ralph Ewerths Videana und ELAN dann Softwareumgebungen, die filmanalytische Verfahren integrieren. Bei diesen Programmen handelt es sich zunächst um Desktop-Apps, die sich an Einzelnutzer wenden. Neuere Programme wie das Semantic Annotation Tool von Mark Williams und John Bell oder die CLARIAH Media Suite6 arbeiten hingegen webbasiert und können daher auch kollaborativ genutzt werden. Auch Yuri Tsivians Cinemetrics- Projekt verbindet ein Tool, das halbautomatisch die durchschnittliche Länge von Aufnahmen (ASL) misst, mit einem umfassenden Online- Archiv von Schnitt-Protokollen, die inzwischen das eigentliche Kapital des Projektes darstellen. Tools sind so von Hilfsprogrammen zu umfassenden Forschungsprojekten geworden.

In den letzten Jahren werden Tools zunehmend eingesetzt, um die Komplexität von Bewegtbildern aufzuschlüsseln (Burghardt/Kao/Walkowski 2018), sodass Analysen der ästhetischen Aspekte eines Films auch «beyond shot lengths» (Burghardt/Kao/Wolff 2016) und mithin jenseits der durch Pioniere wie Salt und Tsivian gesetzten Grenzen möglich werden. Dabei rücken etwa Farbe, Szenenaufbau, Figurenkonstellationen, Bewegung von Kamera und Szenerie, Stil, Motivik und Ton in den Blick. Umfassende Analyse-Tools wie das Videoanalyse-Tableau (theVAT), ein System, das mehrere Werkzeuge für die Videoanalyse, -annotierung und -visualisierung kombiniert, arbeiten dabei insgesamt webbasiert.7 Genauso existiert das von Laurenz Halter und Barbara Flückiger entwickelte und in diesem Heft vorgestellte Tool VIAN, das die Analyse unterschiedlichster Aspekte von Farbigkeit sowohl in Einzelwerken als auch in größeren Filmkorpora ermöglicht, auch als kollaborativ nutzbare Online-Plattform (Flückiger 2017). Aus einem Werkzeug wird mithin eine komplette virtuelle Forschungsumgebung (VRE).

Spätestens mit dem Konzept der VRE rückt die infrastrukturelle Perspektive wieder in den Blick. Denn aus der Perspektive der einzelnen Forscherin, die nicht ihre eigenen Tools programmieren kann oder möchte, erscheint jedes Tool, jede Software und VRE notwendig als Infrastruktur mit allen zuvor genannten Ambiguitäten. Tools und VREs sind dabei – insbesondere wenn sie mit öffentlichen Mitteln gefördert werden – auf Dauer angelegt. Das bedeutet, dass sie ein Bild davon entwerfen müssen, was Forschung in Zukunft sein wird, und dass sie starken Einfluss auf die Entwicklung neuer Forschungspraktiken ausüben. Digitale Infrastrukturprojekte wie DARIAH oder CLARIAH versuchen dieser Problematik mit der heuristischen Idee «generischer» Tools zu entkommen. Damit verbindet sich der Versuch, implizite Zukunftsentwürfe durch Formalisierung und Abstraktion zu entproblematisieren. Ob eine solche Strategie erfolgreich sein kann, ist allerdings fraglich. Nach Patrick Vonderau ist das Werkzeug immer auch Teil einer «Werkstatt, in der das Zusammenspiel einer höchst vielfältigen, heterogenen Zahl von Gerätschaften eine Praktik konturiert, die hier wiederum ihren bevorzugten Ort und ihre Geschichte hat» (2017, 400). Das bedeutet, dass es eigentlich kein generisches Werkzeug geben kann, oder, im Umkehrschluss, dass ein wirklich generisches Werkzeug in konkret interessensgeleiteten Forschungsprozessen geringen Nutzen entfaltet. Einige Tools, etwa das von der Forschergruppe Cinepoetics entwickelte und in diesem Heft vorgestellte eMaex, werden daher ganz ausdrücklich auf der Grundlage filmtheoretischer Prämissen und mit konkreten Zielsetzungen entwickelt.

Einmal entwickelte Tools können freilich auch zu bisher nicht intendierten Zwecken eingesetzt werden. Mit neuen oder sich verändernden Forschungsfragen kann es aber andersherum auch notwendig werden, existierende Tools zu adaptieren oder neue zu entwickeln. Filmwissenschaftliche Methoden und Fragestellungen müssen der toolgestützten Analyse daher nicht notwendig vorausgehen; sie können sich organisch in der Auseinandersetzung mit dem Gegenstand oder den Werkzeugen entwickeln. Genau in dieser epistemischen Bastelei mit den Werkzeugen selbst liegt ein oftmals übersehenes, ja geleugnetes Potenzial computergestützter Forschung. Aus diesem Grund sollten Tools – und mit ihnen ein formalistischer Fokus auf die Methode – auch nicht als Kern der Digital Humanities verstanden werden. Aus praxeologischer Perspektive sind Tools vielmehr, wie wir selbst in unserem Beitrag zu zeigen versuchen, ein bestimmter Aggregatzustand von Forschungsprozessen, der sich im Lauf der Zeit wieder verändern kann.

Schließlich verändern digitale Technologien die Formen der Kommunikation und Dissemination wissenschaftlicher Forschungsdesiderate. Hier steht ganz generell die Idee im Fokus, Forschungsergebnisse in einem Modus zu repräsentieren, der sich demjenigen des Forschungsgegenstandes annähert (Walkowski 2019). Im filmwissenschaftlichen Kontext trifft das, wie erwähnt, vor allem auf den Videoessay zu, der zwar nicht im strengen Sinne ein Instrument der digitalen Geisteswissenschaften darstellt, dennoch aber als Produkt digitaler Technologien interpretiert wird (McWhirter 2015). So wurden digitale Technologien gerade in der Filmwissenschaft in jenem Augenblick als Revolution beschrieben, als kenntlich wurde, dass sich durch sie der Film selbst – und sei es in Ausschnitten – in die Publikation integrieren ließ (Kolker 1994). In der deutschsprachigen Filmwissenschaft existiert eine frühe Tendenz zu wissenschaftlichen DVD- und Online-Produkten, die Wissen in multimedialer und multimodaler Form zu vermitteln suchen und zugleich die Rezeption dieses Wissens als selbstbestimmte Praxis zu gestalten erlauben. Dabei ist das Videoessay vielleicht nur ein Ausdruck jener Digital Literacy, die von Virginia Kuhn in ihrem Eröffnungsbeitrag am Beispiel des Remix erläutert wird und die der Autorin zufolge jeglicher digitalen Praxis zugrunde liegt.

Der multimodale Charakter dieser Literarizität bringt dabei unterschiedliche epistemische Objekte hervor, die als Publikationen einen Mehrwert erzeugen können. So macht Deb Verhoeven (2016) deutlich, dass innerhalb einer systematischen «Visual Analytics» produzierte Diagramme und Visualisierungen der Komplexität der Cinema und Production Studies sehr viel besser gerecht werden als eine narrative Darstellungen der Forschungsergebnisse. In ihrem Werkstattbericht reflektieren Loist, Verhoeven und Moore, wie digital vermittelte Analysepotenziale mit neuen kollaborativen Arbeitspraktiken einhergehen und wie diese Praktiken Forschungsdesiderata freilegen, die zugleich eine Veränderung von Publikations- und Kommunikationspraktiken erforderlich erscheinen lassen.

Solche neuen Praktiken betreffen dabei nicht nur die Form der Darstellung, sondern auch die Rahmenbedingungen des Publizierens. Hier spielt vor allem die Open Access- und Open Science-Bewegung eine Rolle, die Sarah-Mai Dang in den Kontext eines nachhaltigen Forschungsdatenmanagements stellt. Angebote wie ResearchGate, Academia oder Mendeley zeigen veränderte Abhängigkeitsstrukturen von kommerziellen Anbietern digitaler Kommunikations- und Publikationsplattformen. Open Access und Open Science traten hingegen früh mit dem Anspruch auf, digitale Technologien im Sinne der Wissenschaft und der gesellschaftlichen Commons zu nutzen. Inwieweit Open Access und Open Science diesem Anspruch 17 Jahre nach der Berliner Open Access Deklaration gerecht werden, bleibt Gegenstand der Diskussion. Wie ein Sammelband des Open Access-Aktivisten Ulrich Herb (2018) kürzlich gezeigt hat, hat Open Access die Dominanz großer, kommerziell fokussierter Wissenschaftsverlage wie Elsevier und Springer keineswegs geschmälert. Genauso zeigen entsprechende Förder- und Rahmenprogramme, dass das Interesse staatlicher Institutionen an Open Access ganz wesentlich vom Geist einer ökonomischen Standortlogik innerhalb einer Knowledge Economy getrieben ist – und nicht von der Idee der Knowledge Commons.

Die hier vorgeschlagene Dreiteilung computergestützter Filmforschung wird der realen Vielfalt der Ansätze freilich kaum gerecht, die etwa auch Praktiken der künstlerischen Forschung (Ruszev 2018) oder des «digitalen Surrealismus» (Ferguson 2017) umfasst. Die meisten konkreten Forschungsprojekte berühren zudem mehrere, wenn nicht gar alle der genannten Dimensionen. Vor allem sollte davon Abstand genommen werden, die Dreiteilung im Sinne aufeinanderfolgender Stadien im Forschungsprozess zu verstehen. Wie der Beitrag von Vrääth Öhner kenntlich macht, führen digitale Technologien gerade auch zu einer zunehmenden Verschränkung solcher Stadien: Am Beispiel verschiedener Stadtfilm-Projekte zeigt Öhner, wie durch neue Archive ephemeres Material der Forschung zugänglich wird. Die digitalen Formen des Zugriffs und der Vernetzung erlauben dabei eine Präsentation des Materials entlang des Konzepts des «Mapping», das die Filme einerseits auf den Stadtraum bezieht, andererseits Verbindungen zwischen den Werken kenntlich macht, die anders nicht sichtbar geworden wären. Neue Formen der Erschließung, Analyse und Publikation ermöglichen sich hier mithin gegenseitig. Ihre heuristische Trennung in diesem Text diente hingegen allein der Erstorientierung in einem vielgestaltigen Feld filmwissenschaftlichen Arbeitens, das sich auf keine digitale Methodik festlegen lässt, in dem jedoch allerorten neue Praktiken des Digitalen zutage treten.

Außerhalb des Schwerpunkts widmen wir uns einer Diskussion zu medialen Fragen der Zeitlichkeit, die in den letzten Jahren an Bedeutung gewonnen hat. Dies gilt insbesondere für das Konzept der ästhetischen Eigenzeiten, deren Untersuchung in Literatur, Kunst und Wissenschaft in Deutschland ein Schwerpunktprogramm der DFG gewidmet war. So regten die von Michael Gamper und Helmut Hühn (2014) vorgelegten Studien eine Gruppe Interessierter am Seminar für Filmwissenschaft der Universität Zürich dazu an, dieses Konzept aufzugreifen, auf den Film zu übertragen und damit zu experimentieren. In einem kleinen Schwerpunkt veröffentlichen wir dazu vier kurze Texte, die Konturen eines solchen Zugangs und Forschungsfeldes umreißen. Während Jörg Schweinitz eine theoretische Perspektive skizziert, wie sich mit dem Konzept der ästhetischen Eigenzeit blinden Flecken der Filmnarratologie entgegenwirken lässt, gehen Clea Wanner mit ästhetischen Präsenzeffekten, insbesondere der Aufhebung von Zeitlichkeit in der ekstatischen Pause des frühen russischen Kinos, Selina Hangartner mit der Untersuchung der Rolle hybrider Remediatisierungen von Metropolis im Videoclip und in Mash-ups zu Radio Gaga (Queen) und Matthias Brütsch mit metaleptischen Loop-Strukturen in Triangle (Christopher Smith, GB/AUS 2009) spezifischen Möglichkeiten nach, mit dem Film auf ganz unterschiedliche Weise eigenzeitliche Effekte zu generieren.

Am Ende des Hefts erinnert Christine N. Brinckmann an den kürzlich verstorbenen Thomas Elsaesser in Form einer persönlichen Würdigung dieses nomadischen Denkers und höchst einflussreichen Filmwissenschaftlers, begleitet von einer Auswahlbibliografie. – Mit dieser Ausgabe präsentiert sich Montage AV schließlich auch in veränderter Gestalt. Unser Dank gilt dem Grafiker Christian Wild von Hohenborn, mit dem wir unser neues Layout erarbeitet haben.

Johannes Pause und Niels-Oliver Walkowski (als Gastherausgeber)
sowie Patrick Vonderau (für die Redaktion)

1 http://www.cinemetrics.lv (letzter Zugriff am 05.04.2020).

2 search.projectarclight.org (letzter Zugriff am 05.04.2020).

3 Einen Eindruck gibt etwa sein Liberty Valance-Projekt: http://mamber.filmtv.ucla.edu/ LibertyValance/ (letzter Zugriff am 05.04.2020).

4 http://mediahistoryproject.org/ (letzter Zugriff am 05.04.2020).

5 http://amateurcinema.org (letzter Zugriff am 05.04.2020).

6 https://mediasuite.clariah.nl (letzter Zugriff am 05.04.2020).

7 http://virginiakuhn.net/vat/ (letzter Zugriff am 05.04.2020).

Literatur

zum Seitenanfang