Digital Humanities und Medienkulturwissenschaft – #dhiha5

Am 10. und 11. Juni 2013 findet das 5. Kolloquium der Reihe „Digital Humanities am Deutschen Historischen Institut Paris“ statt, gemeinsam organisiert mit “L.I.S.A. – das Wissenschaftsportal der Gerda Henkel Stiftung” und unter Mitarbeit des Centre pour l’édition électronique ouvert (Cléo). Das DHIP hat dazu eine schicke Blogparade in’s Leben gerufen (dt./frz.), zu der auch dieser Text mit beitragen soll. Denn es ist auffällig, dass auch in der deutschsprachigen Medien- und Kulturwissenschaft ein Verharren in alten geisteswissenschaftlichen Methoden zu beobachten ist. Zwar ist die Disziplin aus sich heraus immer aufgefordert, die aktuellen Veränderungsprozesse zu kommentieren und zu verorten. Meistens läuft dies auf eine starke Relativierung und Differenzierung hinaus, wie etwa in diesem Blog zum Hype um „Big Data“ und „Quantified Self„. Demgegenüber stehen die „Digitalen Methoden“ gegenüber klassischen Zugriffsweisen wie der Diskursanalyse immer wieder, so scheint es, neu am Anfang. (Gute Beispiele liefert die Zeitschrift für Medienwissenschaft 2/2010 „Empirie“.)
Weiterlesen

Advertisements

Große Daten, analytische Gesten und praktische Datenkritik

 Die Utrecht Data School hat am 25. April im Zuge der Big Data Week ein Symposium zum Umgang mit Big Data veranstaltet. In diesem Kontext fokussierte sich das Symposium sowohl auf akademische als auch wirtschaftliche Perspektiven auf Big Data und verdeutlichte dadurch die Unterschiede zwischen Datenkritik und Datenverwertung.

Die akademischen Beiträge von Bernhard Rieder (Universiteit van Amsterdam), Johannes Paßmann (Universität Siegen), Ellen Bijsterbosch  und Thomas Boeschoten (beide Universiteit Utrecht) lenkten ihre Aufmerksamkeit vor allem auf die analytischen Operationen und den Umgang mit Algorithmen, APIs und statistischen Analyseverfahren.

Bernhard Rieder fokussierte seinen Vortrag auf sogenannte analytische Gesten und die Frage, wie Big Data qualitative und quantitative Forschungsmethoden zusammenbringen. Ausgehend von Philip Agres Idee der „Grammars of action“ diskutierte er, wie digitale Medien eine Grammatik der Interaktion und Formalisierung von Datenerhebung schaffen, welche im Kontext von Big Data in neue Sinnzusammenhänge gebracht werden kann. Nicht nur die Datensätze und Referenzpopulationen werden grösser, argumentierte Rieder, Big Data Forschung trägt selbst zur Multiplizierung von Daten bei. Zentrale Analysetechniken dabei sind Statistik und Netzwerktheorie, deren epistemischen Grundannahmen spezifische Sinnzusammenhänge von Daten schaffen und daher als analytischen Gesten zu verstehen sind.

Wie sehr solche analytischen Gesten von der Technizität der Medien abhängen verdeutlichte der Vortrag von Ellen Bijsterbosch über Twitter als Gatekeeper. Während die Plattform täglich fast 600 Millionen Tweets speichert, haben Forschungsprojekte und Unternehmen nur sehr begrenzten freien Zugang über APIs, zum Beispiel zum Garden-Hose Sample (10% aller Tweets) oder zum ‚Spritzer’ (1%). Obwohl die Plattform betont, dass diese Auswahl auf zufälligen Stichproben basiert, verbleibt die der assoziierte Algorithmus als Blackbox und ist daher Subjekt von Kritik (boyd et al).

Der Vortrag von Johannes Paßmann entwickelte die Idee einer „praktischen Datenkritik“, die sich eben solchen analytischen Gesten zuwendet, wie Rieder sie vorher beschrieben hat und die nach einer Dokumentation und Reflektion von Analyseschritten im Umgang von Big Data fragt. Basierend auf seiner ethnografisch-digitalen Forschung zur „Favstar-Sphäre“ im deutschsprachigen Twitter nähert sich Paßmann dem Umgang mit Big Data mit der Metapher von Karte und Territorium. Um die Beziehung zwischen beiden nicht zu einer BlackBox werden zu lassen, fordert Paßmann eine verstärkte Explikation der Analyseschritte sowie eine situierte Nutzung von Algorithmen. Seine Antwort auf die Frage, wie man Algorithmen – wie zum Beispiel Twitter Accounts, die automatisch Deutschlands interaktions-stärkste Tweets berechnen – überhaupt für die eigene empirische Arbeit nutzen kann, rückt den Fokus zurück ins Feld: Wenn ein Algorithmus Relevanz für mediale Nutzungspraktiken hat, gewinnt er diese auch für methodologische Ansätze. Dieses Argument schließt an eine Idee in dem Aufsatz „Scraping the Social“ von Noortje Marres (Goldsmiths) und Esther Weltevrede (Universität von Amsterdam)  an.

In der Diskussion kristallisierten sich einige zentrale Herausforderungen für einen datenkritischen Umgang mit Big Data heraus: (1) Die zentrale Rolle von proprietären Algorithmen in der empirischen Forschung eröffnet Accountabilitäts-Probleme für ihre analytischen Gesten. Rieder schlägt in diesem Kontext vor, Algorithmen als mehr oder weniger glaubwürdige Informanten zu betrachten, während Paßmann einfordert, dass die Medienwissenschaft neue und spezifische Kriterien benötigt, um ihre Valenz oder Glaubwürdigkeit zu prüfen, um nicht mit „zwielichtigen Agenten“ zu arbeiten. Diese Kriterien können, so Paßmann, zum Beispiel durch ethnografische Dokumentation des Handelns mit Daten entwickelt werden. (2) Big Data verdeutlicht einmal mehr, wie dezentralisiert analytischen Kompetenzen in der Medienwissenschaft sind und wie problematisch eine zu diskrete Trennung von Erhebung, Ergebnissen und Analyse in der Forschung ist. (3) Daten, Methoden und Analyseverfahren im Kontext von Big Data überschneiden nicht nur disziplinäre Grenzen, viel mehr bedienen sich akademische Projekte kommerzieller Daten, Tools und Algorithmen und vice versa. Daten und Methoden kommen mit unterschiedlichen Valenzen für MediennutzerInnen, für die Forschung, für Plattformbetreiber sowie für Werbende. Die Rolle von medienwissenschaftlicher Datenkritik könnte daher sein, die Performativiät von analytischen Gesten zu verfolgen und die unterschiedlichen Wert- und Sinnzusammenhänge, in die Big Data geführt werden zu erfassen.