2.4. Exkurs: Erhebung & Nachnutzung#

Da diese Fallstudie sich auf die Organisation, Aufbereitung und Publikation von Daten entlang des filmwissenschaftlichen SFB-Teilprojekts der FU konzentriert, werden hier lediglich einige gängige Methoden, Beispiele und Hinweise für die Datenerhebung vorgestellt - es besteht kein Anspruch auf Vollständigkeit.

2.4.1. Erhebung von Forschungsdaten#

Je nach technischem Erfahrungsniveau stehen unterschiedliche Methoden und Verfahren zur Verfügung, um Forschungsdaten in der Film- und Medienwissenschaft zu erheben oder zu generieren. Im Folgenden werden gängige Methoden vorgestellt.

Erhebung mit digitalen Annotationstools#

Niveau: Basis

Für filmanalytische Untersuchungen eignen sich insbesondere digitale Annotationswerkzeuge wie Advene, (zum Beispiel in Verbindung mit dem AdA-Toolkit), ELAN, VIAN oder FrameTrail.

Das Erstellen von Annotationsdaten erfordert i.d.R. nur begrenztes technisches Vorwissen. Die Handhabung kann auf Grundlage verfügbarer Manuals, Open Educational Resources oder Projektdokumentationen schnell erlernt werden. Die jeweiligen Plattformen bieten oftmals ausführliche Dokumentationen und Tutorials an.

../_images/abb_k02_ada_timeline.png

Fig. 2.5 Visualisierung von Annotationsdaten mit der AdA-Timeline#

Annotationen erstellen mit dem AdA-Toolkit

In unserer QUADRIGA Fallstudie: “Affektrhetorik in Online-Videos zur Klimakrise. Datengestützte Analysen audiovisueller Muster” wird gezeigt, wie mit der für die Filmanalyse entwickelten Analyseontologie AdA (Toolkit) in Advene Annotationsdaten erstellt und visualisiert werden können.

Data Dumps, APIs und SPARQL-Abfragen#

Niveau: Fortgeschritten

Neben eigenen Erhebungen können Forschungsdaten auch über bestehende Datenquellen und Datensammelbanken bzw. Plattformen gewonnen werden.

Hierzu zählen insbesondere:

  • Sogenannte Data Dumps offener Filmdatenbanken wie OMDB oder Movielens.

  • Ebenso bietet beispielsweise das Portal Wikidata mittes eines SPARQL-Endpoints semantische Abfragen an. Anleitungen und Abfragebeispiele sind in den Dokumentationen der Seite zu finden.

../_images/abb_k02_sparql_abfrage.png

Fig. 2.6 Beispiel einer SPARQL-Abfrage mit dem Schlagwort “climate change”#

Erhebung mit Webscrapingverfahren#

Niveau: Expert:in
Webscraping für fortgeschrittene Nutzer:innen mit Programmierkenntnissen (Python, R, JavaScript)

Webscraping ist ein Verfahren der automatisierten Extraktion von Daten aus Webseiten. Scraper - das sind Codeskripte - analysieren die HTML-Struktur einer Website und filtern bestimmte vorgegebene Informationen raus, die dann in einer Tabelle oder Datenbank (dataframe) strukturiert gespeichert werden können. Unter Berücksichtigung rechtlicher Vorgaben und der jeweiligen robots.txt kann Webscraping als digitales Verfahren eingesetzt werden, um beispielsweise Filmdaten zu extrahieren, die nicht über Schnittstellen oder offene Data Dumps zugänglich sind. In jedem Fall sind Lizenzbedingungen, Nutzungsrechte und Datenschutz zu prüfen, insbesondere wenn Daten kommerzieller Anbieter (z. B. IMDb, TMDb) nachgenutzt werden sollen.

../_images/abb_k02_webscraping.png

Fig. 2.7 Illustratives Beispiel eines Webscraping-Skripts#