6.3. Annotationsergebnisse: Datenabgleich und -erläuterung#

Sobald die Annotationsarbeit für das Video abgeschlossen ist, kann das Paket mit unserer Musterlösung verglichen werden. Die Lösungsdatei steht hier zum Download bereit. Bitte beachten Sie, dass die Videodatei stets neu verknüpft werden muss, um das Video in der Anwendung abspielen zu können.

Wichtig

Trotz der Verwendung der Ontologie können sich Annotationsentscheidungen von Person zu Person unterscheiden. Wichtig ist, dass die Ergebnisse miteinander verglichen werden können. Punktuelle Erläuterungen unserer Entscheidungen werden in diesem Kapitel ausgeführt.

6.3.1. Importfunktion#

In Advene gibt es die Möglichkeit ein bestehendes Annotationspaket in ein anderes zu importieren.

Wofür kann in diesem Schritt die Importfunktion nützlich sein?

Ein ausführlicherer Guide für das Importieren findet sich sowohl unter Punkt 3.3 (S. 45ff) im Manual als auch im zweiten Videotutorial (Video: Packages: Splitting, Merging, Importing)

Aufgabe 1#

Übungsaufgabe

Ziel: Vegleich und Analyse verschiedener ontologiebasierte Annotationspakete in Advene

Aufgabe:

  1. Laden Sie die Musterlösung herunter

  2. Verknüpfen Sie die Videodatei neu für die korrekte Wiedergabe

  3. Nutzen Sie die Importfunktion, um Ihr eigenes Annotationspaket mit der Musterlösung zu vergleichen

  4. Vergleichen Sie anschließend Ihre Annotationsergebnisse und -entscheidungen mit der Musterlösung

Bearbeitungzeit: Ca. 20 Min.

6.3.2. Error-Package: Fehlersuche & Korrektur#

Im Folgenden steht hier ein Annotationspaket bereit, das einige Fehler enthält.

Aufgabe 2#

Übungsaufgabe

Ziel: Identifikation und Behebung von Fehlern in einem Annotationspaket

Aufgabe:

  1. Laden Sie das fehlerhafte Annotationspaket herunter

  2. Nutzen Sie die zuvor erlernte Importfunktion für den Vergleich

  3. Identifizieren Sie alle Fehler

  4. Korrigieren Sie die gefundenen Fehler mit den passenden Advene-Werkzeugen

Bearbeitungzeit: Ca. 25-30 Min.

Welche Fehler konnten gefunden werden?

Wie können die Fehler korrigiert werden?

6.3.3. Diskussion der Ergebnisse#

Mit der AdA-Filmontologie kann ermöglicht werden auf der Grundlage eines Klassifikationsschemas filmanalytische Beobachtungen zu systematisieren. Die Systematisierung ist also ein notwendiger Schritt, um Metadaten einerseits unter ganz spezifischen Kriterien herzustellen als auch anschließend vergleichen zu können.

Ziel dieser Fallstudie ist es in einem nächsten Schritt durch die Visualisierung dieser Metadaten audiovisuelle Inszenierungsmuster zu analysieren und als Affekrhetorik zu qualifizieren. Doch bevor wir uns der eigentlichen Analyse widmen, wollen wir die Ergebnisse der Annotationsarbeit diskutieren. Denn Annotationsentscheidungen sind nicht immer selbsterklärend. Und auch eine Ontologie kann ihre Grenzen aufweisen.

Für die Diskussion gehen wir nachfolgend punktuell auf konkrete Probleme und Fragen ein, die während des Annotierens aufgekommen sind. Da eine ganzheitliche Diskussion aller Annotationsentscheidungen und Schritte den Rahmen dieser Übungen sprengt, adressieren wir hier die wichtigsten.

Annotationstyp: Field Size (Einstellungsgröße)#

Die Frage nach dem Referenzobjekt zur Bestimmung der Einstellungsgröße ist nicht immer eindeutig. Dies gilt insbesondere für die Einstellungen, die 2D animiert sind oder in denen eine Frame-in-Frame Anordnung zu sehen ist.

Bei Einstellungen also, in denen die Bestimmung des Referenzobjekts zur Messung der Einstellungsgröße unklar blieb, haben wir den Wert ‘neither’ eingetragen, wie beispielsweise hier:

../_images/A4-S04.png

Die UUID dieser Annotation ist folgende: 0aac70ea-219b-11ef-9bca-90b11c948b9a

Warum ist die Festlegung auf einen Wert in dieser Einstellung schwierig?

2D-Animationen#

Bei multiplen und/oder simultan auftretenden Animationselementen sieht es ähnlich aus. Es gibt keine klaren Relationen oder Anhaltspunkte im Raum, durch die eine Skalierung zur Bestimmung einer Einstellungsgröße nach bekannten Systemen möglich wäre, wie es bei dieser Annotation mit der UUID 3fbfc132-00a8-11ef-a9a8-001c42d38318 der Fall ist:

../_images/A4-S05.png

In diesem Beispiel wäre die Möglichkeit für ein kontrastierendes Syntaxelement wie [VS] ebenfalls sinnvoll, da durch die Trennung der verschiedenen Bildgrenzen multiple Elemente zu sehen sind. Wir haben uns für die Werte ‘neither’ sowie ‘extreme long shot’ entschieden. Der Wert ‘extreme long shot’ ist anwendbar auf das rechte Bild im animierten Splitscreen. Die Referenzobjekte zur Bemessung der Entfernung sind hier die Kräne.
Dort, wo Fragen nach Skalierungen und Referenzbestimmungen komplexer werden, zeigen sich jedoch gleichzeitig auch die Grenzen einer Ontologie.

Frame-in-Frame#

In Bezug auf die Frame-in-Frame-Einstellungen gilt folgende Entscheidung innerhalb unseres Workflows:

Sowohl der äußere Rahmen als auch das in diesem Rahmen eingesetzte Bild können als Referenzobjekt bestimmt werden. Daher haben wir uns für den Wert ‘neither’ und dem Wert für die Einstellungsgröße entschieden, der aus dem zweiten Frame hervorgeht. Ein Annotationsbeispiel mit den Werten ‘neither’ und ‘medium close up’ ist hier und unter folgender UUID 3fc06a7e-00a8-11ef-a9a8-001c42d38318 zu sehen:

../_images/A4-S06.png

Annotationstyp Setting#

Das ‘Setting’ wird innerhalb der Ontologie als Ort des narrativen Handlungsgeschehens definiert. Doch wie geht man mit Einstellungen um, die nur schwer narrativ zu fassen sind und deren örtliche Bestimmung kaum möglich ist?

In Bezug auf unser Beispielvideo betrifft dies insbesondere jene Einstellungen, die 2D animiert sind. Denn dort beziehen sich die animierten Elemente – insbesondere die Schriftzüge, die Nummerneinblendungen oder die Simulationen der Weltkugel – auf keine realen Verhältnisse oder räumlichen Anordnungen. Bei Einstellungen, in denen das Setting nicht ohne weiteres bestimmbar war, haben wir keine Annotationen erstellt. Diese leeren Abschnitte verweisen insofern direkt auf die Grenzen bzw. Leerstellen der Ontologie. Folgende Annotation unter der UUID
860166ff-21a4-11ef-a632-90b11c948b9a macht dieses Problem exemplarisch sichtbar:

../_images/A4-S07.png

Annotationstyp: Recording/Playback Speed#

Durch den Annotationstyp Recording/Playback Speed kann die Aufnahmegeschwindigkeit erfasst werden. Es gibt Annotationen von sehr kurzer Dauer, die einen Timelaps markieren. Definiert wird der Timelapse folgendermaßen:

Noticeable acceleration of the viewers’ time perception. Movements appear as unnaturally fast. Objects, such as plants, that may otherwise be perceived as static can get animated through this technique in comparison to everyday perception.

In diesem Screenshot ist die Erfassung solcher Timelapse in der Timeline zu sehen:

screenshot-A4-S08

Die dazugehörigen Annotationen können unter folgenden UUIDs gefunden werden: 87b572d2-1dbb-11ef-a911-90b11c948b9a sowie ab1283ac-1dbb-11ef-b029-90b11c948b9a

Den dazugehörigen Video-Ausschnitt blenden wir hier nochmals ein:

Advene-Timeline und Weiterentwicklung der Timeline#

Die Timeline in Advene ist bereits eine Form von Visualisierung, mit der Inszenierungsmuster erkennbar werden. Was die Synchronizität, Temporalität und Multimodalität der einzelnen Spuren angeht, ist sie jedoch nur begrenzt lesbar. Eine speziell entwickelte Visualisierung, die diese Dynamiken unter der Möglichkeit spezifischer Konfigurationsoptionen ins Zentrum der Analyse rückt, ist also ein wichtiger Schritt zur Anpassung der Datenqualifizierung an die konkreten Anforderungen filmwissenschaftlicher Analyse.

Eine ausführliche Datenexploration sowie Hypothesenpräsentation führen wir dahingehend mit der AdA-Timeline im Kapitel Datenvisualisierung durch.

6.3.4. Miteinbeziehung weiterer Annotationstypen#

Für eine präzise und vollständige Annotation empfiehlt es sich mit allen Annotationstypen der Ontologie zu arbeiten. Da die Annotation aller Typen der Ontologie weitaus mehr Zeit in Anspruch nimmt als im Rahmen der Übungen vorgesehen, haben wir uns für die Annotation mit dem AdA Core-Template entschieden.

Wie sieht jedoch mit den Annotationstypen ‘Splitscreen’, ‘Frame-in-Frame’ oder ‘Visual Pattern’ aus? Inwiefern könnten diese Typen die spezifischen Charakteristika unseres Beispielgegenstandes hervorheben?

Splitscreen#

Eine sehr dominante und für das Video entscheidende Inszenierungsmodalität ist die Verwendung von Splitscreens. Insgesamt zwei Splitscreens werden in den Animationsabschnitten eingesetzt und sind in ihrer Darstellung identisch.

screenshot-A4-S09

In den je abgetrennten Screens werden die drei kritischen Zahlen für eine Einhaltung der 2-Grad-Grenze in Bezug auf den Co2-Austoß als visuelle Einheit inszeniert.

Durch die Miteinbeziehung der Annotationstypen für Splitscreens könnten die Häufigkeit, die Anzahl der verwendeten Splitscreens innerhalb einer Einstellung und darüber hinaus die Splitscreen-Dynamiken erfasst werden.

Frame-in-Frame#

Die auffälligsten Frame-in-Frame Kompositionen finden sich in den Einstellungen, die Found Footage Material einbinden. Die Frame-in-Frame Anordnung markiert somit einen klaren visuellen Bruch in der gesamten Bilddynamik und ordnet das gezeigte Material in den Verwendungszusammenhang des Videos ein.

../_images/Found-Footage-Reihe.png

Ebenso könnte diskutiert werden, inwiefern sowohl die Frame-in-Frame Einbindungen des Found Footage Materials als auch die animierten Einstellungen Teil des Vortragsarrangements auf der Bühne sind, wie in dem ersten Bild der Reihe als auch in diesem diesem Beispiel zu sehen ist:

../_images/A4-S10.png

Sichtbar hier wird eine Screen-within-Screen Gestaltung, die unter dem Annotationstyp Frame-in-Frame ebenfalls Berücksichtigung findet und annotiert werden kann.

Eine freitextliche Erhebung von Frame-in-Frame Kompositionen könnte die spezifischen Modalitäten dieser Inszenierungsmuster für eine Datenanalyse insofern sinnvoll ergänzen.

Visual Pattern#

Unter dem Annotationstyp ‘Visual Pattern’ werden abstrakte Muster oder Formen erfasst. Insbesondere in den animierten Einstellungen könnten unter Miteinbeziehung dieses Annotationstyps grafische Elemente, Synchronizitäten von Mustern und abstrakte Visualisierungsstrukturen bestimmt werden. Ein Beispiel für eine Annotation der Werte ‘centre Figure, circular’ wäre folgende Ansicht:

../_images/A4-S11.png

Insgesamt bietet das Framework der Ontologie sehr umfangreiche und spezifische Annotationsoptionen, die an den zu untersuchenden Gegenstand angepasst und jederzeit erweitert werden können. Dies ermöglicht die Herstellung feingliederiger Mikroanalysen auf der Basis von allumfassenden Annotationsdaten.