Andere Highlights#

Neben den thematischen Schwerpunkten, die ich mir gesetzt habe, gab es auch viele weitere spannende Beiträge, die ich nicht unerwähnt lassen möchte. Gerade bei Vorträgen, bei denen ich eher zufällig war (beispielsweise, weil andere Sitzungen schon komplett “ausgebucht” waren), habe ich viele Impulse für mich mitgenommen – ganz im Sinne der Suchstrategie des Browsings, die zu Serependität führt (wie das Anna Schlander in ihrem Vortrag wunderbar ausgeführt hat).

Keynote: Data As _______: Exploring the Plurality of Data in Visualization (Miriah Meyer)#

In ihrer Keynote plädierte Miriah Meyer dafür, Daten nicht (nur) als neutrale, objektive Grundlage zu verstehen, sondern als vielschichtiges, mit Geschichte, Technologie und Menschen verwobenes Material, das Macht ausübt und immer eine Perspektive trägt. Vorgestellt wurde dabei insbesondere das didaktisch interessante Konzept des Data Crafting – also das bewusste, handwerkliche Gestalten und Visualisieren von Daten als Reflexionsprozess, der Datenkompetenz fördern kann.

Doctoral Consortium: Die Vergangenheit umgibt uns – Digitalisiertes Kulturerbe durch situierte Visualisierung vor Ort erfahrbar machen (Markus Passecker)#

Markus Passecker beschäftigt sich mit der Frage, wie die großen Mengen digitalisierten Kulturerbes, die heute in Online-Sammlungen verfügbar sind, wieder in ihren ursprünglichen räumlichen Kontext zurückgebracht werden können. Sein Ansatz setzt auf situierte Visualisierung und Mixed Reality: Digitale Objekte werden nicht im Museum oder am Bildschirm betrachtet, sondern an relevantem Ort erfahrbar gemacht – von der gezielten Erkundung bis zur zufälligen Entdeckung. Am Beispiel des Projekts Mapping Austrofascism wurden dabei praktische Herausforderungen greifbar, etwa die Reduktion von Visual Overload durch Filtering und räumliche Verschiebungen oder die Erkennung sicherer Zonen für die Overlay-Platzierung. Er stellt die Frage nach einer angemessenen Evaluierungsstrategie – ob also Nutzerengagement, emotionale Verbundenheit oder Erinnerungsleistung der geeignetere Maßstab für solche immersiven Kulturerbe-Erfahrungen ist.

Zwischen Struktur und Überraschung – Gestaltung explorativer Suchfunktionen für digitale Korpora (Anna Schlander)#

Anna Schlander näherte sich der Frage, wie explorative Suche in digitalen Korpora gestaltet werden kann, vom Konzept des Browsings aus – verstanden nicht als zielloses Stöbern, sondern als eine Form der Recherche, bei der Suchkriterien nur teilweise bekannt sind und Neugier und Serendipität bewusst als Motivation einbezogen werden. Am Beispiel des PubMed Cliques Explorers zeigte sie, wie sich solche Prinzipien technisch umsetzen lassen: Ein graphbasierter Workflow – von CSV über RDF bis zur algorithmischen Detektion dichter Subgraphen – macht es möglich, thematische Cluster zu erkunden.

Warum wir in den Digital Humanities messen (sollten) (Evelyn Gius)#

Evelyn Gius argumentierte, dass Messen in den Digital Humanities – verstanden als die Transformation empirischer Eigenschaften in Information – eine sinnvollere Rahmung bietet als der klassische Begriff der Operationalisierung, da er Unsicherheiten explizit mitdenkt. Besonders interessant für mich war hier das Beispiel von Sentiment-Analyse und LLMs, wo vielfältige Messunsicherheiten (bezüglich Instrument, Kalibrierung, Interaktion und Skalierung) lauern. Deren bewusste Reflexion sollte jedoch nicht als Problem, sondern als strukturierendes Prinzip für den geisteswissenschaftlichen Analyseworkflow verstanden werden.

The Dialogue between Reason and Intuition in Contemporary Philosophy (Maximilian Noichl, Simon DeDeo)#

Maximilian Noichl und Simon DeDeo untersuchten, wie zwei grundlegende Modi philosophischen Arbeitens – das Aufstellen von Argumenten und Positionen einerseits (reason), das Entwickeln von Intuitionen durch Metaphern und Gedankenexperimente andererseits (intuition) – in philosophischen Texten zusammenspielen und welcher der beiden stabiler ist. Methodisch interessant war die Kombination aus GPT-4o-basierter Annotation, einem eigens trainierten ModernBERT-Modell und KNN-Graphen zur Zusammenführung referenzierter Positionen und Beispiele über einen Korpus von JSTOR-Philosophietexten ab 1950 – ein Workflow, der zeigt, wie leistungsfähig hybride Ansätze aus klassischem NLP und generativen Modellen für geisteswissenschaftliche Fragestellungen sein können.

Projektmanagement als Methode (Julia Alili)#

Julia Alili argumentierte, dass Projektmanagement in den Digital Humanities nicht bloß organisatorisches Beiwerk ist, sondern als genuine wissenschaftliche Methode verstanden werden sollte. Ausgehend von typischen Herausforderungen in DH-Projekten – Interdisziplinarität, uneinheitliche Begrifflichkeiten, lückenhafte Dokumentation – plädierte sie für eine Adaption agiler Ansätze, bei der Fortschritt nicht in funktionierender Software gemessen wird, sondern in neuen Erkenntnissen, Standards und Dokumenten. Wichtig ist hier die Idee eines kontinuierlichen Wissensspeichers durch Requirements Engineering: Glossare, Entscheidungsbegründungen und Versionierungen schaffen Transparenz und machen Projektentscheidungen nachvollziehbar. Diese agile Form von DH-Projektmanagement möchte sie konsequenterweise auch in der DH-Ausbildung verankert sehen.