„Von Ort zu Ort: Digitales Edieren von Reisenarrativen – Neue Perspektiven“ am IOS Regensburg

Am 1. und 2. Februar 2024 fand am Leibniz-Institut für Ost- und Südosteuropaforschung (IOS) in Regensburg der Workshop „Von Ort zu Ort: Digitales Edieren von Reisenarrativen – Neue Perspektiven“ statt, der vom DFG-geförderten Forschungsprojekt „Digitale Editionen Historischer Reiseberichte“ (DEHisRe) organisiert wurde. Der Workshop konzentrierte sich auf die Rolle von Annotationen als Orientierungshilfen in der digitalen Informationslandschaft, wobei insbesondere Ansätze der Textkodierung mit TEI für die Digitalisierung historischer Reiseberichte im Fokus standen. 

Die Tagung begann mit einer Begrüßung und Einführung durch Sandra Balck und Jacob Möhrke vom IOS Regensburg.

Jörg Wettlaufer (NAWG Göttingen), Tarjia Alam Nisha (Universität Göttingen) und Franziska Pannach(Groningen University) präsentierten alte und neue Methoden zur Erkennung und Visualisierung von Itineraren in mittelalterlichen und neuzeitlichen Reiseberichten. Es wurde eine Annotationsrichtlinie zur Auszeichnung von Beziehungen zwischen Personen, Orten und Ereignissen vorgestellt. Durch die Nutzung eines Open AI Custom-GPT mit trainierten Beispieltexten sollen historische Ortsbezeichnungen und komplexe Beziehungsstrukturen automatisiert erkannt und geocodiert werden. Die Herausforderung besteht hierbei darin, die zahlreichen genannten Orte nicht nur zu identifizieren, sondern auch zu unterscheiden, ob sie tatsächlich besucht oder nur erwähnt wurden. Hier müssen Korrekturen noch von Hand vorgenommen werden. Die bisherigen Erfahrungen mit Large Language Models (LLMs) zeigten gute Fähigkeiten im Bereich der Named Entity Recognition (NER), jedoch Schwierigkeiten bei größeren Textmengen.

Anna-Lena Schumacher (Institut für vergleichende Städtegeschichte Münster) präsentierte das Projekt HisMaComp (Historical survey maps and the comparative study of the functionality and morphology of urban space), das vom Institut für vergleichende Städtegeschichte Münster und der Uniwersytet Mikołaja Kopernika Toruń durchgeführt wird. Das Projekt erfasst städtische Objekte aus historischen Katastern und Stadtkarten und analysiert deren topographische und semantische Eigenschaften. Herausforderungen bestehen in der Erfassung und Kartographierung historischer Ortsdaten mithilfe von GIS und der Erstellung einer umfassenden Ontologie.

Maria Dötsch und Matthias Bremm (TCDH / Universität Trier) zeigten die kultur- und sprachhistorische Annotation eines spätmittelalterlichen Reiseberichts im Forschungsnetzwerk und Datenbanksystem FuD der Universität Trier, das Transkription und Annotation historischer Texte ermöglicht. Der im moselfränkischen Dialekt verfasste Pilgerbericht des Koblenzer Bürgers Peter Fasbender, der Anmerkungen von unbekannter zweiter Hand enthält, ist ein seltenes Beispiel eines bürgerlichen Selbstzeugnisses aus der Region Mosel. Die Edition strebt eine synoptische Präsentation mit Unterscheidung der verschiedenen Annotationsebenen an, wobei der Index in den Text eingebettet werden soll. Ferner soll eine Übertragung sowie eine Vertonung beigefügt werden, um den moselfränkischen Dialekt erlebbar zu machen. Als herausfordernd wurde die genaue Erfassung von Dialekten und die Verknüpfung von Metadaten mit Normdaten betrachtet.

Marc Lemke und Nils Kellner (Universität Rostock) stellten den Workflow im DFG-Projekt Computational Approaches to Narrative Space in 19th and 20th Century Novels (CANSpiN) vor. Das Projekt CANSpiN befasst sich mit der Annotation und automatischen Erkennung räumlicher Ausdrücke in literarischen Texten. Als Korpus dienen jeweils 300 Romane in deutscher und spanischer Sprache, wobei für die Auswahl entscheidend war, ob der Text für XML TEI verfügbar ist, da das Projekt auf vorhandene Digitalisate zurückgreifen muss. Ziel ist es, die räumliche Struktur der erzählten Welt darzustellen und die narrative Funktion raumreferentieller Ausdrücke zu analysieren. 

Christopher Zoller-Blundell und Nicolau Lutz (Eisenbibliothek Schlatt, Schweiz) präsentierten die digitale Edition der (Reise-)Tagebücher des Metallurgen Johann Conrad Fischer (1773-1854), der zwischen 1794 und 1851 ausgedehnte technologische Reisen insbesondere nach England unternommen hatte. Das Ziel war es, Johann Conrad Fischer als einen Augenzeugen der Industriellen Revolution sichtbar werden zu lassen und wohl auch einen Beitrag zur Unternehmensgeschichte der Georg Fischer AG zu leisten. Für die Illustration der Edition wurden manuelle Bildersuchen mittels Google vorgenommen oder auf die Beständen der Welcome Collection zurückgegriffen. Hierbei erwies sich als problematisch, dass technische Begriffe zur Entstehungszeit der Tagebücher noch nicht vorhanden bzw. nicht normiert waren.

Michela Vignoli (AIT Wien) stellte das Projekt „Ottoman Nature in Travelogues, 1501–1850: A Digital Analysis (ONiT)“ der Österreichischen Akademie der Wissenschaften vor. Das Korpus umfasst etwa 2500 zwischen 1500-1850 entstandene Druckschriften. Durch den Einsatz von KI und contrastive learning models sollen intermediale semantische Suchen ermöglicht und soziokulturelle Konzepte identifiziert werden. Die Herausforderungen liegen in der detaillierten Erkennung von Bildelementen bei der Bildextraktion und der Validierung der Modelle.

Wege in die computationale Editionswissenschaft vom Glyphen hin zu Graphen zeigte Elisa Cugliana(Universität Köln) auf. Bei der Herausgabe von Editionen als Daten bzw. Interfaces monierte sie etwa die reduzierte Nachvollziehbarkeit von Transkriptionsentscheidungen.  Potentiale der Digitalität würden noch nicht ausgeschöpft. Sie plädierte für einen computationalen Ansatz, der semantische Annotationen auf multiplen, nicht hierarchischen Ebenen vornimmt. Aktuell arbeitet sie an einer Edition des mittelalterlichen Losbuches „Prenostica Socratis Basilei“, der in der BSB München verfahrt wird. Da Losbücher nicht linear gelesen werden, sondern eher als interaktives Spiel zu betrachten sind, benötigt sie eine Technologie, die Sub- und Superstrukturen im Text erkennt und Text und Dokument granular beschreibt. Daher erhält jeder Buchstabe eine eigene URN, um die Editionsentscheidungen transparent zu machen. 

Andreas Kuczera (THM Gießen) sprach zu digitalen Editionen als Netzwerke von Texten. Ausgehend von Eulers Königsberger Brückenproblem erläuterte er die Anwendung von Labeled Property Graphs zur Analyse hochvernetzter Daten. Er stellte insbesondere das laufende Projekt der graphbasierten digitalen Edition der sozinianischen Briefwechsel vor. Hierbei handelt es sich um eine transnationale protestantische Minderheit, deren wissenschaftliches Netzwerk als voraufklärerisch bezeichnet werden kann. Die Edition der etwa 2000 überlieferten Briefe, die aus den Jahren 1580 bis 1740 stammen, bietet mittels einer textkritischen Kommentierung und Regesten auch Auswertungsmöglichkeiten über eine Verschlagwortung der edierten Texte, was Diskurse nachvollziehbar machen soll.

Ingo Frank (IOS Regensburg / HAB Wolfenbüttel) sprach zur frühneuzeitlichen Verkehrsinfrastruktur im Heiligen Römischen Reich Deutscher Nation und ihre geleitrechtlichen Eigenheiten. In diesem Zusammenhang präsentierte er das Projekt Digitale Kartenwerkstatt Altes Reich (DigiKAR), das Konzepte zur Erfassung, Modellierung und Visualisierung von frühneuzeitlichen Geodaten erprobt. Der Fokus liegt zum einen auf der semantischen Annotation historischer ortsbezogener Informationen und zum anderen auf der prosopographischen Untersuchung geografischer und sozialer Mobilität.
Hierbei wird ein punktbasierter Ansatz verfolgt, der z.B. kirchliche oder grundherrschaftliche Zugehörigkeiten jenseits der Flickenteppichkarten aufzeigen möchte.
Die Tagung verdeutlichte die vielfältigen Möglichkeiten und Herausforderungen der digitalen Edition von Reisenarrativen. Automatisierte Methoden zur Erkennung und Visualisierung von Itineraren sowie die Nutzung von Annotationstools und KI bieten zwar neue Perspektiven, erfordern jedoch auch sorgfältige (manuelle) Kontrolle und Validierung. Die Integration von GIS und Ontologien in die historische Forschung ermöglicht eine tiefere geosemantische Analyse, stellt jedoch hohe Anforderungen an die Datenqualität u