Auf dieser Seite werden derzeit laufende sowie abgeschlossene Master-Arbeiten im Fach Digital Humanities beschrieben. Bitte beachten Sie auch die Hinweise zu schriftlichen Arbeiten im Fach Digital Humanities.

Aktuell ausgeschriebene Masterarbeits-Themen

Sie suchen nach einem Thema für Ihre Master-Arbeit? Meistens definieren die Studierenden selbst ein von Ihnen gewähltes Thema. Wir schreiben aber auch gelegentlich Themen für Master-Arbeiten aus. Falls Sie sich für eines der aktuellen Themen interessieren, schreiben Sie bitte an: Christof Schöch (schoech@uni-trier.de).

  • Historische Weinetiketten der Moselregion: Publikation, Kartierung, Analyse und/oder Vernetzung. Das Thema knüpft an ein laufendes Forschungsprojekt zu Weinetiketten des Trier Center for Digital Humanities an. Ein vorliegender, digitaler Bestand an Weinetiketten soll ggfs. erweitert, in einem geeigneten Datenbanksystem publiziert und je nach Interesse im Rahmen der Arbeit mit anderen Datenbeständen vernetzt, für die Erschließung kartiert, oder in sprachlicher, visueller oder statistischer Hinsicht analysiert werden. Das Thema kann je nach Interesse genauer definiert werden. 
  • Rauminformationen in literaturhistorischer Fachliteratur: Annotation, Modellierung und Analyse. Dieses Thema für eine Masterarbeit ist im Kontext des Projekts Mining and Modeling Text angesiedelt. Konkret geht es darum, in bereits digital vorliegender literaturgeschichtlicher Fachliteratur räumliche Entitäten (insbesondere Ortsnamen) zu identifizieren und zu annotieren und deren Relationen zu anderen Entitäten (wie Autor/innen und literarische Werke) zu modellieren sowie zu analysieren und/oder zu visualisieren. Denkbare Relationen sind u.a. Handlungsort, Publikationsort, oder Entstehungsort eines Werks oder Geburtsort, Aufenthaltsort einer Person. Je nach Vorkenntnissen und Interessen ist auch die automatische Erkennung der Ortsnamen (über Named Entity Recognition) und/oder der Relationen (durch domänenspezifisches Information Retrieval) denkbar.

Derzeit laufende Master-Arbeiten

Abgeschlossene Master-Arbeiten

Luisa Schmidt: „Topic Modeling the DHd – Insights on Topics, Methods and Authors“

Die Thesis untersucht am Beispiel der Digital Humanities im deutschsprachigen Raum (DHd), wie zukunftsbeständig die Digital Humanities (DH) als eigenständige Disziplin sind. Da diese Fragestellung bisher wenig in den DH reflektiert wurde, dient die Thesis der ausführlichen und explorativen Selbstbetrachtung. Unter der Anwendung von Topic Modeling auf einen Korpus aus DHd-Konferenzabstracts werden zentrale Aspekte der DHd analysiert. So soll die Erfüllung von maßgeblichen Kriterien akademischer Disziplinen bewertet werden.

Im Praxisteil der Thesis wird der Korpus mit NLP-Methoden wie Lemmatisierung, TF-IDF-Gewichtung und der Erstellung von n-Grammen für das Topic Modeling vorbereitet. Das Topic Modeling wird mit dem Algorithmus Latent Dirichlet Allocation durchgeführt, wofür für verschiedene Parameter die besten Einstellungen getestet und festgelegt werden.

Die darauf aufbauende Analyse zeigt, dass die DHd die Kriterien der Tradition und Institutionalisierung sowie des sozialen Fokus in hohem Maße erfüllt, hinsichtlich anderer Merkmale aber eher schlecht abschneidet. Die Beurteilung der Abgrenzbarkeit gegenüber den Geisteswissenschaften sowie des kognitiven Fokus ergeben, dass diese Kriterien nur zum Teil abgedeckt werden. In Bezug auf eigene Forschungsobjekte und fachspezifisches Wissen zeigt die Analyse deutlich auf, dass sie wenig bis garnicht gegeben sind.

Insgesamt führt die Gesamtbetrachtung der Merkmale zu dem Schluss, dass die DH langfristig keine Zukunft in der Forschungslandschaft haben wird, da es deutlich an eigener Positionierung und Differenzierung gegenüber anderen Disziplinen mangelt.

Betreuung: Dr. Joëlle Weis, Prof. Dr. Christof Schöch

Isabel Hansen: "Named Entity Recognition - Einsatz und Verwendung der Technologie in den Digital Humanities "

Im Fokus der Masterarbeit steht das Verfahren Named Entity Recognition (NER), welches der computerlinguistischen Methode Natural Language Processing (NLP) zugeordnet wird. Mit dem Verfahren können klar benennbare Elemente  (z.B. Personen, Orte, Organisationen, Werke) in einem Text automatisch markiert und ihrer entsprechenden Kategorie zugeordnet werden. Entwickler haben sich beim Training von solchen NER-Modellen allerdings hauptsächlich auf moderne und englischsprachige Texte konzentriert. Besonders bei historischen Texten schneiden NER-Modelle nicht so gut ab.

Ziel dieser Arbeit sollte es daher sein, einen Einblick in den Bereich NER  in den Digital Humanities zu geben. Es sollten die Möglichkeiten, Nutzen und Grenzen von NER innerhalb der Digital Humanities aufgezeigt werden. Im Mittelpunkt der Arbeit steht die praktische Anwendung von NER mit historischen Texten. Hier sollten Standardmodelle getestet sowie ein eigenes Modell trainiert werden. Dabei sollte die Methode der NER-Tools besonders im Hinblick auf historische Texte kritisch hinterfragt werden. Um einen Mehrwert für die DH-Community zu schaffen, sollte der NER-Workflow des Fallbeispiels in Form eines Web-Tutorials für die Öffentlichkeit zur Verfügung gestellt werden.

Betreuung: Prof. Dr. Christof Schöch und Dr. Joëlle Weiss

Aleksey Woratsch: Medienlandschaft in Deutschland: Wie hat sich die Berichterstattung  der deutschen Leitmedien in der Corona-Krise verändert?

Anne Königs: „Panels, Pixels and Artists Evolving: Quantitative Bildanalyse von Webcomics mit Python

Katharina Brückmann: Erstellung eines Korpus deutschsprachiger Reiseblogbeiträge mittels Python

Tamara Schuster: „Das digitale Rattennest – Digitalisierung, Transkription, Auszeichnung und Erschließung verschiedener Fassungen von Oskar Wöhrles „Das Rattennest“ aus seinem literarischen Nachlass sowie Konzeptionierung und Implementierung einer digitalen Textedition“

Die Digitalisierung bietet zuvor nie dagewesene Chancen, den Zugang zu archivalischen Quellen zu dezentralisieren und sie für die Forschung aufzubereiten. Beispielhaft geschieht das im Rahmen dieser Masterarbeit in der Erstellung einer digitalen Textedition, die sich einem Teilbestand des sich im Besitz des Literaturarchiv Saar-Lor-Lux-Elsass befindlichen Nachlasses des Autors Oskar Wöhrle widmet, namentlich „Das Rattennest“ in seinen verschiedenen überlieferten (Teil)-Fassungen. Die Archivalien werden digitalisiert, transkribiert und unter Anwendung der TEI-Richtlinien mit XML ausgezeichnet sowie mit Metadaten angereichert. Mithilfe bestehender Tools sowie eigener, auf JavaScript basierenden Komponenten werden die Ergebnisse kollationiert und erhalten Visualisierungsmöglichkeiten die erlauben, die Veränderung des Textes während seines Lebenszyklus von der Ur- bis zur veröffentlichten Fassung nachzuvollziehen sowie unterschiedliche Bearbeitungsphänomene quantitativ aufzuzeigen. Die so entstandene digitale Textedition wird durch einen intuitiv nutzbaren, möglichst barrierefreien Webauftritt abgerundet.

Betreuung: Prof. Dr. Christof Schöch und Dr. Claudia Bamberg

Ruth Bruchertseifer: „Semantische Modellierung komplexer Personendaten von Juden des 13. und 14. Jahrhunderts aus dem aschkenasischen Raum mit Linked Open Data“

2021 ist die Digitalisierung in den Geisteswissenschaften längst keine Randerscheinung mehr. Auch in den Geschichtswissenschaften wurden und werden zunehmend Daten online bereitgestellt und digitalisiert. Ein solches Unternehmen wurde auch im Corpus der Quellen zur Geschichte der Juden im spätmittelalterlichen Reich (http://www.medieval-ashkenaz.org/) realisiert. Angesichts der wachsenden digitalen Datenmengen müssen darüber hinaus Möglichkeiten mitgedacht werden, diese Daten effizient nutzbar zu machen. In diesem Zusammenhang gewinnt seit etwa fünfzehn Jahren das Konzept von Linked (Open) Data an Bedeutung.

Im Blick auf die Quellen zur Geschichte der Juden im Mittelalter ist die Aufbereitung der Personendaten von besonderem Interesse. Ziel dieser Arbeit ist es daher, ein erstes Personendatenmodell in der Ontologiesprache OWL zu entwickeln. Einen Schwerpunkt dieses Modells bilden die Personennamen als Hauptidentifikator der Personen in den Quellen. Insbesondere die Modellierung der Namen wird folglich speziell auf die im Corpus enthaltenen Daten zugeschnitten. Um die Vernetzung mit externen Beständen im Sinne von Linked Data zu gewährleisten, werden die spezifischen Modellierungen anschließend in die allgemeine Struktur eingepasst, welche das als Standard für Darstellung von Daten rund um das kulturelle Erbe bereitstehende CIDOC Conceptual Reference Model CRM vorsieht.

Betreuung: Prof. Dr. Christof Schöch und Dr. Christoph Cluse

Henning Gebhard:"Building a TEI-driven online tool for authoring, submitting and publishing of conference abstracts based on Fidus Writer"

Collaborative authorship, the future of (digital) publishing and challenges of long-term digital preservation have been a key field of research in the DH for a long time now. The community has established TEI XML as a suitable source format for these use cases and utilizes it for e.g. the abstracts of its conferences DH and DHd. However, XML is not the most convenient format for most endusers and is seldomly used when initially authoring a scientific paper. The current solution, i.e. to use an online tool to convert various office document formats to TEI, is error prone and in part inconvenient for users as well as for administrators.
This research paper evaluates the feasibility of an web based editor for both the authoring process as well as the submission of abstracts for DH conferences. Subsequently, I will build a working prototype based on the open source online editor Fidus Writer. This needs to have the capabilities to record all the required document meta data. It can then export a standards-compliant TEI version of the document suitable for both archiving purposes and for further use in existing publishing pipelines.

Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch

Martin Kocula: "Volltext vs. abgeleitetes Textformat: Systematische Evaluation der Performanz von Topic Modeling bei unterschiedlichen Textformaten"

Abgeleitete Textformate bergen das Potenzial allgemein verfügbare Korpora zu erstellen und zu publizieren, die urheberrechtlich weitgehend unbedenklich sind. In dieser Masterarbeit werden Hypothesen über die Eignung dieser Textformate für Topic Modeling aufgestellt und überprüft. Hierfür wird eine in Python geschriebene Pipeline implementiert, die den Volltext schrittweise in mehrere Korpora Textformate umgewandelt und daraus Topic Modelle erzeugt. Anschließend werden zur Bewertung der Topics ihre Kohärenzen errechnet und verglichen. Das verwendete Korpus besteht zum Zwecke der Nachvollziehbarkeit aus gemeinfreien Texten aus dem 19. und 20. Jahrhundert.

https://www.parsqube.de/publikationen/#digital-humanities

Betreuung: Prof. Dr. Christof Schöch

Nora Westphal: "Vom Zeitungskorpus zur Karte - Identifikation und Visualisierung von Toponymen durch Python und im GIS zur Analyse der Nachrichtengeografie"

Im Rahmen der Nachrichtenforschung ist die Frage nach der Nachrichtengeografie ein etabliertes Thema: über welche Länder und Regionen wird wie und in welchem Umfang berichtet, welche Rolle spielen dabei kulturelle und geografische Nähe, soziodemografische Faktoren, Kriege, Konflikte, Katastrophen – und auch die Journalisten und Rezipienten selbst? Die Masterarbeit widmet sich diesem Forschungsfeld, indem der vollständige Prozess zur Auswertung der geografischen Entitäten eines Zeitungskorpus vom rohen Text bis zur kartografischen Visualisierung durchgeführt wird. Grundvoraussetzung ist das Natural Language Processing, durch das aus großen Textmengen immer leichter Inhalte extrahiert und für weitere Analysezwecke aufbereitet werden können. Für die Realisierung des Prozesses werden verschiedene Instrumente angewandt, analysiert und bewertet: die Python-Bibliothek Stanza für den Prozessschritt der Named Entity Recognition; die APIs von Geonames und OSM/Nominatim zur Georeferenzierung; das Geoinformationssystem ArcGIS Pro für die kartografische Gestaltung. Der Jahrgang 1998 der taz dient als Untersuchungskorpus, für das Thesen erstellt und überprüft werden. Außerdem eröffnen sich neue Fragestellungen sowie Erkenntnisse durch eine explorative Herangehensweise sowie die hergestellte Sichtbarkeit der Daten.

Betreuung: Prof. Dr. Christof Schöch und Dr. Sven Naumann

Sabine Schönau: "Aufbereitung und digitale Publikation einer Textedition mittels XML/TEI und Web-Technologien: Konzeption und Implementierung"

Bei der Edition handelt es sich um eine Textsammlung eines von Camillo Baldigeschriebenen Kommentars zu der dem Aristoteles falsch zugeschriebenen Physiognomik. Die Textsammlung enthält die lateinische Originalfassung sowie die spanische Übersetzung des Kommentars, die im Zuge der Master-Arbeit mittels XML/TEI ausgezeichnet und für weitere Anwendungen aufbereitet werden sollen. Das Endergebnis soll als digitale Edition online zur Verfügung stehen. Dafür werden die Texte mittels XSLT in ein geeignetes Webformat umgebaut und erhalten durch JavaScript weitere Funktionalitäten.

Betreuung: Prof. Dr. Christof Schöch und Prof. Dr. Folke Gernert
Abgeschlossen 2020
Digitale Edition: https://hispanistik.uni-trier.de/v-machine/CamilloBaldi/Home.html

V.K.: "Automatische Extraktion politischer Themen und Positionen aus Bundestagsreden mittels Topic Modeling und Word Embeddings"

Bei der im politischen Handlungsfeld angebotenen Fülle an Informationen fällt es zunehmend schwerer, einen Überblick zu bewahren. Wie sich einzelne Parteien oder Mandatsträger positionieren, was sie propagieren und wie sich ihr Einfluss im politischen Geschehen abzeichnet, ist in der Datenflut meist nicht mehr ersichtlich. Auch hier wird zukünftig die Nachvollziehbarkeit und Weiterverarbeitung von Informationen nur noch durch computergestützte Aggregation und Verdichtung möglich sein.
Das übergeordnete Ziel der Masterarbeit besteht in (dem Versuch) der Extraktion politischer Positionierungen der Parteien im Bundestag und dem Vergleich dieser Positionen. Zu diesem Zweck werden die vom Bundestag online zur Verfügung gestellten Plenarprotokolle weiter aufbereitet und mittels Topic-Modeling- und Word-Embedding-Verfahren untersucht. Zunächst soll mittels politikwissenschaftlicher Literatur ein theoretischer Rahmen erstellt werden, der als Basis für die Hypothesenbildung der politischen Positionsentwicklung der Parteien dient. Aus den ungenügend strukturierten Protokollen soll anschließend ein einheitlich ausgezeichneter, in Parteien aufgeteilter Datensatz entstehen, aus dem mittels Topic-Modeling die wichtigsten epochalen und parteilichen Themen herausgefiltert werden. Auf dem Datensatz jeder Partei soll dann jeweils ein eigenes Word-Embedding-Modell trainiert werden, das eine genauere Untersuchung sowie einen ersten inhaltlichen Vergleich der wichtigsten Themen ermöglicht. Abschließend erfolgt ein Abgleich mit dem theoretischen Rahmen und die Beantwortung der Frage, ob eine automatische Ermittlung politischer Tendenzen mit den angewendeten Verfahren einen Gewinn für die Forschung darstellen kann.

Betreuung: Prof. Dr. Christof Schöch und Prof. Dr. Ralph Bergmann
Abgeschlossen 2020

Jonas Kaiser: "Stilometrie für die Geschichtswissenschaft. Quantitative Methoden der Autorschaftsattribution von Lageberichten der rheinischen Gestapo (1934-1936)"

Die Geheime Staatspolizei des NS-Regimes, kurz: Gestapo, verfügte aufgrund ihrer Tätigkeit als Politische Polizei über eine für die Bekämpfung politischer Gegner notwendiges umfassendes Berichtswesen. Von den fünf rheinischen Gestapostellen, Aachen, Düsseldorf, Köln, Koblenz und Trier, sind aus den Jahren 1934-1936 insgesamt 96 Lageberichte erhalten, welche, meistens im Monatsrhythmus, die jeweilige Lage vor Ort beschreiben. Dort wird auf die lokale wirtschaftliche und soziale Situation eingegangen, aber auch detailliert über die Gegner des NS-Staates, wie die beiden Kirchen, Kommunisten und Sozialdemokraten, aber auch Juden und Freimaurer, wie auch über die nationalsozialistische Bewegung an sich ausführlich Bericht geführt. Bei manchen dieser Berichte, welche in der dreibändigen Edition Lageberichte rheinischer Gestapostellen (2012-2016) publiziert wurden, ist der Berichtsverfasser unbekannt oder unklar. Ein Ziel dieser Arbeit ist es, mit quantitativen Methoden mögliche Antworten auf diese Autorschaftsfragen geben zu können. Hierbei wird auf die Stilometrie zurückgegriffen, welches mittels statistischer Methoden Sprachstile und deren Charakteristika untersucht. So wird versucht, anhand der Ähnlichkeiten und Unterschiede der Stile der Berichte Aussagen über ihre jeweiligen Autoren zu treffen. Zu diesem Zweck werden die Texte zunächst mithilfe von OCR volltextdigitalisiert, woraufhin auf diese Texte in der R-Bibliothek stylo implementierte Verfahren zur stylometrsichen Autorschaftsattribution und -Verifikation (Cluster Analyse, Klassifikation und Imposters-Verfahren) angewandt. An diesem Fallbeispiel soll die mögliche Anwendbarkeit der Stilometrie, die in der Forschung vorranging aus literaturwissenschaftlicher Herangehensweise heraus eingesetzt wird, für die Geschichtswissenschaft, für welche die Frage nach dem "Autor" bzw. Urheber einer Quelle ebenfalls von großer Bedeutung ist, erprobt werden.

Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Grotum
Abgeschlossen 2020

Anne Klee: "Der Kluge digital – Die automatisierte Retrodigitalisierung eines etymologischen Wörterbuchs durch Python-basierte Auszeichnung in XML nach den Richtlinien von TEI Lex-0"

Digitale Wörterbücher bieten Nutzern eine Fülle von Vorteilen gegenüber ihren gedruckten Pendants – der Grund, weshalb immer mehr lexikographische Standardwerke retrodigitalisiert werden. Das Ziel dieser Masterarbeit besteht darin, am Beispiel des Etymologischen Wörterbuchs der deutschen Sprache von Friedrich Kluge aufzuzeigen, wie und inwieweit eine Retrodigitalisierung mithilfe aktueller Tools und unter Beachtung der derzeitigen Forschung möglichst automatisch durchgeführt werden kann. Der Text des gescannten Wörterbuchs wird durch den Einsatz moderner OCR-Technologie digitalisiert und im Anschluss mittels Python automatisch in TEI ausgezeichnet. Die Auszeichnung orientiert sich an den Richtlinien der Arbeitsgruppe TEI Lex-0, deren Bestreben es ist, das TEI-Modul Dictionaries zu vereinfachen. Diese Arbeit erprobt damit die Anwendbarkeit dieser Markup-Empfehlungen, welche den derzeitigen Forschungsstand repräsentieren.

Betreuung: Prof. Dr. Christof Schöch und Dr. Vera Hildenbrandt
Abgeschlossen 2020

Pia Geißel: "Computergestützte stilometrische Analyse der Notare Heinrichs III."

Computergestützte stilometrische Analysen haben sich in den letzten Jahren zu einem Kernbereich der Digital Humanities entwickelt. Ihre Anwendungsfelder haben sich dabei stetig erweitert, nicht nur auf nicht-europäische Sprachen, sondern zunehmend auch auf weitere Disziplinen jenseits von ihren Ursprüngen in der Linguistik und Literaturwissenschaft. Diese Arbeit erörtert die Möglichkeiten, stilometrische Verfahren für die Erforschung historischer, nicht literarischer Texte fruchtbar zu machen. Dazu wird die Urheberschaft von Urkunden aus der Zeit Heinrichs III. überprüft und mit dem bisherigen, auf paläographischen Analysen und Diktatvergleich beruhenden Forschungsstand verglichen. Besondere Herausforderungen stellen dabei einerseits die Aufbereitung des Korpus, andererseits die inhaltliche Eignung der formelhaften „Textgattung“ Diplom. Aus diesem Grund wird die Entwicklung einer geeigneten Methodologie der Kernpunkt der Arbeit sein.

Betreuung: Prof. Dr. Christof Schöch, Zweitkorrektor: Prof. Dr. Wolfgang Huschner (Universität Leipzig)
Abgeschlossen 2020
Verfügbar auf Zenodo.org: https://zenodo.org/record/3829126

Florian Kalb: “Automatische Klassifikation von Filmgenres auf Grundlage von Topic Models und syntaktischer Komplexität”

Das Ziel dieser Masterarbeit ist es zu überprüfen, inwiefern es möglich ist, die Genres von Filmen lediglich anhand von Filmuntertiteln hervorsagen zu können. Dazu wird eine Multi-Label Klassifikation durchgeführt, was bedeutet, dass jeder Film mehr als einer Klasse / einem Genre zugeordnet werden kann. Die Klassifikation wird mit der Python-Bibliothek “scikit-learn” durchgeführt und anschließend evaluiert. Der Datensatz besteht aus ca. 130000 englischsprachigen Filmuntertiteln, die von der Plattform “opensubtitles.org” zusammengetragen wurden. Als Features für die Klassifikation kommen Topic Models und Maße zur Messung syntaktischer Komplexität zum Einsatz. Zusätzlich zur Genreklassifikation sollen auch Unterschiede zwischen den Genres anhand von Hypothesen wie “Dialoge in Actionfilmen sind syntaktisch simpler strukturiert als Dialoge in Dramen.” statistisch überprüft werden. Eine weitere Aufgabe besteht darin zu untersuchen, wie sich die einzelnen Genres im Laufe der Jahre in Bezug auf deren Topics und syntaktische Komplexität entwickelt haben. Die Ergebnisse des quantitativen Teils der Arbeit werden mit Erkenntnissen der filmwissenschaftlichen Genreforschung verknüpft und ergänzt werden, um zu validieren, ob sich Parallelen bei der Definition und Entwicklung von Genres finden lassen.

Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch
Abgeschlossen 2019

David Radlinger: "Statistische Netzwerkanalyse von Figuren und Ensembles aus der Operngeschichte"

Die Extraktion von Netzwerken aus literarischen Texten stellt ein quantitatives Verfahren dar, das dem Bereich des distant reading zuzuordnen ist. Der Forschungsgegenstand der Masterarbeit besteht im Vergleich von Figuren- und Ensemblenetzwerken, die aus Opernlibretti generiert werden. Das Ziel ist es, den Wandel der dramatischen Struktur in der Operngeschichte einerseits und die Entwicklung des Ensemblegesangs andererseits durch Methoden der sozialen Netzwerkanalyse aufzuzeigen. Als Datengrundlage dient ein 200 Libretti zählendes Textkorpus, das von 1673-1942 bedeutende Werke der Operngeschichte umfasst. Die in italienisch, französisch oder deutsch vorliegenden Texte werden mit Python automatisiert in TEI-Dateien umgewandelt, aus denen die Datenstruktur der Netzwerke extrahiert wird. Mit der Programmiersprache R werden die Netzwerke modelliert und verschiedene Metriken berechnet, anhand derer eine auf  musikwissenschaftliche Thesen gestützte Netzwerkanalyse durchgeführt wird.

Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch
Abgeschlossen 2019

Maria Hartmann: "Automatische Klassifikation semistrukturierter Texte mit neuronalen Netzen"

In dieser Masterarbeit wird der Frage nachgegangen, ob neuronale Netze lernen können, deutsche Blogbeiträge der geistes- und sozialwissenschaftlichen Blogplattform Hypotheses.org in die von den Wissenschaftlern angegebenen Themen und Disziplinen zu klassifizieren und diese Kategorien für neue Blogbeiträge vorherzusagen. Umgesetzt wird dies mit der in diesem Bereich beliebten Programmiersprache Python und den hochentwickelten Softwarebibliotheken Gensim, Keras und TensorFlow.

Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch
Abgeschlossen: 2018

Andreas Lüschow: "Vom verlegten Buch zu verlinkten Daten - Automatische Extraktion und semantische Modellierung der Einträge einer Bibliographie französischsprachiger Romane"

In der 1977 erschienenen Bibliographie du genre romanesque français 1751-1800 haben die Herausgeber sämtliche bekannten französischsprachigen Romane der zweiten Hälfte des 18. Jahrhunderts mit ihren wesentlichen Metadaten erfasst. Insbesondere die zusätzliche Angabe inhaltlicher Charakteristika - wie z.B. zum Schauplatz, zu den Figuren oder der Erzählperspektive des jeweiligen Romans - macht diese Bibliographie zu einer umfangreichen und bedeutsamen Quelle romanistischer Forschung. In dieser Masterarbeit werden die einzelnen Einträge durch automatische Verfahren erschlossen und die Metadaten daraufhin als Linked Data semantisch modelliert, um sie an das Netzwerk global vorhandener semantischer Daten anbinden zu können. Diese neue Repräsentation der Bibliographie ermöglicht darüber hinaus die einfache Suche in den Daten und die individuelle Zusammenstellung einzelner Einträge sowie die Beantwortung weitergehender Fragestellungen.

Betreuung: Prof. Dr. Christof Schöch und Prof. Dr. Ralph Bergmann
Abgeschlossen: 2018
Siehe auch: https://doi.org/10.5281/zenodo.3401428 (Datensatz)

Stefan Kellendonk: "Bedarfsorientierte Flexibilisierung der virtuellen Forschungsumgebung FuD für die digitale Editionswissenschaft" 

Im Rahmen dieser Masterarbeit wurde eine Umfrage zur Nutzung der virtuellen Forschungsumgebung FuD durchgeführt, um Bedarfe der Nutzer zu eruieren. Anhand der Ergebnisse wurde entschieden, einen Dokumenttypeditor für FuD zu konzipieren und diesen soweit wie möglich zu implementieren. Mit dem Dokumenttypeditor sollen neue Dokumenttypen erstellt und vorhandene Dokumenttypen bearbeitet werden können, um die Arbeit der FuD-Mitarbeiter zu erleichtern und Nutzern die Möglichkeit zu geben, selbst Änderungen an ihren Dokumenttypen vorzunehmen. Dokumenttypen bilden in FuD Datenmodelle ab und dienen in erster Linie zur Eingabe und Speicherung von Metadaten.
Der Dokumenttypeditor wurde als Modul innerhalb von FuD in der Programmiersprache tcl/tk implementiert und von Mitarbeitern des TCDH und des Servicezentrum eSciences getestet.

Betreuung: Dr. Vera Hildenbrandt und Dr. Thomas Burch
Abgeschlossen: 2018