Auf dieser Seite werden derzeit laufende sowie abgeschlossene Master-Arbeiten im Fach Digital Humanities beschrieben. Bitte beachten Sie auch die Hinweise zu schriftlichen Arbeiten im Fach Digital Humanities.

Aktuell ausgeschriebene Masterarbeits-Themen

Sie suchen nach einem Thema für Ihre Master-Arbeit? Meistens definieren die Studierenden selbst ein von Ihnen gewähltes Thema. Wir schreiben aber auch gelegentlich Themen für Master-Arbeiten aus. Kontakt: Christof Schöch (schoech@uni-trier.de).

Historische Weinetiketten der Moselregion: Publikation, Kartierung, Analyse und/oder Vernetzung. Das Thema knüpft an ein laufendes Forschungsprojekt zu Weinetiketten des Trier Center for Digital Humanities an. Ein vorliegender, digitaler Bestand an Weinetiketten soll ggfs. erweitert, in einem geeigneten Datenbanksystem publiziert und je nach Interesse im Rahmen der Arbeit mit anderen Datenbeständen vernetzt, für die Erschließung kartiert, oder in sprachlicher, visueller oder statistischer Hinsicht analysiert werden. Das Thema kann je nach Interesse genauer definiert werden. 

Derzeit laufende Master-Arbeiten

Henning Gebhard:"Building a TEI-driven online tool for authoring, submitting and publishing of conference abstracts based on Fidus Writer"
Collaborative authorship, the future of (digital) publishing and challenges of long-term digital preservation have been a key field of research in the DH for a long time now. The community has established TEI XML as a suitable source format for these use cases and utilizes it for e.g. the abstracts of its conferences DH and DHd. However, XML is not the most convenient format for most endusers and is seldomly used when initially authoring a scientific paper. The current solution, i.e. to use an online tool to convert various office document formats to TEI, is error prone and in part inconvenient for users as well as for administrators.
This research paper evaluates the feasibility of an web based editor for both the authoring process as well as the submission of abstracts for DH conferences. Subsequently, I will build a working prototype based on the open source online editor Fidus Writer. This needs to have the capabilities to record all the required document meta data. It can then export a standards-compliant TEI version of the document suitable for both archiving purposes and for further use in existing publishing pipelines.
Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch

Abgeschlossene Master-Arbeiten

Sabine Schönau: "Aufbereitung und digitale Publikation einer Textedition mittels XML/TEI und Web-Technologien: Konzeption und Implementierung"
Bei der Edition handelt es sich um eine Textsammlung eines von Camillo Baldigeschriebenen Kommentars zu der dem Aristoteles falsch zugeschriebenen Physiognomik. Die Textsammlung enthält die lateinische Originalfassung sowie die spanische Übersetzung des Kommentars, die im Zuge der Master-Arbeit mittels XML/TEI ausgezeichnet und für weitere Anwendungen aufbereitet werden sollen. Das Endergebnis soll als digitale Edition online zur Verfügung stehen. Dafür werden die Texte mittels XSLT in ein geeignetes Webformat umgebaut und erhalten durch JavaScript weitere Funktionalitäten.
Betreuung: Prof. Dr. Christof Schöch und Prof. Dr. Folke Gernert
Abgeschlossen 2020
Digitale Edition: https://hispanistik.uni-trier.de/v-machine/CamilloBaldi/Home.html

V.K.: "Automatische Extraktion politischer Themen und Positionen aus Bundestagsreden mittels Topic Modeling und Word Embeddings"
Bei der im politischen Handlungsfeld angebotenen Fülle an Informationen fällt es zunehmend schwerer, einen Überblick zu bewahren. Wie sich einzelne Parteien oder Mandatsträger positionieren, was sie propagieren und wie sich ihr Einfluss im politischen Geschehen abzeichnet, ist in der Datenflut meist nicht mehr ersichtlich. Auch hier wird zukünftig die Nachvollziehbarkeit und Weiterverarbeitung von Informationen nur noch durch computergestützte Aggregation und Verdichtung möglich sein.
Das übergeordnete Ziel der Masterarbeit besteht in (dem Versuch) der Extraktion politischer Positionierungen der Parteien im Bundestag und dem Vergleich dieser Positionen. Zu diesem Zweck werden die vom Bundestag online zur Verfügung gestellten Plenarprotokolle weiter aufbereitet und mittels Topic-Modeling- und Word-Embedding-Verfahren untersucht. Zunächst soll mittels politikwissenschaftlicher Literatur ein theoretischer Rahmen erstellt werden, der als Basis für die Hypothesenbildung der politischen Positionsentwicklung der Parteien dient. Aus den ungenügend strukturierten Protokollen soll anschließend ein einheitlich ausgezeichneter, in Parteien aufgeteilter Datensatz entstehen, aus dem mittels Topic-Modeling die wichtigsten epochalen und parteilichen Themen herausgefiltert werden. Auf dem Datensatz jeder Partei soll dann jeweils ein eigenes Word-Embedding-Modell trainiert werden, das eine genauere Untersuchung sowie einen ersten inhaltlichen Vergleich der wichtigsten Themen ermöglicht. Abschließend erfolgt ein Abgleich mit dem theoretischen Rahmen und die Beantwortung der Frage, ob eine automatische Ermittlung politischer Tendenzen mit den angewendeten Verfahren einen Gewinn für die Forschung darstellen kann.
Betreuung: Prof. Dr. Christof Schöch und Prof. Dr. Ralph Bergmann
Abgeschlossen 2020

Jonas Kaiser: "Stilometrie für die Geschichtswissenschaft. Quantitative Methoden der Autorschaftsattribution von Lageberichten der rheinischen Gestapo (1934-1936)"
Die Geheime Staatspolizei des NS-Regimes, kurz: Gestapo, verfügte aufgrund ihrer Tätigkeit als Politische Polizei über eine für die Bekämpfung politischer Gegner notwendiges umfassendes Berichtswesen. Von den fünf rheinischen Gestapostellen, Aachen, Düsseldorf, Köln, Koblenz und Trier, sind aus den Jahren 1934-1936 insgesamt 96 Lageberichte erhalten, welche, meistens im Monatsrhythmus, die jeweilige Lage vor Ort beschreiben. Dort wird auf die lokale wirtschaftliche und soziale Situation eingegangen, aber auch detailliert über die Gegner des NS-Staates, wie die beiden Kirchen, Kommunisten und Sozialdemokraten, aber auch Juden und Freimaurer, wie auch über die nationalsozialistische Bewegung an sich ausführlich Bericht geführt. Bei manchen dieser Berichte, welche in der dreibändigen Edition Lageberichte rheinischer Gestapostellen (2012-2016) publiziert wurden, ist der Berichtsverfasser unbekannt oder unklar. Ein Ziel dieser Arbeit ist es, mit quantitativen Methoden mögliche Antworten auf diese Autorschaftsfragen geben zu können. Hierbei wird auf die Stilometrie zurückgegriffen, welches mittels statistischer Methoden Sprachstile und deren Charakteristika untersucht. So wird versucht, anhand der Ähnlichkeiten und Unterschiede der Stile der Berichte Aussagen über ihre jeweiligen Autoren zu treffen. Zu diesem Zweck werden die Texte zunächst mithilfe von OCR volltextdigitalisiert, woraufhin auf diese Texte in der R-Bibliothek stylo implementierte Verfahren zur stylometrsichen Autorschaftsattribution und -Verifikation (Cluster Analyse, Klassifikation und Imposters-Verfahren) angewandt. An diesem Fallbeispiel soll die mögliche Anwendbarkeit der Stilometrie, die in der Forschung vorranging aus literaturwissenschaftlicher Herangehensweise heraus eingesetzt wird, für die Geschichtswissenschaft, für welche die Frage nach dem "Autor" bzw. Urheber einer Quelle ebenfalls von großer Bedeutung ist, erprobt werden.
Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Grotum
Abgeschlossen 2020

Anne Klee: "Der Kluge digital – Die automatisierte Retrodigitalisierung eines etymologischen Wörterbuchs durch Python-basierte Auszeichnung in XML nach den Richtlinien von TEI Lex-0"
Digitale Wörterbücher bieten Nutzern eine Fülle von Vorteilen gegenüber ihren gedruckten Pendants – der Grund, weshalb immer mehr lexikographische Standardwerke retrodigitalisiert werden. Das Ziel dieser Masterarbeit besteht darin, am Beispiel des Etymologischen Wörterbuchs der deutschen Sprache von Friedrich Kluge aufzuzeigen, wie und inwieweit eine Retrodigitalisierung mithilfe aktueller Tools und unter Beachtung der derzeitigen Forschung möglichst automatisch durchgeführt werden kann. Der Text des gescannten Wörterbuchs wird durch den Einsatz moderner OCR-Technologie digitalisiert und im Anschluss mittels Python automatisch in TEI ausgezeichnet. Die Auszeichnung orientiert sich an den Richtlinien der Arbeitsgruppe TEI Lex-0, deren Bestreben es ist, das TEI-Modul Dictionaries zu vereinfachen. Diese Arbeit erprobt damit die Anwendbarkeit dieser Markup-Empfehlungen, welche den derzeitigen Forschungsstand repräsentieren.
Betreuung: Prof. Dr. Christof Schöch und Dr. Vera Hildenbrandt
Abgeschlossen 2020

Pia Geißel: "Computergestützte stilometrische Analyse der Notare Heinrichs III."
Computergestützte stilometrische Analysen haben sich in den letzten Jahren zu einem Kernbereich der Digital Humanities entwickelt. Ihre Anwendungsfelder haben sich dabei stetig erweitert, nicht nur auf nicht-europäische Sprachen, sondern zunehmend auch auf weitere Disziplinen jenseits von ihren Ursprüngen in der Linguistik und Literaturwissenschaft. Diese Arbeit erörtert die Möglichkeiten, stilometrische Verfahren für die Erforschung historischer, nicht literarischer Texte fruchtbar zu machen. Dazu wird die Urheberschaft von Urkunden aus der Zeit Heinrichs III. überprüft und mit dem bisherigen, auf paläographischen Analysen und Diktatvergleich beruhenden Forschungsstand verglichen. Besondere Herausforderungen stellen dabei einerseits die Aufbereitung des Korpus, andererseits die inhaltliche Eignung der formelhaften „Textgattung“ Diplom. Aus diesem Grund wird die Entwicklung einer geeigneten Methodologie der Kernpunkt der Arbeit sein.
Betreuung: Prof. Dr. Christof Schöch, Zweitkorrektor: Prof. Dr. Wolfgang Huschner (Universität Leipzig)
Abgeschlossen 2020
Verfügbar auf Zenodo.org: https://zenodo.org/record/3829126

Florian Kalb: “Automatische Klassifikation von Filmgenres auf Grundlage von Topic Models und syntaktischer Komplexität”
Das Ziel dieser Masterarbeit ist es zu überprüfen, inwiefern es möglich ist, die Genres von Filmen lediglich anhand von Filmuntertiteln hervorsagen zu können. Dazu wird eine Multi-Label Klassifikation durchgeführt, was bedeutet, dass jeder Film mehr als einer Klasse / einem Genre zugeordnet werden kann. Die Klassifikation wird mit der Python-Bibliothek “scikit-learn” durchgeführt und anschließend evaluiert. Der Datensatz besteht aus ca. 130000 englischsprachigen Filmuntertiteln, die von der Plattform “opensubtitles.org” zusammengetragen wurden. Als Features für die Klassifikation kommen Topic Models und Maße zur Messung syntaktischer Komplexität zum Einsatz. Zusätzlich zur Genreklassifikation sollen auch Unterschiede zwischen den Genres anhand von Hypothesen wie “Dialoge in Actionfilmen sind syntaktisch simpler strukturiert als Dialoge in Dramen.” statistisch überprüft werden. Eine weitere Aufgabe besteht darin zu untersuchen, wie sich die einzelnen Genres im Laufe der Jahre in Bezug auf deren Topics und syntaktische Komplexität entwickelt haben. Die Ergebnisse des quantitativen Teils der Arbeit werden mit Erkenntnissen der filmwissenschaftlichen Genreforschung verknüpft und ergänzt werden, um zu validieren, ob sich Parallelen bei der Definition und Entwicklung von Genres finden lassen.
Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch
Abgeschlossen 2019

David Radlinger: "Statistische Netzwerkanalyse von Figuren und Ensembles aus der Operngeschichte"
Die Extraktion von Netzwerken aus literarischen Texten stellt ein quantitatives Verfahren dar, das dem Bereich des distant reading zuzuordnen ist. Der Forschungsgegenstand der Masterarbeit besteht im Vergleich von Figuren- und Ensemblenetzwerken, die aus Opernlibretti generiert werden. Das Ziel ist es, den Wandel der dramatischen Struktur in der Operngeschichte einerseits und die Entwicklung des Ensemblegesangs andererseits durch Methoden der sozialen Netzwerkanalyse aufzuzeigen. Als Datengrundlage dient ein 200 Libretti zählendes Textkorpus, das von 1673-1942 bedeutende Werke der Operngeschichte umfasst. Die in italienisch, französisch oder deutsch vorliegenden Texte werden mit Python automatisiert in TEI-Dateien umgewandelt, aus denen die Datenstruktur der Netzwerke extrahiert wird. Mit der Programmiersprache R werden die Netzwerke modelliert und verschiedene Metriken berechnet, anhand derer eine auf  musikwissenschaftliche Thesen gestützte Netzwerkanalyse durchgeführt wird.
Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch
Abgeschlossen 2019

Maria Hartmann: "Automatische Klassifikation semistrukturierter Texte mit neuronalen Netzen"
In dieser Masterarbeit wird der Frage nachgegangen, ob neuronale Netze lernen können, deutsche Blogbeiträge der geistes- und sozialwissenschaftlichen Blogplattform Hypotheses.org in die von den Wissenschaftlern angegebenen Themen und Disziplinen zu klassifizieren und diese Kategorien für neue Blogbeiträge vorherzusagen. Umgesetzt wird dies mit der in diesem Bereich beliebten Programmiersprache Python und den hochentwickelten Softwarebibliotheken Gensim, Keras und TensorFlow.
Betreuung: Prof. Dr. Christof Schöch und Dr. Thomas Burch
Abgeschlossen: 2018

Andreas Lüschow: "Vom verlegten Buch zu verlinkten Daten - Automatische Extraktion und semantische Modellierung der Einträge einer Bibliographie französischsprachiger Romane"
In der 1977 erschienenen Bibliographie du genre romanesque français 1751-1800 haben die Herausgeber sämtliche bekannten französischsprachigen Romane der zweiten Hälfte des 18. Jahrhunderts mit ihren wesentlichen Metadaten erfasst. Insbesondere die zusätzliche Angabe inhaltlicher Charakteristika - wie z.B. zum Schauplatz, zu den Figuren oder der Erzählperspektive des jeweiligen Romans - macht diese Bibliographie zu einer umfangreichen und bedeutsamen Quelle romanistischer Forschung. In dieser Masterarbeit werden die einzelnen Einträge durch automatische Verfahren erschlossen und die Metadaten daraufhin als Linked Data semantisch modelliert, um sie an das Netzwerk global vorhandener semantischer Daten anbinden zu können. Diese neue Repräsentation der Bibliographie ermöglicht darüber hinaus die einfache Suche in den Daten und die individuelle Zusammenstellung einzelner Einträge sowie die Beantwortung weitergehender Fragestellungen.
Betreuung: Prof. Dr. Christof Schöch und Prof. Dr. Ralph Bergmann
Abgeschlossen: 2018
Siehe auch: https://doi.org/10.5281/zenodo.3401428 (Datensatz)

Stefan Kellendonk: "Bedarfsorientierte Flexibilisierung der virtuellen Forschungsumgebung FuD für die digitale Editionswissenschaft" 
Im Rahmen dieser Masterarbeit wurde eine Umfrage zur Nutzung der virtuellen Forschungsumgebung FuD durchgeführt, um Bedarfe der Nutzer zu eruieren. Anhand der Ergebnisse wurde entschieden, einen Dokumenttypeditor für FuD zu konzipieren und diesen soweit wie möglich zu implementieren. Mit dem Dokumenttypeditor sollen neue Dokumenttypen erstellt und vorhandene Dokumenttypen bearbeitet werden können, um die Arbeit der FuD-Mitarbeiter zu erleichtern und Nutzern die Möglichkeit zu geben, selbst Änderungen an ihren Dokumenttypen vorzunehmen. Dokumenttypen bilden in FuD Datenmodelle ab und dienen in erster Linie zur Eingabe und Speicherung von Metadaten.
Der Dokumenttypeditor wurde als Modul innerhalb von FuD in der Programmiersprache tcl/tk implementiert und von Mitarbeitern des TCDH und des Servicezentrum eSciences getestet.
Betreuung: Dr. Vera Hildenbrandt und Dr. Thomas Burch
Abgeschlossen: 2018