Was Sie erwartet
Im Rahmen unserer MA-Kolloquien stellen Masterstudierende der Digital Humanities an der Universität Stuttgart ihre Projekte vor. Darüber hinaus ermöglichen Gastvorträge aus der internationalen DH-Community, dass sich die Studierenden bereits im Studium austauschen und vernetzen können.
Programm
Das Programm im Detail
Die Digital Humanities sind durch ihre interdisziplinäre Natur gekennzeichnet, was sowohl methodische als auch begriffliche Herausforderungen mit sich bringt. In meiner Präsentation werde ich den Prozess der Entwicklung einer erfolgreichen DH-Masterarbeit von der Forschungsfrage bis zur Umsetzung beleuchten. Wie findet man eine relevante Forschungsfrage in diesem heterogenen Feld? Welche methodischen Ansätze eignen sich für welche Fragestellungen, und wie operationalisiert man geisteswissenschaftliche Konzepte für die digitale Analyse? Anhand konkreter Beispiele und typischer Projektstrukturen demonstriere ich, wie der Weg von der ersten Idee zum fertigen DH-Projekt gestaltet werden kann, und diskutiere dabei auch den reflektierten Umgang mit KI-Werkzeugen. Die Präsentation bietet eine strukturierte Anleitung für Studierende, die an der Schnittstelle zwischen traditionellen Geisteswissenschaften und digitalen Methoden forschen möchten.
(Dr. Anselm Küsters, Universität Stuttgart)
Times New Roman oder Arial? APA oder Harvard? Vier Zentimeter Seitenrand oder fünf? Das Niederschreiben der Masterarbeit zwingt uns zu dutzenden kleinen Entscheidungen. Viele universitäre und außeruniversitäre Institutionen geben klare Standards vor, welche viele dieser Entscheidungen zu einer Frage von "richtig" oder "falsch" werden lassen. In der Abteilung für Digital Humanities der Universität Stuttgart geben wir keine umfangreichen Vorgaben für die Formalia von schriftlichen Ausarbeitungen heraus. Dieses Kolloquium möchte ich nutzen, um mit Ihnen über das Zusammenspiel von Form und Inhalt zu reflektieren und daraus eine Orientierungshilfe für die vor Ihnen liegenden dutzenden Entscheidungen zu erarbeiten.
Schauen Sie bitte vor der Sitzung in unsere neu veröffentlichten FAQ zum Thema Masterarbeit und bringen Sie Ihre drängendsten Fragen zu den Formalia Ihrer Arbeit mit.
(Pascal Hein, Studiengangsmanager Digital Humanities, Universität Stuttgart)
Die Arabic Papyrology Database enthält etwa 14.000 schriftliche Zeugnisse aus 10 Jahrhunderten. In qualitativen Analysen einzelner Dokumente konnten sprachliche Muster nachgewiesen werden. Nun sollen in maschinell gestützten Analysen sprachliche Moden nachgewiesen werden. Doch wie gelangt man von der Idee zum Endergebnis? Wie entwickelt man einen Projektablauf? Wie hängen Inhalt und zeitliche Planung zusammen? Am Zwischenstand meines PhD Projekts werde ich exemplarisch zeigen, wie wissenschaftliche Forschung strukturiert sein kann.
(Hanna Weimann, Wissenschaftliche Mitarbeiterin, Universität Stuttgart)
Im Vortrag wird eine Ontologie präsentiert, mit der sich Wappenblasonierungen in RDF kodieren und damit maschinenlesbar und interoperabel machen lassen. Diese Ontologie ist Teil des "Digital Heraldry Knowledge Graph", der darauf abzielt, mittelalterliche und frühneuzeitliche Wappen nicht nur zu beschreiben, sondern sie auch in ihren historischen und materiellen Nutzungskontext zu setzen, um diese visuellen Quellen für datengestützte historische Forschung zugänglich zu machen. Die Entwicklung der Ontologie ist außerdem Teil des laufenden Dissertationsprojekts “Coats of Arms in Context”, das eine Grundlage für die Erforschung visueller heraldischer Kommunikation aus einer kulturhistorischen Perspektive mit datengetriebenen Methoden zum Inhalt hat. Der Vortrag gibt einen Einblick in die Entwicklung einer formalen Ontologie mit Semantic Web Technologien und deren Einbettung in eine kumulative Promotion.
(M.A. Philipp Schneider, Humboldt-Universität zu Berlin)
Das Projekt "Die Schule von Salamanca. Eine digitale Quellensammlung und ein Wörterbuch ihrer juristisch-politischen Sprache" stellt frühneuzeitliche Werke einer Gruppe von Autoren in digitaler Edition bereit, die die abendländische politische Ideengeschichte geprägt haben: Von der Kritik der spanischen *Conquista* über die Idee der Menschenrechte bis zur kapitalistischen Wirtschaftstheorie kamen wesentliche Anstöße aus diesem einflussreichen, global verteilten Netzwerk von Juristen, Theologen und Philosophen. Um die internen Bezugnahmen, Differenzierungen und Entwicklungen dieses Diskussionszusammenhangs, und nicht zuletzt um die Schulbildung selbst zu erforschen, sind innerhalb des edierten Corpus *vergleichende Untersuchungen* von besonderem Interesse, und im Projekt ist es eine wiederkehrende Frage, wie diese durch editorische Entscheidungen und Angebote erleichtert werden können.
Mit der "Sprachkompetenz" der großen Sprachmodelle wurden Möglichkeiten geschaffen, Textpassagen anhand ihrer Semantik aufzusuchen und zu vergleichen. Neben Erleichterungen im editorischen Tagesgeschäft (Korrekturen, Textauszeichnungen u.ä.) berichte ich ausführlich von einem Experiment, *Embeddings* für die Exploration des Corpus zu nutzen. So macht diese Technologie es etwa möglich, (a) im Ausgang von einer einzelnen Passage andere "ähnliche" Passagen im Corpus zu identifizeren. Eine zweite Möglichkeit eröffnet sich (b) im Umgang mit einer Sammlung von Passagen - z.B. von Suchergebnissen oder von einer Favoritenliste. Über Embeddings lassen sich diese Passagen als Punkte in einem Raum abbilden und in ihrer Konfiguration untersuchen: Gibt es diskrete Zusammenballungen oder eine gleichmäßige Verteilung? Wie verhalten sich die in der Ausgangsliste enthaltenen Textpassagen zum Rest aller Passagen im Corpus? Schließlich kann auf der Grundlage der Embedding-Vektoren (c) eine eigene Retrieval-Augmented-Generation (RAG) Funktion angeboten werden.
Neben der Vorstellung konkreter - wenn auch noch experimenteller - Funktionalitäten sollen auch die grundsätzlichen Fähigkeiten und Begrenzungen der großen Sprachmodelle im Vortrag angeschnitten werden. Denn die vorgestellten Funktionen eignen sich, um den Unterschied zwischen dem "Encoding" und dem "Decoding"-Vorgang zu verdeutlichen und die jeweiligen Konsequenzen zur Diskussion zu stellen.
(Dr. Andreas Wagner, Max-Planck-Institut für Rechtsgeschichte und Rechtstheorie Frankfurt)
Die Document Layout Analysis bedient sich eines Bündels an Methoden und Technologien, vor allem aus der Computer Vision, um aus Digitalisaten maschinenlesbare und möglichst strukturierte (Text-)Dateien zu erstellen. Dieser, über die ‚eigentliche‘ OCR hinausgehende Rekonstruktionsprozess umfasst auch die Segmentierung und Unterscheidung von Layoutelementen nach Klassen (Absätze, Überschriften, Fußnoten etc.) und bringt für historische Dokumente – v. a. wegen ihrer mannigfaltigen Besonderheiten im Bereich Materialität und ‚typographische Dispositive‘ – noch einige Herausforderungen mit sich. Dabei kann eine schlechte Segmentierung zu Verzerrungen in den nachfolgenden Analysen führen. An der Fallstudie Friedrich von Hagedorns (1708–1754), der für seine paratextuelle (Anmerkungs-)Praxis berühmt-berüchtigt war, werden im Vortrag einige gängige Plattformen/Tools zur Layoutanalyse praxisorientiert dargestellt, darunter: Kraken (eScripotrium), Detectron2, Transkribus, wobei auch damit einhergehende Aspekte (Annotation, Formate/Interoperabilität, Evaluation, Dokumentation) Erwähnung finden sollen. Die Teilnehmenden erhalten dadurch einen ersten Überblick zu Praktiken und Lösungswegen für eigene Anwendungsfälle.
(M.A. Arsenije Bogdanović, Universität Stuttgart)
Mobilität und Wirtschaft in der römischen Antike
Die Suche nach einem historischen Thema für die Masterarbeit bringt zugleich die Suche nach geeigneten Quellen mit sich. Im Vortrag sollen Forschungsinteressen sowie bisherige Überlegungen und mögliche Umsetzungsideen präsentiert werden. Dabei werden die bisher recherchierten Ergebnisse aus den Quelldaten (epigraphische, archäologische und literarische Quellen) präsentiert sowie wird auf mögliche Probleme der Datenqualität aufmerksam gemacht. Die bisherige Extrahierung der literarischen Quellen mittels OCR soll ebenso besprochen werden, um sie eventuell zu perfektionieren. Generell soll die Eignung der Datengrundlagen für eine historische empirische Studie im Kolloquium diskutiert werden, um danach mögliche Forschungsfragen zu formulieren.
(Antonia Friedrich, Universität Stuttgart)
Vergleich digitaler Methoden der Textanalyse zur Identifizierung rechtspopulistischer Sprache
Wie lassen sich rechtspopulistische Sprachmuster in politischen Texten zuverlässig identifizieren? Zur Beantwortung dieser Frage werden verschiedene digitale Methoden der Textanalyse vorgestellt, um sie anschließend beim Aufspüren rechtspopulistischer Rhetorik einzusetzen. Die Analyse wird anhand drei verschiedener, eigens zu diesem Zweck zusammengestellter Korpora aus Parteiprogrammen und politischen Reden sowohl rechter, als auch liberaler Parteien durchgeführt. Ergänzt wird diese Analyse unter anderem durch Visualisierungen mit PCA und verschiedenen Ähnlichkeitsmessungen (darunter bspw. die Cosinus Similarity). Durch diese Verfahren sollen vor allem Gemeinsamkeiten und Unterschiede der politischen Sprache der ausgewählten Parteien sowohl untereinander ("Intra-Similarity"), als auch korpusübergreifend ("Inter-Similarity"), aufgezeigt und untersucht werden. Ziel ist hierbei, das Potenzial automatisierter Verfahren zur politischen Sprachdiagnostik nicht nur auszuloten, sondern darüber hinaus auch kritisch zu beleuchten.
(Kevin Stevens, Universität Stuttgart)
Wie lassen sich juristische Dokumente – wie Gerichtsentscheidungen, Gesetze oder Verträge – mithilfe der Methoden der Digital Humanities systematisch analysieren? Der Vortrag gibt zunächst einen kompakten Überblick über zentrale Forschungsthemen und Fragestellungen an der Schnittstelle von Recht und Digital Humanities. Im Anschluss wird vertieft auf den Einsatz maschinellen Lernens eingegangen, insbesondere im Hinblick auf die Herausforderungen bei der Erschließung umfangreicher Rechtsprechungskorpora. Am Beispiel einer Studie zur Anwendung der Verhältnismäßigkeitsprüfung in Entscheidungen des Bundesverfassungsgerichts wird exemplarisch aufgezeigt, wie rechtliche Argumentationstechniken automatisiert erkannt und analysiert werden können.
(Kilian Lüders, Universität Regensburg, Humboldt-Universität zu Berlin)
1. Wiederkehrende Topoi in der Fastnachstliteratur: Eine quantitative Analyse literarischer Muster zur Maskierung, Umkehrung und Gemeinschaft
2. Zwillinge in der Literatur: Ein Symbol, das die Realität übersteigt und alternative Narrative erschafft
(Johanna Sandfort)
Digitale Analyse von historischen NS-Quellen
(Judith Schulze)
A Digital Exploration of Morality and Feminism in Agatha Christie’s Detective Fiction
(Mengjiao Li)
(Cindarella Petz, IEG (Leibniz-Institut für Europäische Geschichte) Mainz)
Spezialisten für biologische (und evtl. auch chemische) Waffenabwehr vor, während und nach dem 2. Weltkrieg. Layoutanalyse und Erstellung eines sozialen Netzwerkes anhand von Zeitschriften
(Ronja Denneler)
Drei Ideen zur Masterarbeit
(Kubilay Özkan)
Mensch oder Maschine. Vergleich der Schreibkompetenzen von künstlicher Intelligenz und Mensch unter dem Aspekt verschiedener Genres
(Yelyzaveta Honcharova)
(Alena Wabitsch, University of Oxford)
(Jens Giesel, Frankfurter Allgemeine Zeitung)
Das Wichtigste im Überblick
Wann: ab dem 09.04.2025 bis 16.07.2025 immer mittwochs um 17:30 Uhr.
Wo: Universität Stuttgart, Kepler 17 (K2) - M 17.72 (KP1707M 17.72).
Bei Fragen melden Sie sich bitte bei Dr. Anselm Küsters.
Programme vergangener MA-Kolloquien
Programme vergangener Mastertagungen
Zurück zur Abteilung
Kontakt

Anselm Küsters
Dr.Vertretungsprofessor Digital Humanities