Was Sie erwartet
Im Rahmen unserer MA-Kolloquien stellen Masterstudierende der Digital Humanities an der Universität Stuttgart ihre Projekte vor. Darüber hinaus ermöglichen Gastvorträge aus der internationalen DH-Community, dass sich die Studierenden bereits im Studium austauschen und vernetzen können.
Programm
Das Programm im Detail
Die Digital Humanities sind durch ihre interdisziplinäre Natur gekennzeichnet, was sowohl methodische als auch begriffliche Herausforderungen mit sich bringt. In meiner Präsentation werde ich den Prozess der Entwicklung einer erfolgreichen DH-Masterarbeit von der Forschungsfrage bis zur Umsetzung beleuchten. Wie findet man eine relevante Forschungsfrage in diesem heterogenen Feld? Welche methodischen Ansätze eignen sich für welche Fragestellungen, und wie operationalisiert man geisteswissenschaftliche Konzepte für die digitale Analyse? Anhand konkreter Beispiele und typischer Projektstrukturen demonstriere ich, wie der Weg von der ersten Idee zum fertigen DH-Projekt gestaltet werden kann, und diskutiere dabei auch den reflektierten Umgang mit KI-Werkzeugen. Die Präsentation bietet eine strukturierte Anleitung für Studierende, die an der Schnittstelle zwischen traditionellen Geisteswissenschaften und digitalen Methoden forschen möchten.
(Dr. Anselm Küsters, Universität Stuttgart)
Times New Roman oder Arial? APA oder Harvard? Vier Zentimeter Seitenrand oder fünf? Das Niederschreiben der Masterarbeit zwingt uns zu dutzenden kleinen Entscheidungen. Viele universitäre und außeruniversitäre Institutionen geben klare Standards vor, welche viele dieser Entscheidungen zu einer Frage von "richtig" oder "falsch" werden lassen. In der Abteilung für Digital Humanities der Universität Stuttgart geben wir keine umfangreichen Vorgaben für die Formalia von schriftlichen Ausarbeitungen heraus. Dieses Kolloquium möchte ich nutzen, um mit Ihnen über das Zusammenspiel von Form und Inhalt zu reflektieren und daraus eine Orientierungshilfe für die vor Ihnen liegenden dutzenden Entscheidungen zu erarbeiten.
Schauen Sie bitte vor der Sitzung in unsere neu veröffentlichten FAQ zum Thema Masterarbeit und bringen Sie Ihre drängendsten Fragen zu den Formalia Ihrer Arbeit mit.
(Pascal Hein, Studiengangsmanager Digital Humanities, Universität Stuttgart)
Die Arabic Papyrology Database enthält etwa 14.000 schriftliche Zeugnisse aus 10 Jahrhunderten. In qualitativen Analysen einzelner Dokumente konnten sprachliche Muster nachgewiesen werden. Nun sollen in maschinell gestützten Analysen sprachliche Moden nachgewiesen werden. Doch wie gelangt man von der Idee zum Endergebnis? Wie entwickelt man einen Projektablauf? Wie hängen Inhalt und zeitliche Planung zusammen? Am Zwischenstand meines PhD Projekts werde ich exemplarisch zeigen, wie wissenschaftliche Forschung strukturiert sein kann.
(Hanna Weimann, Wissenschaftliche Mitarbeiterin, Universität Stuttgart)
Im Vortrag wird eine Ontologie präsentiert, mit der sich Wappenblasonierungen in RDF kodieren und damit maschinenlesbar und interoperabel machen lassen. Diese Ontologie ist Teil des "Digital Heraldry Knowledge Graph", der darauf abzielt, mittelalterliche und frühneuzeitliche Wappen nicht nur zu beschreiben, sondern sie auch in ihren historischen und materiellen Nutzungskontext zu setzen, um diese visuellen Quellen für datengestützte historische Forschung zugänglich zu machen. Die Entwicklung der Ontologie ist außerdem Teil des laufenden Dissertationsprojekts “Coats of Arms in Context”, das eine Grundlage für die Erforschung visueller heraldischer Kommunikation aus einer kulturhistorischen Perspektive mit datengetriebenen Methoden zum Inhalt hat. Der Vortrag gibt einen Einblick in die Entwicklung einer formalen Ontologie mit Semantic Web Technologien und deren Einbettung in eine kumulative Promotion.
(M.A. Philipp Schneider, Humboldt-Universität zu Berlin)
Das Projekt "Die Schule von Salamanca. Eine digitale Quellensammlung und ein Wörterbuch ihrer juristisch-politischen Sprache" stellt frühneuzeitliche Werke einer Gruppe von Autoren in digitaler Edition bereit, die die abendländische politische Ideengeschichte geprägt haben: Von der Kritik der spanischen *Conquista* über die Idee der Menschenrechte bis zur kapitalistischen Wirtschaftstheorie kamen wesentliche Anstöße aus diesem einflussreichen, global verteilten Netzwerk von Juristen, Theologen und Philosophen. Um die internen Bezugnahmen, Differenzierungen und Entwicklungen dieses Diskussionszusammenhangs, und nicht zuletzt um die Schulbildung selbst zu erforschen, sind innerhalb des edierten Corpus *vergleichende Untersuchungen* von besonderem Interesse, und im Projekt ist es eine wiederkehrende Frage, wie diese durch editorische Entscheidungen und Angebote erleichtert werden können.
Mit der "Sprachkompetenz" der großen Sprachmodelle wurden Möglichkeiten geschaffen, Textpassagen anhand ihrer Semantik aufzusuchen und zu vergleichen. Neben Erleichterungen im editorischen Tagesgeschäft (Korrekturen, Textauszeichnungen u.ä.) berichte ich ausführlich von einem Experiment, *Embeddings* für die Exploration des Corpus zu nutzen. So macht diese Technologie es etwa möglich, (a) im Ausgang von einer einzelnen Passage andere "ähnliche" Passagen im Corpus zu identifizeren. Eine zweite Möglichkeit eröffnet sich (b) im Umgang mit einer Sammlung von Passagen - z.B. von Suchergebnissen oder von einer Favoritenliste. Über Embeddings lassen sich diese Passagen als Punkte in einem Raum abbilden und in ihrer Konfiguration untersuchen: Gibt es diskrete Zusammenballungen oder eine gleichmäßige Verteilung? Wie verhalten sich die in der Ausgangsliste enthaltenen Textpassagen zum Rest aller Passagen im Corpus? Schließlich kann auf der Grundlage der Embedding-Vektoren (c) eine eigene Retrieval-Augmented-Generation (RAG) Funktion angeboten werden.
Neben der Vorstellung konkreter - wenn auch noch experimenteller - Funktionalitäten sollen auch die grundsätzlichen Fähigkeiten und Begrenzungen der großen Sprachmodelle im Vortrag angeschnitten werden. Denn die vorgestellten Funktionen eignen sich, um den Unterschied zwischen dem "Encoding" und dem "Decoding"-Vorgang zu verdeutlichen und die jeweiligen Konsequenzen zur Diskussion zu stellen.
(Dr. Andreas Wagner, Max-Planck-Institut für Rechtsgeschichte und Rechtstheorie Frankfurt)
Die Document Layout Analysis bedient sich eines Bündels an Methoden und Technologien, vor allem aus der Computer Vision, um aus Digitalisaten maschinenlesbare und möglichst strukturierte (Text-)Dateien zu erstellen. Dieser, über die ‚eigentliche‘ OCR hinausgehende Rekonstruktionsprozess umfasst auch die Segmentierung und Unterscheidung von Layoutelementen nach Klassen (Absätze, Überschriften, Fußnoten etc.) und bringt für historische Dokumente – v. a. wegen ihrer mannigfaltigen Besonderheiten im Bereich Materialität und ‚typographische Dispositive‘ – noch einige Herausforderungen mit sich. Dabei kann eine schlechte Segmentierung zu Verzerrungen in den nachfolgenden Analysen führen. An der Fallstudie Friedrich von Hagedorns (1708–1754), der für seine paratextuelle (Anmerkungs-)Praxis berühmt-berüchtigt war, werden im Vortrag einige gängige Plattformen/Tools zur Layoutanalyse praxisorientiert dargestellt, darunter: Kraken (eScripotrium), Detectron2, Transkribus, wobei auch damit einhergehende Aspekte (Annotation, Formate/Interoperabilität, Evaluation, Dokumentation) Erwähnung finden sollen. Die Teilnehmenden erhalten dadurch einen ersten Überblick zu Praktiken und Lösungswegen für eigene Anwendungsfälle.
(M.A. Arsenije Bogdanović, Universität Stuttgart)
Mobilität und Wirtschaft in der römischen Antike
Die Suche nach einem historischen Thema für die Masterarbeit bringt zugleich die Suche nach geeigneten Quellen mit sich. Im Vortrag sollen Forschungsinteressen sowie bisherige Überlegungen und mögliche Umsetzungsideen präsentiert werden. Dabei werden die bisher recherchierten Ergebnisse aus den Quelldaten (epigraphische, archäologische und literarische Quellen) präsentiert sowie wird auf mögliche Probleme der Datenqualität aufmerksam gemacht. Die bisherige Extrahierung der literarischen Quellen mittels OCR soll ebenso besprochen werden, um sie eventuell zu perfektionieren. Generell soll die Eignung der Datengrundlagen für eine historische empirische Studie im Kolloquium diskutiert werden, um danach mögliche Forschungsfragen zu formulieren.
(Antonia Friedrich, Universität Stuttgart)
Vergleich digitaler Methoden der Textanalyse zur Identifizierung rechtspopulistischer Sprache
Wie lassen sich rechtspopulistische Sprachmuster in politischen Texten zuverlässig identifizieren? Zur Beantwortung dieser Frage werden verschiedene digitale Methoden der Textanalyse vorgestellt, um sie anschließend beim Aufspüren rechtspopulistischer Rhetorik einzusetzen. Die Analyse wird anhand drei verschiedener, eigens zu diesem Zweck zusammengestellter Korpora aus Parteiprogrammen und politischen Reden sowohl rechter, als auch liberaler Parteien durchgeführt. Ergänzt wird diese Analyse unter anderem durch Visualisierungen mit PCA und verschiedenen Ähnlichkeitsmessungen (darunter bspw. die Cosinus Similarity). Durch diese Verfahren sollen vor allem Gemeinsamkeiten und Unterschiede der politischen Sprache der ausgewählten Parteien sowohl untereinander ("Intra-Similarity"), als auch korpusübergreifend ("Inter-Similarity"), aufgezeigt und untersucht werden. Ziel ist hierbei, das Potenzial automatisierter Verfahren zur politischen Sprachdiagnostik nicht nur auszuloten, sondern darüber hinaus auch kritisch zu beleuchten.
(Kevin Stevens, Universität Stuttgart)
Wie lassen sich juristische Dokumente – wie Gerichtsentscheidungen, Gesetze oder Verträge – mithilfe der Methoden der Digital Humanities systematisch analysieren? Der Vortrag gibt zunächst einen kompakten Überblick über zentrale Forschungsthemen und Fragestellungen an der Schnittstelle von Recht und Digital Humanities. Im Anschluss wird vertieft auf den Einsatz maschinellen Lernens eingegangen, insbesondere im Hinblick auf die Herausforderungen bei der Erschließung umfangreicher Rechtsprechungskorpora. Am Beispiel einer Studie zur Anwendung der Verhältnismäßigkeitsprüfung in Entscheidungen des Bundesverfassungsgerichts wird exemplarisch aufgezeigt, wie rechtliche Argumentationstechniken automatisiert erkannt und analysiert werden können.
(Kilian Lüders, Universität Regensburg, Humboldt-Universität zu Berlin)
1. Wiederkehrende Topoi in der Fastnachstliteratur: Eine quantitative Analyse literarischer Muster zur Maskierung, Umkehrung und Gemeinschaft
2. Zwillinge in der Literatur: Ein Symbol, das die Realität übersteigt und alternative Narrative erschafft
Die Untersuchung literarischer Symbole und wiederkehrender Erzählmuster erfordert eine sorgfältige Analyse relevanter Quellen sowie eine Reflexion methodischer Ansätze. Im Vortrag sollen die bisherigen Forschungsüberlegungen zu „Zwillinge in der Literatur: Ein Symbol, das die Realität übersteigt und alternative Narrative erschafft“ sowie „Wiederkehrende Topoi in der Fastnachtsliteratur: Eine quantitative Analyse literarischer Muster zur Maskierung und Umkehrung“ vorgestellt werden. Dabei werden mögliche Herausforderungen hinsichtlich der Interpretation und Kategorisierung literarischer Muster diskutiert. Besonders die Erstellung eines geeigneten Korpus stellt in beiden Fällen eine methodische Herausforderung dar, da sowohl die Auswahl als auch die Systematisierung der Textgrundlagen von verschiedenen Faktoren beeinflusst werden. Ziel der Präsentation ist es, die beiden Thesen sowie ihre methodischen und inhaltlichen Implikationen im Rahmen einer Masterarbeit zur Diskussion zu stellen, um gemeinsam Möglichkeiten der weiteren Forschungsarbeit auszuloten.
(Johanna Sandfort, Universität Stuttgart)
Digitale Analyse von historischen NS-Quellen
In der geplanten Masterarbeit soll das Thema „Erinnerung und Schuld“ im Kontext der deutschen Erinnerungskultur behandelt werden. Hierzu ist die Analyse verschiedener Zeitungen aus den Jahren 1935, 1945 und 1955 vorgesehen, wobei der Fokus exemplarisch auf den Quartalsmonaten Januar, April, August und Dezember liegt. Mithilfe digitaler Methoden ist geplant, narrative Muster der Darstellung, Deutung oder Verdrängung der NS-Vergangenheit zu identifizieren und sichtbar zu machen. Im Vortrag werden der aktuelle Arbeitsstand, die bisherige Literaturrecherche sowie erste Herausforderungen bei der Korpuserstellung und Transkription vorgestellt. Ziel ist es, das methodische Vorgehen zu schärfen, den theoretischen Rahmen weiter auszuarbeiten und so eine tragfähige Grundlage für die weitere Schritt zu schaffen.
(Judith Schulze, Universität Stuttgart)
A Digital Exploration of Morality and Feminism in Agatha Christie’s Detective Fiction
Agatha Christie ist eine der bekanntesten Kriminalschriftstellerinnen der sogenannten „Golden Age“ der Detektivliteratur, die etwa von den 1920er- bis 1940er-Jahren andauerte. Über Agatha Christie wurde bereits viel geforscht, sowohl über ihr Privatleben als auch über ihre Werke. Der Großteil dieser Forschung konzentriert sich auf ihre Gestaltung von Detektivromanen und darauf, wie die Charakterzüge ihrer beiden berühmten Detektive – Hercule Poirot und Miss Marple – ihr inneres Weltbild widerspiegeln, darunter ihre Klassenhaltung, moralischen Ansichten und feministischen Überzeugungen. Jedoch gibt es bisher nur wenige Studien, die sich mit den Mördern in Christies Werken befassen, insbesondere unter Anwendung von digitalen Methoden.
Ziel meiner Arbeit ist es, mithilfe digitaler Methoden als wertvolle Ergänzung die Charakteristika der Mörder in Agatha Christies Romanen herauszuarbeiten, insbesondere die Unterschiede zwischen männlichen und weiblichen Mördern. Dabei möchte ich untersuchen, ob diese Unterschiede Rückschlüsse auf Christies Vorstellungen von Gut und Böse sowie auf ihr feministisches Gedankengut zulassen. Da es sich hierbei um eine bislang unberührte Perspektive im Bereich der Digital Humanities handelt, hoffe ich, mit meiner Arbeit einen bescheidenen Beitrag zur Forschung über Agatha Christie und zur digitalen Geisteswissenschaft insgesamt leisten zu können.
(Mengjiao Li, Universität Stuttgart)
Wo Modelle uns in den Geisteswissenschaften begegnen und wie sich diese produktiv für die computergestützte Forschung nutzen lassen, steht im Fokus dieser Seminars. Anhand von praktischen Beispielen wird aufgezeigt, wie Modelle im Forschungsdesign oder in der Operationalisierung von Netzwerken eine wesentliche Rolle spielen. Dazu wird das Seminar eine knappe Einführung in die (historische) Netzwerkanalyse geben und diskutiert, wie die Anwendung von LLMs die Arbeit mit historischen Quellen verändert.
(Dr. Cindarella Petz, IEG (Leibniz-Institut für Europäische Geschichte) Mainz)
Spezialisten für biologische (und evtl. auch chemische) Waffenabwehr vor, während und nach dem 2. Weltkrieg
Gerade in der GNT nimmt das Durchsehen alter Fachzeitschriften sehr viel Zeit und Ressourcen ein, bestenfalls findet man in 1 - 2 Artikel unter 100. Manche Artikel sind digitalisiert, die meisten jedoch nicht. Die Erfassung der Layouts ist ebenfalls relativ komplex. Ein weiterer Faktor der zum einen häufig Gegenstand von Forschung ist und zum anderen in einem äußerst sensiblen Themenbereich liegt sind Veröffentlichungen der 30er und 40er. Hier tritt zusätzlich noch das Problem der Kriegsschäden auf und viele Bände sind nur unvollständig vorhanden. Dies führt dazu, dass Studenten Zeitschriften lieber nicht beachten, womit allerdings eine gigantischer Quellenschatz zwar da ist, aber die Sichtung zu mühsam. In der geplanten Masterarbeit soll es um die Vervollständigung, Digitalisierung und Erfassung von Fachzeitschriften zu Zivilschutz und Luftschutz gehen, sowie den Abgleich von Vorkriegs- und Nachkriegsbänden.
(Ronja Denneler, Universität Stuttgart)
1. Visuelle Indoktrination im Nationalsozialismus
Die erste Idee untersucht die visuelle Indoktrination im Nationalsozialismus anhand von Wochenschauen und/oder Filmen, wobei digitale Tools wie VIAN oder ELAN zur systematischen Videoannotation eingesetzt werden sollen. Ziel ist es, wiederkehrende visuelle Muster – etwa Fahnen, Uniformen oder Kameraperspektiven – zu identifizieren und im Hinblick auf ihre propagandistische Wirkung auf die Menschen zu deuten.
2. Erzählen durch Scheitern – Das ludonarrative Potenzial des Misserfolgs in Disco Elysium
Wie wird Scheitern in Disco Elysium nicht als Spielhindernis, sondern als zentrales erzählerisches Prinzip gestaltet – und welche emotionalen und narrativen Effekte entstehen daraus?
Mensch oder Maschine. Vergleich der Schreibkompetenzen von künstlicher Intelligenz und Mensch unter dem Aspekt verschiedener Genres
Die vorliegende Masterarbeit mit dem Thema "Mensch oder Maschine. Vergleich der Schreibkompetenzen von künstlicher Intelligenz und Mensch unter dem Aspekt verschiedener Genres" widmet sich der Untersuchung der Besonderheiten von Texten, die von Menschen und künstlicher Intelligenz geschrieben werden. Die Relevanz der Arbeit ergibt sich aus der zunehmenden Einführung künstlicher Intelligenz in alle Bereiche des menschlichen Lebens. Ziel dieser Masterarbeit ist es, die Unterschiede in Texten verschiedener Genres, die von Menschen und künstlicher Intelligenz geschrieben wurden, zu ermitteln und zu untersuchen. Die in dieser Arbeit verwendeten Forschungsmethoden sind Sentiment-Analyse, Themenidentifikation, Häufigkeitsanalysen, Stilometrie und Netzwerkanalyse. Die praktische Bedeutung dieser Arbeit besteht darin, ein tieferes Verständnis für die Unterschiede zwischen von Menschen geschriebenen Texten verschiedener Genres und von künstlicher Intelligenz geschriebenen Texten zu schaffen.
(Yelyzaveta Honcharova, Universität Stuttgart)
(Alena Wabitsch, University of Oxford)
(Jens Giesel, Frankfurter Allgemeine Zeitung)
Das Wichtigste im Überblick
Wann: ab dem 09.04.2025 bis 16.07.2025 immer mittwochs um 17:30 Uhr.
Wo: Universität Stuttgart, Kepler 17 (K2) - M 17.72 (KP1707M 17.72).
Bei Fragen melden Sie sich bitte bei Dr. Anselm Küsters.
Programme vergangener MA-Kolloquien
Programme vergangener Mastertagungen
Zurück zur Abteilung
Kontakt

Anselm Küsters
Dr.Vertretungsprofessor Digital Humanities