INNOVATIV
Band 79: Janet Wagner Band 78: Philip Franklin Orr Band 77: Carina Dony Band 76:
Linda Freyberg
Sabine Wolf (Hrsg.)
Band 75: Denise Rudolph Band 74: Sophia Paplowski Band 73: Carmen Krause Band 72:
Katrin Toetzke
Dirk Wissen
Band 71: Rahel Zoller Band 70: Sabrina Lorenz Band 69: Jennifer Hale Band 68:
Linda Schünhoff
Benjamin Flämig
Band 67:
Wilfried Sühl-Strohmenger
Jan-Pieter Barbian
Band 66: Tina Schurig Band 65: Christine Niehoff Band 64: Eva May Band 63: Eva Bunge Band 62: Nathalie Hild Band 61: Martina Haller Band 60: Leonie Flachsmann Band 59: Susanne Göttker Band 58: Georg Ruppelt Band 57: Karin Holste-Flinspach Band 56: Rafael Ball Band 55: Bettina Schröder Band 54: Florian Hagen Band 53: Anthea Zöller Band 52: Ursula Georgy Band 51: Ursula Jaksch Band 50: Hermann Rösch (Hrsg) Band 49: Lisa Maria Geisler Band 48: Raphaela Schneider Band 47: Eike Kleiner
Bestellen Sie jetzt online!
8. Dezember 2025
  WEITERE NEWS
Aktuelles aus
L
ibrary
Essentials

In der Ausgabe 8/2025 (November 2025) lesen Sie u.a.:

  • Gen Z und Gen Alpha: Wie junge Zielgruppen Medien zwischen TikTok und Haltung neu definieren
  • Ethische Verantwortung im Umgang mit biomedizinischen Archiven
  • Open-Research-Plattformen im Praxistest
  • Digitale Technologien im Kulturerbe: Forschungsentwicklung zwischen Datenanalyse und KI-Unterstützung
  • KI-Texte beliebter als Originale
  • Zines als Impuls für soziale Gerechtigkeit in Bibliotheken
  • Ein dezentrales Fundament für Open Science: Warum Forschungsdaten neue Infrastrukturen brauchen
  • Vergessenes Wissen auf Disketten: Cambridge rettet digitale Geschichte
  • Europas Bibliotheken im Visier von Kunstraub
  • Nach dem Aus von Baker & Taylor: US-Bibliotheken suchen neue Buchgroßhändler
u.v.m.
  fachbuchjournal

DGI-Forum Wittenberg 2025 – Wissenschaft zur Sprache bringen

Informationskompetenz ist in aller Munde. Ergebnisse sollen stets überprüft werden. Allzu oft wird dabei außer Acht gelassen, dass eine fundierte Beurteilung maschinell erzeugter Ergebnisse nur gelingen kann, wenn entsprechendes Wissen und Urteilsfähigkeit vorhanden sind. Man muss die Ergebnisse also überhaupt erst einmal verstehen, auch sprachlich, indem man die Fachterminologie kennt. Das DGI-Forum Wittenberg 2025 widmet am 11. und 12. September in der traditionsreichen Leucorea der Lutherstadt dem Thema „Prozesse des Verstehens – Verstehen der Prozesse. Wissenschaft zur Sprache bringen“. Dabei werden die beiden Kulturen Natur- und Geisteswissenschaften ins Gespräch gebracht. Wie schon in der Vergangenheit hat sich der Lehrstuhl Deutschdidaktik der Martin-Luther-Universität Halle-Wittenberg mit Matthias Ballod und Michael Woll maßgeblich an der Programmgestaltung beteiligt.

Magdalena Gronau und Martin Gronau stellen zum Auftakt beispielhaft die Produktivität interdisziplinären Austauschs heraus – insbesondere mit Blick auf die exponierte Rolle von Sprache und Philologie auch im Regime naturwissenschaftlich-mathematischer Wissenserzeugung und -vermittlung. Am Beispiel der Quantenphysik gehen sie der Frage nach, inwiefern die humanistische Bildung die Genese und Vermittlung neuer Wissensinhalte beeinflusst hat. Ansatzpunkt ist die Beobachtung, dass die Schriften und nachgelassenen Materialien der deutschsprachigen Gründerväter der Quantentheorie auffallend reich sind an Rekursen auf philologische Wissensbestände.

Anhand zahlreicher Beispiele werden text- und materialnah u.a. folgende Fragen beantwortet: Wie konnten die theoretischen Physiker ihr philologisches Wissen fruchtbar machen, wenn es darum ging, neues Wissen, das die Grenzen der Logik und der Alltagssprache zu sprengen schien, zu versprachlichen und begreifbar zu machen? Inwiefern waren die verschiedenen Techniken des Lesens, Interpretierens, Übersetzens und Erzeugens von ‚Texten‘, wie sie in den philologischen und physikalischen Seminaren jener Zeit praktiziert wurden, wechselseitig anschlussfähig? Unter welchen Bedingungen konnte vielleicht sogar die Philologie als Wissensmodell für die moderne Physik fungieren?

Melanie Huth und Christof Schreiber analysieren, was sich beim Mathematiklernen in der Grundschule bei den Kindern abspielt. Immerhin müssen sie sich dabei mit für sie neuen Arten von Zeichen vertraut machen. Mit sogenannten „Semiotischen Prozess-Karten“, die auf der Semiotik von Charles Sanders Peirce beruhen, wurde in zwei Forschungsprojekten rekonstruiert, wie Lernende mathematische Erkenntnisse gewinnen, Beziehungen zwischen Zeichen herstellen und welche Darstellungen sie verwenden. Während das erste Projekt den Fokus auf schriftlich-grafische Darstellungen richtet, analysiert das zweite Projekt Gesten der Lernenden.

Henning Rust und Luzian Weisel befassen sich mit der Sprache der Klimakommunikation. Organisierte Desinformationskampagnen wabern ständig durchs Web. Handlungsempfehlungen für einen klimaschonenden Lebensstil verpuffen immer häufiger. Mobilität, Heizen und Ernährung sind Schlüsselbereiche für relevante Konsumentscheidungen. Mit welchen Narrativen, in welcher motivierenden und überzeugenden Sprache müssen Klimaforschung und Politik kommunizieren?

Sercan Sever geht der Frage nach, was es bedeuten kann, „Zukunft zu verstehen“, und warum dies notwendig bleibt. Zukunftsverstehen wird nicht als die Kunst verstanden, das Eintreffen künftiger Ereignisse vorherzusagen, sondern die Fähigkeit, gegenwärtiger Zukunftsaussagen zu beurteilen, ihre Bedingungen zu klären und ihre Auswirkungen auf heutiges Handeln darzulegen. Dafür werden zunächst Gemeinsamkeiten und Unterschiede disziplinärer Verstehensweisen erörtert. Anhand der Metapher des „Brennglases“ wird an einem Zukunftsbeispiel – automatisierte Supermärkte – gezeigt, wie Annahmen und Voraussetzungen in Zukunftsaussagen gebündelt werden, wie sie Entscheidungen im Heute beeinflussen und wie deren Prüfung ein reflektiertes Zukunftsverstehen ermöglicht.

Zu einem Debattenatelier über digitale Literaturwissenschaft und pädagogische Praxis lädt Marie Flüh ein. Anhand des Seminars „Digitale Literaturwissenschaft und Literaturdidaktik“ (durchgeführt im WiSe 23/24 und WiSe 2024/25 am Institut für Germanistik der Universität Hamburg) wird zunächst der Brückenschlag zwischen Digital Humanities und Lehrkräfteausbildung vorgestellt. Es geht um die Synchronisierung von Grundkompetenzen im Umgang mit Methoden der digitalen Textanalyse mit einer literaturdidaktischen Kompetenzentwicklung.

Daraus ergeben sich verschiedene Fragen der Komplexitätsreduktion, die für die Wissensvermittlung digitalisierungsbezogener Fachinhalte auch außerhalb der Lehrkräfteausbildung bedeutsam sind. Im Rahmen einer kurzen Gruppenarbeitsphase und einer daran anschließenden offenen Gesprächsrunde soll gemeinsam diskutiert werden, wie die Vermittlung digitalisierungsbezogene Methoden in verschiedenen Fachgebieten gelingen kann.

Anhand der Archivbestände des Deutschen Literaturarchivs Marbach gibt Vera Hildenbrandt einen Einblick in Versuche, Literatur mit dem Computer zu generieren. So ist der „Poesieautomat“ von Hans Magnus Enzensberger seit Jahren eine Hauptattraktion im Literaturmuseum der Moderne. Aus der Reflexion früher Versuche, Rechnern Poesie beizubringen, kann die Literaturwissenschaft heute Einsichten gewinnen, die ihr Methodeninventar direkt betreffen: Können wir – und wenn ja: wie? – Literatur rechnend neu und anders verstehen? Und hilft uns der Blick ins Archiv, um Prozesse des Machine Learning besser zu verstehen, auch im Hinblick auf die Weiterentwicklung von Sprachmodellen im Bereich generativer KI?

Gunhild Berg zeigt, dass trotz wissenschaftsmethodischer und poetologischer Missverständnisse die Wechselwirkungen zwischen Experimentalwissenschaften und Literatur zur kreativ-produktiven Entwicklung literarischer Ausdrucksformen, Erzähltechniken und Gattungen beigetragen haben. Sie haben explorativ die Grenzen überstiegen, die den medizinischen Wissenschaften bei Experimenten mit Menschen gesetzt sind. Die ‚zwei Kulturen‘ (Snow) (Natur-)Wissenschaften sowie Geisteswissenschaften und Literatur lassen sich so in der ‚schönen Literatur‘ zusammenführen.

Mit NaGra (Natural-language Conceptual Graph) stellt Pablo Pirnay-Dummer ein innovatives Verfahren vor, das mathematische Formalismen in natürliche Sprache übersetzt und daraus mithilfe weiterer natürlichsprachlicher Analyseverfahren automatisch Wissenslandkarten generiert. Aufbauend auf der Theorie mentaler Modelle können diese mit neu zugänglichen Darstellungsformen – ergänzt durch gezielte Lernimpulse – als didaktische Unterstützung im Mathematikstudium eingesetzt werden.

Ziel ist es, insbesondere Erstsemester beim Übergang von der Schul- zur Hochschulmathematik zu unterstützen, der oft mit einem sprunghaften Anstieg an Abstraktionsanforderungen verbunden ist. Anwendungsbeispiele machen deutlich, wie NaGra dazu beiträgt: (1) mathematische Formeln verständlich und visuell aufzubereiten, (2) die Struktur des erforderlichen Vorwissens zugänglich zu machen und (3) zentrale Wissensbereiche eines zum Lernen herangezogenen Problems sichtbar zu machen.

Abschließend beleuchtet Joachim Griesbaum, wie sich generative Künstliche Intelligenz (KI) konzeptuell erfassen und kommunikativ erleben lässt. Im Zentrum stehen mentale Modelle, Vorstellungen sowie die Zuschreibung sozialer Eigenschaften und Kompetenzen an KI-Systeme. Dabei wird der Frage nachgegangen, inwieweit KI als greifbar, hilfreich oder bedrohlich wahrgenommen wird.

Angesichts der zunehmenden Verbreitung generativer KI in professionellen und alltäglichen Kontexten – etwa in der Gesundheitskommunikation, dem Online-Marketing oder der Teamarbeit – stellt sich die Frage nach dem Erfolg ihres Einsatzes. Es wird diskutiert, welche Faktoren dieses kommunikative Gelingen begünstigen und welche Implikationen sich daraus für den zukünftigen Umgang mit KI ergeben.

Tagesaktuelle Informationen und die Möglichkeit, sich bis Ende Juli 2025 den Frühbucherrabatt zu sichern, gibt es unter https://dgi-info.de/event/dgi-forum-wittenberg-2025/.