Geschichte im Spiegel der zeitgenössischen Berichterstattung — Täglich neu erzählt
Die historische Presseschau
Zwei Wege im Vergleich
Große Sprachmodelle wie Claude, ChatGPT oder Gemini verfügen über ein enormes Allgemeinwissen, das auch historische Zusammenhänge umfasst. Wer ein solches System bittet, über den 18. Februar 1926 zu berichten, erhält in der Regel eine flüssig formulierte, plausibel klingende Antwort. Doch wie verlässlich ist dieses Wissen — und wo liegen seine Grenzen?
Das Projekt Vor 100 Jahren verfolgt einen grundlegend anderen Ansatz: Statt historische Inhalte aus dem Trainingswissen eines Sprachmodells zu reproduzieren, werden digitalisierte Zeitungsarchive aus über einem Dutzend internationaler Quellen systematisch ausgewertet und durch KI aufbereitet. Die Originalberichterstattung von vor hundert Jahren wird so Tag für Tag neu zugänglich gemacht.
Beide Ansätze nutzen Künstliche Intelligenz — doch sie unterscheiden sich fundamental in dem, was sie leisten können und wo ihre jeweiligen Stärken und Schwächen liegen.
Große Sprachmodelle werden mit riesigen Textmengen trainiert — darunter Enzyklopädien, Geschichtsbücher, wissenschaftliche Aufsätze und Internetquellen. Aus diesem Training entsteht ein statistisches Modell, das auf Fragen zu historischen Themen sprachlich überzeugende Antworten erzeugen kann. Man stellt eine Frage, das Modell antwortet aus seinem „Gedächtnis".
Digitalisierte Zeitungsarchive aus verschiedenen Ländern werden systematisch nach der Berichterstattung eines bestimmten Tages durchsucht. Die gefundenen Originalartikel werden anschließend durch KI aufbereitet: in modernes, verständliches Deutsch übertragen, mit historischem Kontext versehen, um redaktionelle Anmerkungen ergänzt und durch Querverweise angereichert. Das Sprachmodell fungiert hier nicht als Wissensquelle, sondern als Werkzeug zur Erschließung und Vermittlung vorhandener Primärquellen.
Der entscheidende Unterschied zwischen beiden Methoden liegt nicht in der Technologie, sondern in der Wissensgrundlage.
Methode A erzeugt Geschichte aus einem statistischen Modell. Sie liefert das, was in der Summe aller Trainingstexte als wahrscheinlichste Antwort erscheint. Das Ergebnis ist oft korrekt, manchmal oberflächlich, gelegentlich falsch — und nie belegbar.
Methode B nutzt dieselbe Technologie, bindet sie aber an historische Primärquellen. Das Sprachmodell wird vom vermeintlichen Wissensträger zum Vermittlungswerkzeug. Es erschließt Quellen, die für ein breites Publikum sonst unzugänglich blieben — sei es wegen der Sprache, des Formats oder schlicht der Menge.