Posts Tagged ‘Quellenarbeit’

Buchkritik: London After Midnight – das Standardwerk zum Lost Film von Daniel Titley

15. März 2026

Daniel Titleys Buch London After Midnight – The Lost Film nähert sich einem der berühmtesten verlorenen Filme der Filmgeschichte nicht über Mythen oder Sensationslust, sondern über sorgfältige Rekonstruktion, Quellenarbeit und kritische Einordnung. Statt den verschollenen Stummfilm von 1927 linear nachzuerzählen, versammelt Titley thematisch gegliederte Essays, die gemeinsam ein möglichst vollständiges Bild eines Werks zeichnen, das heute nur noch in Fragmenten existiert – und gerade dadurch zur Legende wurde. Das Buch war wunderbares Weihnachtsgeschenk meiner Frau.

Zu Beginn widmet sich das Buch der Entstehungsgeschichte von London After Midnight. Ausführlich beleuchtet werden Tod Brownings Arbeitsweise, Lon Chaneys berühmte Doppelrolle, die Produktionsbedingungen bei MGM sowie die Einordnung des Films in die Horror- und Mysterylandschaft der 1920er-Jahre. Deutlich wird dabei, dass es sich nicht um einen klassischen Vampirfilm handelte, sondern um ein kriminalistisches Täuschungsspiel, das Horrormotive gezielt einsetzte, um Figuren und Publikum zu manipulieren. Chaneys ikonische Erscheinung mit Zylinder und spitzen Zähnen war demnach keine übernatürliche Figur, sondern Teil eines inszenierten Betrugs innerhalb der Handlung.

Ein weiterer Schwerpunkt liegt auf der zeitgenössischen Rezeption. Anhand von Kritiken, Pressemeldungen und Werbematerial zeigt Titley, dass der Film bei seinem Erscheinen zwar als unheimlich und ungewöhnlich wahrgenommen wurde, jedoch keineswegs als Meisterwerk galt. Erst sein späteres Verschwinden verlieh ihm den besonderen Status. Die nachträgliche Aufladung als „größter verlorener Horrorfilm“ ist somit weniger Ergebnis seiner damaligen Wirkung als vielmehr ein Produkt der Filmgeschichte im Rückblick.

Zentral für das Buch ist die detaillierte Auseinandersetzung mit dem Verlust des Films. Titley rekonstruiert, wie Kopien nach und nach verschwanden und warum gerade der MGM-Archivbrand von 1965 in Culver City das endgültige Ende bedeutete. Ursache des Feuers war das hochentzündliche Nitrocellulose-Material, das bei mangelhaften Lagerbedingungen leicht zur Selbstentzündung neigte. Der Brand zerstörte Hunderte von Filmen, London After Midnight war nur eines von vielen Opfern – wurde aber erst im Nachhinein zum Symbol aller „lost films“. Titley zeigt nüchtern, dass hier weder ein Fluch noch besondere Fahrlässigkeit im engeren Sinn vorlagen, sondern die damals übliche Geringschätzung alter Stummfilme als Kulturgut.

Einen großen Raum nimmt die Analyse der erhaltenen Fragmente ein. Standfotos, Drehbuchreste, Zensurunterlagen und zeitgenössische Inhaltsangaben werden ausgewertet, um den wahrscheinlichen Ablauf des Films zu rekonstruieren. Diese Rekonstruktion bleibt bewusst fragmentarisch, erlaubt aber erstaunlich präzise Aussagen über Dramaturgie, Figurenkonstellationen und Auflösung. Besonders hervorgehoben wird Chaneys Doppelrolle als Schlüssel zum Thema Identität und Täuschung – ein früher Ansatz psychologischen Horrors, der ohne echte Monster auskam.

Ebenso gründlich widmet sich Titley der Mythenbildung. Hartnäckige Legenden über mysteriöse Todesfälle, geheime Privatkopien oder wahnsinnige Zuschauer werden systematisch überprüft und widerlegt. Weder Lon Chaneys früher Tod noch Tod Brownings Biografie noch angebliche Vorführungsdramen halten einer quellenkritischen Prüfung stand. Auch die Frage nach dem „letzten Zuschauer“ des Films beantwortet das Buch nüchtern: Es gibt keinen belegten letzten Zeugen. Am wahrscheinlichsten ist, dass der Film zuletzt routinemäßig von anonymen MGM-Archivmitarbeitern gesehen wurde – ohne jedes Bewusstsein für seine spätere Bedeutung.

Abschließend weitet das Buch den Blick auf die Bedeutung verlorener Filme insgesamt. London After Midnight dient als exemplarischer Fall dafür, wie fragmentarisch Filmgeschichte überliefert ist und wie Forschung, Archivarbeit und Imagination zusammenwirken müssen, um kulturelles Erbe zumindest gedanklich zu bewahren. Titleys Ansatz ist dabei vorbildlich: transparent, kritisch und frei von Spekulation.

In der Summe liefert London After Midnight – The Lost Film kein endgültiges Bild des Films – und will es auch nicht. Stattdessen entsteht eine dichte Annäherung an ein Werk, das weniger durch das, was man sehen kann, berühmt wurde, als durch das, was fehlt. Das eigentliche Mysterium ist nicht der Film selbst, sondern die Legende, die aus seinem Verschwinden entstanden ist.

Warum ist das Buch so wichtig für uns Filmfreunde?

  1. Entzauberung des Vampir-Mythos
    Ein zentrales Highlight ist die klare Erkenntnis, dass London After Midnight kein klassischer Vampirfilm war. Titley zeigt überzeugend, dass es sich um ein kriminalistisches Täuschungsspiel handelte, in dem Horrorästhetik bewusst eingesetzt wurde, um Figuren (und Publikum) zu manipulieren.
  2. Neue Rekonstruktion des Filmablaufs
    Anhand von Standfotos, Zensurprotokollen, Drehbuchfragmenten und Pressematerial rekonstruiert Titley den wahrscheinlichen Szenenablauf des Films erstaunlich detailliert – inklusive Rollenverteilungen, Spannungsbögen und Auflösung.
  3. Seltene und teils unveröffentlichte Bildquellen
    Das Buch enthält außergewöhnlich viel seltenes Bildmaterial, darunter alternative Standfotos und Varianten bekannter Motive. Diese zeigen, wie stark Chaneys Maskenarbeit mit Licht, Pose und Kameraeffekt spielte.
  4. Kritische Demontage von Legenden
    Titley räumt systematisch mit jahrzehntelangen Gerüchten auf: angebliche Privatkopien, geheime Vorführungen oder mysteriöse Todesfälle im Umfeld des Films werden quellenkritisch widerlegt.
  5. Neubewertung der zeitgenössischen Kritik
    Ein überraschender Punkt: Zeitgenössische Rezensionen waren durchwachsen bis nüchtern. Erst der Verlust des Films machte ihn zur Ikone – ein starkes Beispiel dafür, wie Filmgeschichte rückwirkend verklärt wird.
  6. Lon Chaneys Doppelrolle als Schlüsselidee
    Besonders hervorgehoben wird Chaneys Spiel mit Identität: Seine Doppelrolle verstärkt das Thema der Täuschung und macht den Film zu einem frühen Beispiel für psychologischen Horror statt Monsterkino.
  7. Bedeutung für die Lost-Film-Forschung
    Das Buch gilt als Musterbeispiel dafür, wie man einen verlorenen Film wissenschaftlich behandelt: nicht spekulativ, sondern fragmentarisch, kritisch und transparent.
  8. Warum gerade dieser Film zur Legende wurde
    Titley zeigt, dass es weniger der Film selbst als vielmehr das ikonische Einzelbild (Zylinder, spitze Zähne, starre Augen) war, das sich ins kollektive Gedächtnis eingebrannt hat.

Das größte Highlight des Buches ist seine Haltung: Es versucht nicht, London After Midnight künstlich zum Meisterwerk zu erklären, sondern macht verständlich, warum ein verlorener, mittelmäßig rezipierter Film zum berühmtesten Phantom der Filmgeschichte werden konnte.

Die angeblichen „mysteriösen Todesfälle“ im Umfeld von London After Midnight gehören zu den hartnäckigsten Legenden – und genau diese nimmt Daniel Titley im Buch sehr gründlich auseinander. Wichtig vorweg: Keiner dieser Fälle hält einer seriösen historischen Prüfung stand.

Die wichtigsten behaupteten Mysterien – und was wirklich dahintersteckt habe ich mal aufgeführt und reflektiert.

  1. Lon Chaneys früher Tod (1930)
    Oft wird behauptet, Chaney sei „kurz nach dem Film“ unter mysteriösen Umständen gestorben oder habe sich für die Rolle gesundheitlich ruiniert.
    Falsch: Chaney starb drei Jahre später an den Folgen von Kehlkopfkrebs, begünstigt durch jahrzehntelanges Rauchen und frühere gesundheitliche Probleme. Es gibt keinen Zusammenhang mit London After Midnight. Titley zeigt, dass diese Erzählung erst nach dem Verlust des Films entstand.
  2. Tod Brownings angebliche „dunkle Phase“
    Manche Artikel suggerieren, der Regisseur sei nach dem Film psychisch abgestürzt oder vom Stoff „verfolgt“ worden.
    Falsch: Browning hatte bereits lange vor dem Film Alkoholprobleme und ein schwieriges Privatleben. Seine Karriere verlief weiter erfolgreich (u. a. Dracula, 1931). Die Verbindung zum Film ist nachträgliche Dramatisierung.
  3. Unbenannte Todesfälle im Cast oder Umfeld
    Es kursieren immer wieder vage Behauptungen, mehrere Beteiligte seien „unter seltsamen Umständen“ gestorben.
    Falsch: Titley überprüft Cast- und Crewlisten systematisch. Die Todesfälle, die sich nachweisen lassen, waren alters- oder krankheitsbedingt und lagen teils Jahrzehnte später. Keine Häufung, keine Auffälligkeiten.
  4. Der MGM-Archivbrand als „Fluch“
    Das Feuer von 1965, bei dem der letzte bekannte Print zerstört wurde, wird oft als Teil einer „unheilvollen Geschichte“ erzählt.
    Falsch: Archivbrände waren bei Nitrofilm leider häufig. London After Midnight war eines von Hunderten verlorenen Werken. Die Sonderstellung entstand erst im Nachhinein.
  5. Mord- und Wahnsinnsgerüchte rund um Vorführungen
    In Fanmagazinen und später im Internet tauchten Geschichten auf, Zuschauer seien nach Sichtungen psychisch zusammengebrochen oder hätten Verbrechen begangen.
    Falsch: Keine einzige Quelle aus der Zeit belegt solche Vorfälle. Titley weist nach, dass diese Geschichten aus späteren Horror-Fanzines stammen.

Das eigentliche „Mysterium“ ist nicht ein realer Todesfall, sondern die Mythenbildung selbst. Je weniger vom Film existierte, desto stärker wurde er mit Fluch-Narrativen,okkulten Untertönen und Todes- und Wahnsinnsgeschichten aufgeladen.
Aber: Es gab keine mysteriösen Todesfälle im Umfeld von London After Midnight.
Was es gab, war ein verlorener Film, ein ikonisches Bild – und Jahrzehnte später ein perfekter Nährboden für Legenden.

Ich bin sehr dankbar für dieses Buch und wünsche mir mehr davon. Und ich bin erstaunt, welche Wirkung der Film heute noch hat. Als ich am 1. April einen Aprilscherz machte, explodierte das Netz. Ich erfand eine Geschichte, dass eine komplette Kopie von London After Midnight aufgetaucht sei. Aber ich hatte gelogen. Was wäre es für eine schöne Geschichte geworden!

Wikipedia mit 25: Zwischen Stabilität und kulturellem Druck durch KI

25. Januar 2026

Wikipedia ist 25 Jahre alt geworden – und steht zugleich so stabil wie nie zuvor im Netz und doch unter einem neuen, subtilen Druck durch KI, der weniger technisch als kulturell ist. Die Plattform ist zum unsichtbaren Rückgrat der Wissensinfrastruktur geworden, während KI-Systeme beginnen, genau dieses Rückgrat zu überblenden und zu vereinnahmen.

Seit dem 15. Januar 2001 hat sich Wikipedia von einem anarchisch wirkenden Freiwilligenprojekt zu einer globalen Referenzmaschine entwickelt, auf die sich Schulen, Redaktionen, Suchmaschinen und längst auch große Sprachmodelle stützen. In über 300 Sprachen, mit mehr als 65 Millionen Artikeln, bildet sie eine Art evidenzbasiertes Grundrauschen, gegen das sich jede Behauptung im Netz zumindest gedanklich messen lassen muss. Dieser Erfolg ist paradoxerweise genau das Einfallstor für jene KI-Dienste, die ihren Nutzerinnen und Nutzern in Sekundenbruchteilen Antworten liefern, ohne noch sichtbar zu machen, dass in ihrem Schatten eine ehrenamtliche Infrastruktur aus Menschen steht, die seit Jahrzehnten Quellen prüfen, editieren, streiten, löschen, belegen.

Am 15. Januar 2001 startete Gründer Jimmy Wales an seinem Windows-Rechner nicht nur das Projekt selbst, sondern legte auch unmittelbar die ersten Einträge der Online-Enzyklopädie an. Bereits am ersten Tag entstanden Artikelseiten zu Begriffen wie WikiPedia, PhilosophyAndLogic und UnitedStates, und nur fünf Tage später waren schon mehr als 100 Einträge verfügbar. Eine Übersicht der ersten 100 über Wikipedia abrufbaren Seiten zeigt, wie rasant sich das Projekt entwickelte: Anfangs ausschließlich englischsprachig, folgte schon kurz darauf der erste Ableger in einer anderen Sprache. Nur zwei Monate nach dem Start der englischen Version ging am 16. März 2001 die deutsche Wikipedia als erste lokale Variante online. Ich habe auch meinen Beitrag geleistet und Artikel verfasst. Heute umfasst die englischsprachige Originalseite mehr als sieben Millionen Artikel, während die deutsche Wikipedia mit über drei Millionen Einträgen ebenfalls eine beeindruckende Informationsfülle bereithält. Ein zentraler Aspekt bleibt dabei die Finanzierung des Projekts: Neben den vertrauten Spendenaufrufen gibt es zum Jubiläum im Wikipedia Store eine Sonderkollektion, deren Erlöse die Arbeit an der Enzyklopädie unterstützen sollen.

In den Reaktionen auf das Jubiläum spiegelt sich die besondere Rolle, die Wikipedia im digitalen Alltag vieler Menschen einnimmt. Nutzerinnen und Nutzer gratulieren, bezeichnen die Plattform als bevorzugte Informationsquelle und hoffen, dass sie sich erfolgreich an neue Rahmenbedingungen anpassen wird. Zugleich tauchen in den Kommentaren auch kritische Stimmen auf, die von Zensur sprechen oder auf Filterblasen hinweisen, während andere dem widersprechen und die Moderation als notwendigen Teil der Qualitätssicherung sehen. Immer wieder wird betont, wie wichtig regelmäßige Spenden sind, um Wikipedia langfristig zu erhalten, und auf eine Easter-Egg-Seite zum Jubiläum hingewiesen. Denn wenn Menschen sagen, sie würden etwas „googeln“, landen sie meist – oft unbewusst – bei Wikipedia, sei es über die ersten Treffer in Suchmaschinen, über Instant Answers oder über Antworten von LLM-Chatbots, die ebenfalls auf diese Inhalte zurückgreifen. Fiele Wikipedia plötzlich weg, wüsste das Web spürbar weniger, lautet der warnende Unterton, verbunden mit dem Appell, zu spenden, bevor dieses Fundament des Wissens verschwindet.

Die Bedrohung für die Reichweite von Wikipedia durch KI ist daher weniger ein plötzlicher Exodus der Leserschaft als eine schleichende Umleitung der Aufmerksamkeit: Wenn Chatbots Fragen direkt beantworten, entfällt der Klick auf die Quelle, und damit das, was die Wikipedia schlicht zum Leben braucht – die Begegnung zwischen Text und Leser. Erste Auswertungen deuten auf spürbare Rückgänge beim menschlichen Traffic hin, während der automatisierte Zugriff für Trainingsdaten und Scraping massiv zunimmt, also genau jener Zugriff, der keine Spenden generiert, keine neuen Autoren hervorbringt und keine Diskussionsseiten bevölkert. KI isst sich durch die Wissensbestände, an deren Pflege sie selbst nicht beteiligt ist, und verwandelt das mühselig Kuratierte in einen glattgebügelten, personalisierten Antwortstrom, in dem die ursprünglichen Kontexte, Konflikte und Korrekturen verschwinden.

In dieser Verschiebung liegt auch eine neue Dimension der Verlässlichkeit: Wikipedia hat nie behauptet, unfehlbar zu sein, aber sie ist strukturell überprüfbar – jede Version, jede Quelle, jeder Konflikt ist transparent dokumentiert und im Idealfall rückverfolgbar. Obwohl ich das Gefühl habe, die deutsche Ausgabe der Wikipedia ist zum Teil ideologisch.
Fehler sind hier nicht verborgenes Scheitern, sondern im Grunde Teil einer öffentlichen Lernkurve, die über Edits, Reverts und Diskussionsarchive nachgezeichnet werden kann; das System baut auf Misstrauen als produktiver Kraft, auf der ständigen Möglichkeit der Korrektur. KI-Systeme dagegen präsentieren ihre Ausgaben mit der glatten Souveränität eines fertigen Textes, dessen Herkunft sich bestenfalls in allgemeinen Modellkarten, nicht aber konkret im Satz nachprüfen lässt, und der sich zudem auf Trainingsdaten stützt, deren Lizenzlage und Aktualität häufig unklar bleiben.

Gerade hier verschränken sich Erfolg und Krise: Weil Wikipedia in vielen Bereichen eine der zuverlässigsten offenen Datenquellen geworden ist, fließt sie massenhaft in KI-Modelle ein, die ihr wiederum Nutzer abspenstig machen und einen Teil der Legitimität absorbieren, ohne den Aufwand der Qualitätssicherung zu teilen. Der Unterschied in der Verlässlichkeit ist deshalb nicht nur eine Frage der Fehlerquote, sondern der Verantwortungskette: Wikipedia institutionalisiert Zweifel und kollektive Aushandlung, KI institutionalisiert Plausibilität und Komfort – und je mehr sich die Öffentlichkeit an letzteres gewöhnt, desto größer wird die Gefahr, dass das sichtbare Ringen um Wahrheit, das Wikipedia ausmacht, unter einer Schicht von friktionslosen Antworten verschwindet. In diesem Sinn ist der 25. Geburtstag nicht nur ein Jubiläum, sondern auch eine Erinnerungsmarke: an ein Netz, in dem Wissen als Prozess sichtbar war – und an die Entscheidung, ob man diesen Prozess den Maschinen überlässt oder weiter öffentlich führt.