Als ich Sora zum ersten Mal gesehen habe, begann ich zu träumen. Wie toll ist Sora? Was wäre mit Sora alles möglich? Nein, nicht dass Sie mich missverstehen. Ich bin glücklich verheiratet und Sora ist kein weibliches Wesen. Sora ist das neue Text-to-Video Modell von OpenAI, also eine KI-Anwendung mit der per Eingabe/Promt bewegte Bilder entstehen.

Als ich die ersten Videos von OpenAI gesehen hatte, setzte bei mir eine Zeitreise in das Jahr 1982/83 ein. Damals sah ich als Jugendlicher im Kino den Disney-Spielfilm Tron. Hier werden Menschen in den Speicher eines Computers versetzt und kämpfen als Bits und Bytes als Videospiele gegeneinander. Die visuelle Darstellung von Tron haute mich aus den Socken. Ich ging aus dem Kino und wollte so etwa mit meinem Heimcomputer machen, mit dem VC20 und dann dem Commodore C64. Also einen Film auf VHS drehen und vom C64 kommen die Effekte. Das Ganze ist krachend gescheitert, aber die Idee war gut.
Vielleicht greife ich ein neues Projekt des Filmemachens mit Sora neu an. Sora erstellt realistische Videosequenzen aus einfachen Texteingaben. Es sollen 60 Sekunden Clips möglich sein. Noch steht Sora nicht zur allgemeinen Nutzung bereit, aber ich stehe bereit und warte auf die Freischaltung for the rest of us. Ich kann ja inzwischen an einem Drehbuch-Script arbeiten und auf das Go durch OpenAI warten.
Allgemein kann ich mir vorstellen, dass Sora und Co wie Googles Gemini die Welt es Filmemachens verändern werden. Die Stock-Agenturen, die jetzt Filmclips verkaufen, werden ins Straucheln geraten.

Natürlich sind wir erst in der Frühphase von Sora. Das aktuelle Modell hat Schwächen. Es kann Schwierigkeiten haben, die Physik einer komplexen Szene genau zu simulieren, und kann bestimmte Fälle von Ursache und Wirkung nicht verstehen. Zum Beispiel könnte eine Person einen Bissen aus einem Keks nehmen, aber danach hat das Cookie möglicherweise keine Bissmarkierung. Ich bin gespannt auf die nähere KI-Zukunft und freu mich darauf.
