Die Keynote zur WWDC von Apple-Chef Tim Cook ließ mich in vielerlei Hinsicht aufhorchen. Zu Vision Pro hab ich mich ja schon geäußert. Als Dozent für Veranstaltungen zum Thema Medienkompetenz finde ich die Neuerung bei den Themen Videokonferenzen, Webwaren und Online-Schulungen interessant. Online-Meetings gehören zu meinen Alltag.
Zum einen gibt es wohl in Vision Pro die Möglichkeit mit Standard-Software wie Teams, Zoom und Webex Seminare im VR-Raum abzuhalten. Da bin ich sehr gespannt darauf. Wie ich auf der Keynote gelesen und von Kollegen aus Cupertino gehört habe, ist der Avatar der Meetingsteilnehmer sehr präzise. Apple nennt sie Persona, eine digitale Darstellung, die durch Techniken des maschinellen Lernens erzeugt wird und Gesichts- und Handbewegungen in Echtzeit darstellt. Aber das kommt ja erst 2024 und wird sicherlich aufgrund des Preises von 3500 Euro für Vision Pro zunächst kein Massenmarkt.
Für den Rest von uns Interessanter ist da schon das neue Mac-Betriebssystem. Es heißt macOS Sonoma und kommt ab Herbst als Final auf den Mac, die öffentliche Beta kommt nächsten Monat.
macOS Sonoma bringt verbesserte Features für Videokonferenzen, mit denen sich Inhalte interessanter teilen lassen – egal in welcher Videokonferenz-App. In der Keynote nannte Apple die üblichen Verdächtigen Teams, Zoom und Webex. Mit dem neuen Videoeffekt Moderatorenmaske werden Anwender über ihren geteilten Inhalten angezeigt und sind dadurch präsenter. Das musste ich bisher mit Zusatzsoftware machen, damit ich bei meinen Online-Schulungen nicht hinter der Präsentation untergehe oder nur als kleine Kachel erscheine. Künftig kann ich mich via Moderatorenmaske in den Vordergrund meiner Präsentation schalten und meinen Zuhörern näher sein und meine Rolle als Speaker deutlich besser ausüben. Wahrscheinlich bringt der Einsatz von Greenscreen und Licht noch bessere Effekte – das gilt es auszuprobieren.
Außerdem kann ich mich mit Reaktionen ausdrücken, wie ich oder meine Zuhörer sich fühlen, indem wir nahtlos Ballons, Konfetti, Herzen und mehr in das Videobild einfügen. Das ist sicherlich eher eine Spielerei und wird sich der Praxis zeigen, wie es angenommen wird. Im Moment gibt es Herzchen, Klatschen usw. meist am Ende einer Präsentation. Diese Reaktionen lassen sich auch per Handgeste auslösen. Die verbesserte Auswahl zur Bildschirmfreigabe macht es einfacher, bei Videoanrufen Inhalte aus Apps zu teilen. Anwender können dazu auf die grüne Taste oben links in der App klicken. So wird das Teilen von Inhalten aus offenen Fenstern ganz leicht, verspricht Apple.
Groß auf dem Fernseher Zudem gibt es ein Update für tvOS 17, die Software für Apple TV, was aber wohl nur auf Apple TV 4K laufen wird. Ab diesem Herbst können Anwender on Apple TV 4K die neue FaceTime App auf dem Apple TV nutzen und Anrufe direkt von ihrem Apple TV aus starten oder Anrufe auf dem iPhone oder iPad beginnen und sie dann an ihr Apple TV übergeben. FaceTime auf dem Apple TV nutzt die Vorteile der Kamera-Übergabe und verbindet sich drahtlos mit dem iPhone oder iPad der Nutzer. Es greift dann auf die Kamera und das Mikrofon des Geräts zu und bringt alle Teilnehmer auf dem Fernseher zusammen. Das ist für reine Apple-Umgebungen interessant. Vielleicht nutzen wir dieses Feature im familiären Umfeld, ob es Teilnehmer von meinen Seminaren machen, bleibt abzuwarten.
Die Nachricht kam am frühen Morgen über Twitter. William Shatner, seines Zeichens ehemaliger Captain Kirk, bedauerte, dass James Horner im Alter von 61 Jahren bei einem Flugzeugabsturz ums Leben kam. Nach dem Lesen des Tweets im Bett war ich sofort hellwach.
Um 6:22 Uhr erfuhr ich vom Tode Horner via Twitter durch William Shatner.
Als Soundtrack-Fan gehört James Horner zu meinen Helden. Es gibt die Helden des Olymp wie John Williams und Jerry Goldsmith. Und dann gibt es eine Ebene darunter, dazu gehört für mich der Komponist James Horner. Sofort hatte ich die Melodie seines sicherlich bekanntesten Werkes My Heart will go on aus Titanic im Ohr.
In den nächsten Stunden stellte sich heraus, dass die Meldung vom Tode des Komponisten wohl wahr war. Mehr und mehr Newsdienste verbreiteten die Meldung – Hollywood wurde durch das Fachblatt Variety vom Verlust des Komponisten informiert Mit seinem Kleinflugzeug stürzte Horner in Kalifornien ab. Das ist traurig. Die Welt der Filmmusik verliert damit wieder einen wichtigen Vertreter und einen begnadeten Komponisten.
Hollywood trauert.
Horner erhielt zwei Oscars für Titanic, was neben dem hörenswerten Braveheart wohl das kommerziell erfolgreiche Album ist.
Persönlich lernte ich James Horner 1983 durch seinen Soundtrack zu den Douglas Trumbull Project Brainstorm lieben. Der Film des Trickspezialisten Trumbull war zwar ein Flop, aber der letzte Film der wunderschönen Natalie Wood, die während der Dreharbeiten verstarb. Mit dem Film wurde ich zum ersten Mal mit der tonalen Filmmusik von Horner vertraut. Wochenlang suchte ich als Jugendlicher den Soundtrack und bestellte ihn schließlich kompliziert über den Schallplattenhandel in den USA – das war die Zeit lange vor dem Internet.
Als Star Trek-Fan liebte ich die Musik von Jerry Goldsmith und als 1982 James Horner den zweiten Teil Zorn des Khan komponierte war ich zunächst enttäuscht. Paramount wollte den teueren, aber genialen Goldsmith nicht bezahlen und vergab den Auftrag der Komposition an Horner. Das gefiel mir als Trekkie nicht, aber als ich den Film im Kino sah und die Musik von Horner hörte, da war ich versöhnt. Der Mann kann es, auf jeden Fall. Inzwischen ist die Langfassung des Khan-Soundtracks veröffentlicht. Und er zeigte bei Star Trek III auch wieder sein Können.
Es kamen noch viele Soundtracks von James Horner und jüngere Kinofans kennen sicher seine Musik aus Avatar (sehr weltmusikmäßig) oder The Amazing Spider-Man. Meine persönlichen Lieblingssoundtracks sind neben Brainstorm eindeutig Willow und A Beautiful Mind sowie der komplett unterschätzte Aliens . Gerade der zweite Teil der Alien-Reihe zeigt, welch großartiger Komponist James Horner war. Normalerweise wird zum fertigen Film der Soundtrack komponiert, aber Regisseur James Cameron war mit Aliens – die Rückkehr in Verzug und schnitt den Film immer wieder um. Musik für einen unfertigen Film geht gar nicht. Dennoch musste Horner in zwei Wochen 97 Minuten Musik komponieren, die aber schließlich nicht dort eingesetzt wurde, wie sie geplant war. Horner war verständlicherweise stinksauer, aber das Publikum hat wohl davon nichts gemerkt.
Nun ist James Horner im Alter von 61. Jahren bei einem Flugzeugunglück verstorben.
Egal, welcher Film den Oscar gewinnt, Autodesk wird einen abbekommen. Das ist der Vorteil, wenn man ein Quasi-Monopolist im 3D-Bereich ist. Alle nominierten Filme für den Oscar visuelle Effekte wurden mit Autodesk-Software gemacht und damit weiß ich jetzt schon, wer der Gewinner ist. Als ehemaliger Chefredakteur der wichtigsten deutschsprachigen 3D-Zeitschriften ist die ganze Oscar-Verleihung für mich damit ein wahres Fest.
Die Rolle von Technologie im Storytelling entwickelt sich ständig weiter und die diesjährigen Oscar-Nominierungen spiegeln die eindrucksvolle Kunstfertigkeit der globalen Computergrafik-Branche (CG) wider. Die Media und Entertainment Software von Autodesk spielte bei der Produktion von vielen hochgepriesenen Filmen auch dieses Jahr wieder eine tragende Rolle in Kategorien wie bestes Bild, visuelle Effekte, beste Kamera, bester Animationsfilm und bester animierter Kurzfilm. Die Academy of Motion Picture Arts and Sciences würdigte zudem die Autodesk Technologie mit einem Sci Tech Award (Scientific and Technical Achievement Award).
„Es ist eine Ehre, dass wir mit unserer Software zu einer solch kreativen Community beitragen können. Der Preis für beste visuelle Effekte geht nun mehr seit 20 Jahren an Filme, bei denen Autodesk Software eingesetzt wurde“, erklärt Chris Bradshaw, Senior Vice President bei Autodesk. „Es freut uns außerdem, dass die Academy Robert Bridson aus unserem Forschungs- und Entwicklungsteam für seine Voxel-Datenstruktur-Technologie ausgezeichnet hat.“
X-Men: Zukunft ist Vergangenheit
Beste visuelle Effekte
In der Kategorie beste visuelle Effekte benutzten alle fünf Nominierten – „The Return of the First Avenger“, „Planet der Affen Revolution“, „Guardians of the Galaxy“, „Interstellar“ und „X-Men: Zukunft ist Vergangenheit“ – ausgefeilte Technik, um diese Filme für ein weltweites Publikum zu erschaffen. Die phänomenale Arbeit an diesen fünf Blockbustern wurde während des gesamten Produktionsprozesses, von Vorabvisualisierung über virtuelle Kameraführung, Postproduktion bis hin zu Farbkorrektur, von tausenden talentierten Künstlern in 25 Animationsstudios auf vier Kontinenten geleistet.
Die diesjährigen Nominierten für den besten Animationsfilm zeigen eine breite Palette an Animationsstilen von Hand gezeichnet, über Stop-Motion bis hin zu CG. Autodesk-Software wurde bei folgenden vier der fünf nominierten Filme in der Kategorie bester Animationsfilm verwendet: „Baymax – Riesiges Robowabohu“, „Die Boxtrolls“, „Drachenzähmen leicht gemacht 2“ und „Die Legende der Prinzessin Kaguya“. Zudem fand sie Einsatz bei zwei Anwärtern für den besten animierten Kurzfilm: „Liebe geht durch den Magen“ und „The Dam Keeper“. Auch bei sieben der acht Filme, die für den besten Film nominiert sind, wurde sie genutzt: „American Sniper“, „Birdman“, „Boyhood“, „Grand Budapest Hotel“, „The Imitation Game – Ein streng geheimes Leben“, „Selma“ und „Die Entdeckung der Unendlichkeit“.
Drachenzähmen leicht gemacht 2
Scientific and Technical Achievement Awards
Die Akademie veranstaltet jährlich eine besondere Preisverleihung, um Personen zu ehren, deren Leistungen einen spürbaren Mehrwert für die Produktion von Bewegtbildern haben. In einer Pressemitteilung sagte Richard Edlund, Oscar-prämierter Künstler für visuelle Effekte und Vorsitzender des wissenschaftlichen und technischen Komitees: „Unsere Preisträger sind Beispiele für die phänomenale Kreativität der Fachleute in der wissenschaftlichen und technischen Gemeinschaft und die wertvollen Beiträge die sie zu der wohl kreativsten Branche der Welt beitragen.“
Den Technical Achievement Award erhielt in diesem Jahr Robert Bridson, Senior Principal Research Scientist bei Autodesk, für seine bahnbrechenden Arbeiten an Voxel-Datenstrukturen und die anschließende Validierung in Strömungssimulationswerkzeugen. Diese hatten einen erheblichen Einfluss auf die Gestaltung von Messwerkzeugen in der gesamten Branche für visuelle Effekte. Weta Digital gilt in der Branche als frühzeitiger Anwender dieser Voxel-Technologie (auch bekannt als 3D-Pixel) für den Film „Avatar“. Wissenschaftler, Designer und Technologien von Autodesk wurden in ähnlicher Weise bereits siebenmal bei vergangenen Sci-Tech Preisverleihungen geehrt.
Folgende Studios setzten auf Autodesk und haben damit die Chance auf einen Oscar: Alchemy 24, Animal Logic, The Artery, BlueBolt, Cantina Creative, Cinesite, CoSA Visual Effects, Digital Domain, Double Negative, DreamWorks Animation, EFILM, Encore, Finland Finish, Framestore, Fuel VFX, Hydraulx, Industrial Light & Magic, LAIKA, Lola Visual Effects, LOOK! Effects, Luma Pictures, Luxx Studios, Method Studios, Modern VideoFilm, Mokko Studio, Moving Picture Company, Prime Focus, Proof, Rhythm & Hues, RISE VFX Studio, Rising Sun Pictures, Rodeo FX, Sony Pictures Imageworks, Studio Ghibli, Technicolor, The Third Floor, Tonko House, Union, Vision Globale, Walt Disney Animation Studios, Weta Digital und Whiskytree.
Als Gamer bin ich auf eine interessante Studie gestoßen, die die Gamer-Branche beschäftigen wird. Kurz gefasst: Wer Rollenspiele zockt, kann sich im Real Life roboterhaft verhalten. Prof. Ulrich Weger von der privaten Universität Witten/Herdecke (UW/H) untersuchte in einer Studie die Auswirkungen des Hineinversetzens in virtuelle Avatare auf die menschliche Urteilskraft.
Rollenspiele am PC oder auf Spielkonsolen, bei denen sich Spieler in die Fußstapfen eines virtuellen, oftmals roboterartigen Wesens – eines Avatars – begeben, führen zu erhöhtem roboterhaften Verhalten in der wirklichen Welt. Dies ist das Ergebnis einer Studie, die Prof. Weger, Leiter des Departments für Psychologie und Psychotherapie an der Universität Witten/Herdecke (UW/H), nun in der Fachzeitschrift Psychonomic Bulletin & Review veröffentlicht hat.
In den Versuchen zur Studie zeigte sich, dass Personen, die eine Weile ein virtuelles Rollenspiel spielten, anschließend eher geneigt waren, dem Urteil von Computern bei einer sozialen Einschätzungsaufgabe zu folgen, auch wenn dieses objektiv falsch war.
Für die Studie spielten Versuchspersonen ein virtuelles Rollenspiel. Probanden in der Vergleichsgruppe schauten den Spielern dagegen einfach nur über die Schulter. Anschließend mussten alle Versuchspersonen entscheiden, wie geeignet bestimmte Kandidaten für eine bestimmte Berufstätigkeit wären. Dazu wurden zwei Kandidaten kurz beschrieben, einer von beiden war dabei der nach beschriebener Motivation und Fähigkeit jeweils besser geeignete. Bevor die Versuchsteilnehmer ihre Meinung abgaben, beurteilten zwei virtuelle Assistenten die Kandidaten. In manchen Fällen waren diese Urteile – gemessen an einem Eignungswert – richtig, in anderen Fällen waren diese Urteile falsch.
„Von besonderem Interesse waren für die Studie die Fälle, in denen die virtuellen Assistenten falsche Urteile abgaben“, erläutert Prof. Weger. „In diesen Fällen zeigte sich, dass Personen, die vorab ein virtuelles Rollenspiel selbst gespielt hatten, eher geneigt waren, sozusagen blind den Einschätzungen der virtuellen Assistenten zu folgen – sie gaben dann auch ihrerseits gehäuft das falsche Urteil ab.“ Aus psychologischer Sicht sei es wenig verwunderlich, dass das Eintauchen in ein roboterhaftes Wesen auch in der realen Welt zu entsprechenden Veränderungen im menschlichen Urteils- und Erlebensvermögen führe, so Weger weiter.
Eine frühere Studie hatte bereits gezeigt, dass virtuelles Rollenspiel dazu führt, dass Spieler eine verminderte Empfindlichkeit gegenüber emotionalen Informationen aufweisen – verdeutlicht an der Schmerzwahrnehmung bei sich selbst und bei anderen Menschen. Prof. Weger: „Die Ergebnisse sprechen eine deutliche Sprache. Vor dem Hintergrund dieser Studien sollten wir uns fragen, was solche Spiele mit uns machen und wie wir damit umgehen wollen. Auch die längerfristigen Wirkungen sind völlig unbekannt. Wenn wir abwarten, bis wir völlige Sicherheit über solche langfristigen Wirkungen haben, ist es für geeignete Gegenmaßnahmen sicher zu spät.“
Saarbrücker Informatiker entwickeln ein Verfahren, bei dem Avatare Inhalte in Gebärdensprache wiedergeben sollen. Die Forscher arbeiten dabei mit Peter Schaar (im Bild) zusammen. Der Gehörlose ist Dozent für Gebärdensprache. Foto: AG Heloir
Das Internet eröffnet neue Welten – für alle. Ich selbst habe ein Augenleiden und ich diktiere viele meiner Texte via Siri. Ich kenne Blinde, die das Netz nutzen und auch Rollstuhlfahrer haben durch das Netz neue Möglichkeiten. Ich gebe oft Seminare für Behindertenorganisationen, Elternorganisationen für Behinderte und in Bayern für Bezirke. Im Moment bin ich auf ein interessantes Projekt für Gehörlose gestoßen. Ich glaube, dass es für Gehörlose schwer ist, eine Sprache zu erlernen, die auf Lauten beruht, die sie nicht hören können. Daher hat ein Großteil von ihnen wohl Schwierigkeiten mit der Schriftsprache und damit, Texte zu lesen und zu verstehen. So bleiben ihnen auch die Inhalte der meisten Webseiten verschlossen. Das wollen Saarbrücker Informatiker mit einem Verfahren ändern, bei dem künstliche Online-Charaktere Inhalte in Gebärdensprache wiedergeben. Langfristig sollen Gehörlose die aus handelsüblichen Geräten bestehende Technik selber nutzen, um sich per Online-Plattform mittels Gebärdensprache auszutauschen. Gebärdensprache wurde erst sehr spät, in den 60er Jahren des vergangenen Jahrhunderts, als Sprache anerkannt. Wie die gesprochene Sprache auch hat sie sich aus unterschiedlichen Kulturen heraus entwickelt. So gibt es in jedem Land eine eigene Gebärdensprache mit vielen Dialekten, die auf anderen Regeln als die gesprochene Sprache basiert. In Deutschland lernen Gehörlose als Muttersprache die Deutsche Gebärdensprache. Für sie ist schwer, das gesprochene Deutsch als zweite Sprache zu lernen. Daher haben Gehörlose in Deutschland nach dem Schulabschluss Schwierigkeiten, Texte zu lesen und zu verstehen. Auch wenn auf einigen Webseiten Filme existieren, in denen Gebärdensprachdolmetscher Texte übersetzen, bleiben den Gehörlosen dennoch etliche Inhalte des Internets verschlossen. Um Gehörlose schnell an Orten zu informieren, an denen es keine Dolmetscher gibt, arbeiten Forscher an neuartigen Verfahren, Inhalte bereitzustellen. Ein Ansatz: Avatare. Die künstlichen Charaktere könnten etwa bei Ansagen am Bahnhof oder auf Webseiten zum Einsatz kommen. „Wir haben bereits erste Erfahrungen mit Avataren gesammelt“, erklärt Alexis Heloir, der am Exzellenzcluster „Multimodal Computing and Interaction“ die Nachwuchsgruppe „Sign Language Synthesis and Interaction“ leitet und am Deutschen Forschungszentrum für Künstliche Intelligenz forscht. „Wenn wir versuchen, sie wie Menschen zu animieren, haben Gehörlose Probleme sie zu verstehen.“ Der Forscher vermutet, dass es an der Vielfalt der emotionalen Ausdrucksformen liege, die bei Menschen doch größer sei als bei Avataren. Um dieses Problem zu umgehen, erschaffen die Saarbrücker Informatiker um Alexis Heloir und Fabrizio Nunnari Avatare, die in übertriebener Art artikulieren. Dabei arbeiten sie eng mit Peter Schaar zusammen. Der Gehörlose ist als Dozent für Deutsche Gebärdensprache am Sprachenzentrum der Saar-Uni und der Hochschule für Technik und Wirtschaft in Saarbrücken tätig. „Unsere Technik soll relativ preiswert und einfach zu bedienen sein, damit sie jeder Gehörlose nutzen kann“, sagt Fabrizio Nunnari. Um die Bewegungen des Gehörlosen zu erfassen, setzen die Wissenschaftler daher auf kostengünstige Kameras und Sensoren, mit denen Jugendliche bereits Videospiele steuern. Ein Rechenverfahren überträgt die Bewegungen des kompletten Körpers auf den Avatar. Langfristig möchten die Forscher mit diesem Verfahren auch eine Sammlung an kurzen Gebärdensprach-Sequenzen erstellen, mit denen Gehörlose auf einer Online-Plattform ihre eigenen animierten Charaktere erschaffen können, um sich im Netz auszutauschen.
Meine Herz gehört nach wie vor der 3D-Community und obwohl ich kein klassischer Artist bin, fasziniert mich die Branche noch immer. Zu meiner aktiven Tätigkeit als Chefredakteur der DIGITAL PRODUCTION und Projektleiter des animago AWARD war ich einige Male auf der wichtigsten Konferenz für Animation, der Siggraph. Mich hat jede Siggraph begeistert, ob in LA, New Orleans oder San Diego.
Dort gab es nicht nur allerhand zu berichten, sondern es gab auch tolle Gespräche mit kreativen Leuten.
Daher bin ich der Siggraph noch heute verbunden und ich werde sicherlich mal wieder hinfahren und staunen. Bis es soweit ist, habe ich mich dem Munich ACM SIGGRAPH Chapter angeschlossen und unterstütze ausdrücklich diese Vereinigung. Ich mag eigentlich keine Clubs oder Vereine, aber bei ein paar mache ich eine Ausnahme. Wie hier. Das Munich ACM SIGGRAPH Chapter hat sich zum Ziel gesetzt Wissenschaft, Forschung, Kunst, Kultur und Bildung zu fördern. Ich will ein wenig in Sachen PR dort mitarbeiten. Insbesondere durch die Durchführung von wissenschaftlichen Veranstaltungen im Bereich Computergrafik, interaktiver Technologien und deren Anwendungsgebieten bieten die Leute einen breiten Zugang zu neuen Erkenntnissen auf diesen Gebieten und Ermöglichen deren Verbreitung. Und das alles ohne kommerzielles Interesse. Also bin ich hier Mitglied geworden und helfe ehrenamtlich mit.
Paul Debevec bekommt nen Oscar.
In Bayern haben sich Gleichgesinnte aus dem Bereich Computergrafik zum Munich ACM SIGGRAPH Chapter zusammengeschlossen. Am Sonntag, 21. September, präsentiert sich das Munich ACM SIGGRAPH Chapter von 14:30 bis 18 Uhr im Audimax der Hochschule für Fernsehen und Film (HFF) am Bernd-Eichinger-Platz 1, München erstmals dem interessierten Fachpublikum.
Stargast der ersten öffentlichen Veranstaltung des Munich ACM SIGGRAPH Chapters in der bayerischen Landeshauptstadt ist Paul Debevec. Debevec ist ein Veteran der Computergrafik, insbesondere im Bereich HDR Rendering sowie Lighting, und arbeitete unter anderem für Special Effects von Hollywood-Blockbustern wie Spiderman, Superman return und King Kong. Er war auch für die optimale Ausleuchtung in Avatar zuständig. In München spricht er über seine umfangreichen Erfahrungen, referiert zu Advances in Creating Photoreal Digital Actors, gibt einen einmaligen Blick hinter die Kulissen und zeigt inspirierende Ausschnitte aus verschiedenen Filmen.
Die Veranstaltung ist kostenlos, setzt aber eine Anmeldung zum Event auf der Website des Munich ACM SIGGRAPH Chapters voraus.
Eröffnet wird die Veranstaltung von Alain Chesnais, dem ehemaligen Präsidenten der Siggraph sowie Association for Computing Machinery und Mashhuda Glencross, die für die europäischen Chapters zuständig ist. Alain Chesnais spricht über neue Entwicklungen beim 3D Content für das Web.
Mit dabei ist auch Geek’s home, ein von Thomas Harbers gegründetes Museum zum Anfassen und Mitmachen. Das Vorbild ist das Exploratorium, ein Museum in San Francisco, das sich besonders auf die Vermittlung von Naturwissenschaften konzentriert. Den Abschluss bilden aktuelle Filme vom CAF – dem Computer Animation Festival.
Der Peter Jackson-Film Der Hobbit: Eine unerwartete Reise ist vor kurzem als Blu ray erschienen. Etwas länger gab es ihn schon als Download bei iTunes. Dies ist ein Hinweis auf die künftige Apple-Strategie. Trotzdem, dass ich Fan des Herr der Ringe-Universums bin, werde ich mir dieses Mal die Blu ray nicht kaufen – sei es als herkömmlichen 2D-Film, noch als 3D-Version. Das hat verschiedene Gründe, aber vor allem liegt es daran dass wieder einmal der Verleiher ein gieriges Spiel mit uns treibt. Wir Fans werden zum Narren gehalten und sollen gemolken werden.
Die vorliegende Version vom Hobbit ist 170 Minuten lang. Im Herbst diesen Jahres wird die Extended Version des Films erscheinen. Warner machte aus Herr der Ringe schon ein riesiges Geschäft, dies soll sich jetzt beim Hobbit wiederholen. Ohne mich. Ich habe bei HdR bereits darüber geschrieben. Erst kommt die kürzere Kinofassung auf Datenträger heraus, und ein halbes Jahr später die Langfassung. Das war bei Herr der Ringe so und wiederholt sich nun beim Hobbit. Für mich ist das pure Geldschneiderei – ich habe darüber gebloggt.
Das ist kein Argument gegen den Film. Den Film aus Mittelerde finde ich sehr, sehr gut. Aber es ist ein Argument gegen Warner. Die Veröffentlichung von Herr der Ringe auf Blu ray und DVD war ein komplettes Desaster. Am Schluss wurde sogar eine defekte Tonspur bei Herr der Ringe ausgeliefert. Hier hat Werner viel Geschirr bei den Fans zerschlagen.
Werde dieses Mal bis zum Weihnachtsfest warten. Dann kommt der zweite Teil von Hobbit mit dem Titel The Desolation of Smaug in die Kinos und es kommt auch der Extended Cut von Der Hobbit: Eine unerwartete Reise heraus. Ähnliches dummes Spiel wurde mit uns Kunden übrigens auch bei Avatar gemacht.
MoCap ist das Zauberwort derzeit in der Film- und der Gamesbranche. MoCap oder Motion Capture sorgen dafür, dass Filme und Spiele realistischer wirken. Viele Produktionen wären ohne MoCap nicht möglich. Die Darsteller zwängen sich in hautenge Anzüge, überall am Körper werden Rezeptoren angebracht und so werden die Bewegungen der Darsteller in den Computer übertragen. Es entstehen realistische Kämpfe. Mit Avatar zeigte man, dass MoCap auch perfekt mit Gesichtsausdruck funktioniert. Interessant ist allerdings die Frage, wer die Rechte an den 3D-Daten hat? Und was passiert, wenn ein Darsteller stirbt – können dann seine 3D-Daten weiter in Spielfilmen spielen? Ein schönes Feld für Juristen und Gewerkschaftler.
Im Spielebereich wird MoCap schon lange eingesetzt. Die Fifa-Serie wäre nicht möglich, wenn der Spieleprogrammierer nicht die 3D-Daten der Fußballer hätten. Daher setzt die Branche immer mehr auf Realismus. Publisher Ubisoft hat jetzt ein neues Performance-Capture-Studios in Toronto eröffnet. Das Studio soll die Entwicklung von hochwertigen Inhalten für Videospiele unterstützen. Indem es Fachkenntnisse aus der Film- und Spieleindustrie vereint, hilft das Performance-Capture-Studio Ubisoft in Toronto bei der Entwicklung von facettenreicheren Charakteren, umfassenderen Geschichten und realistischen, filmreifen Spielen.
Darsteller in MoCap-Anzügen.
„Wir sind sehr stolz, unser Performance-Capture-Studio in Toronto vorstellen zu dürfen, da wir uns ja erst vor zwei Jahren hier niedergelassen haben,“ sagte Yannis Mallat, CEO von Ubisoft Toronto und Montreal. „Es geht hier nicht nur um die Entstehung einer innovativen Einrichtung, sondern um die Umstellung unserer Art und Weise, Geschichten zu erzählen. Wir setzen einen größeren Fokus auf schauspielerisches Talent und auf die Sicherstellung eines hochqualitativen Performance-Ergebnisses unserer Filmkunst- und Animations-Teams. Das Studio ist auch ein Beleg für unser Vertrauen in das Talent von Ontario, die besten Performance Capture-Ergebnisse in der Spieleindustrie zu liefern.“ Ich bin mal gespannt, ob den markigen Worten auch Taten folgen. Ich möchte mehr Geschichten in Spielen sehen.
Bewegungen werden in den Computer übertragen.
In Toronto werden Techniken und Technologien genutzt, die momentan von der Filmindustrie eingesetzt werden. Performance-Capture beinhaltet das gleichzeitige Erfassen von Sprache, Gesichts- und Körperbewegungen, die von Schauspielern ausgeführt werden. Die Rahmendaten der neuen Investition sind zumindest eindrucksvoll:
Ein 600 Qudratmeter großes Performance-Arial, um umfangreiche Einstellungen zu ermöglichen.
80 Vicon T160 Motion-Capture-Kameras, die eine hochauflösende, genaue und flexible Erfassung von Bewegungen ermöglichen.
Schnurlose Helmkameras, die Gesichtszüge genau erfassen und in Echtzeit mit Stimm- und Körperbewegungen synchronisieren.
Eine Tonbühne mit einem „Boxen in Boxen“-Design, welches ein hochqualitatives Capturing ermöglicht.
Vielseitig einsetzbare Hochlast-Stunt-Balken, die es ermöglichen dynamische und physische Szenen für Spiele zu erfassen.
Ein komplettes Set beim Dreh.
Ich frage einfach mal: Warum muss eigentlich so ein Studio in Toronto angesiedelt sein? In Deutschland reden wir immer von der Kreativwirtschaft. Lassen wir doch endlich mal Taten sprechen. Toronto siedelt die großen Hersteller und Firmen der Branche an und wir reden davon. Ich verstehe die Kanadier schon, die stolz auf ihre neue Industrie sind: „Dies ist ein aufregender Tag für Ubisoft und die Spieleindustrie in Ontario, der demonstriert, was wir erreichen können, wenn wir zusammenarbeiten,“ sagt Brad Duguid, Minister of Economic Development and Innovation. „Unsere Regierung ist stolz auf die Ergebnisse, die wir erzielt haben, indem wir diesen Sektor in der Provinz gefördert und dabei geholfen haben, die Wirtschaft zu stärken und neue Arbeitsplätze zu schaffen.“ Durch die fortlaufenden Investitionen in die Studios in Toronto, Montreal und Quebec hat Ubisoft gezeigt, dass es Kanada als ein wichtiges Zentrum sieht, welches die Entwicklung von virtuellen Produkten antreibt.
Und immer noch mehr Öl gießen die Kanadier ins Feuer und sie machen es richtig. Sie verbinden Games und Uni. Bei uns hat die TU München einen Games-Lehrstuhl eröffnet und die universitäre Welt rümpft die Nase. Ubisoft wird auch zukünftig Zeit und Ressourcen investieren, um die Forschung und Entwicklung von Projekten mit externen Partnern in der Wissenschaft zu unterstützen. Ubisoft Toronto verstärkt sein Engagement und wird sich mit dem Sheridan College und seinen Filmindustrien, sowie seinem Forschungsausbildungs-Zentrum (SIRT) zusammenschließen. Hier sollen Forschungsprojekte im Bereich der virtuellen Produktion identifiziert, definiert und weiterverfolgt werden, um neue Kompetenzlevel zu erreichen. Zusätzlich plant Ubisoft, seine Kompetenzen und Fachkenntnisse zur Verfügung zu stellen, um einen positiven Einfluss auf spielbezogene Ausbildungs- und Studienpläne am Sheridan College auszuüben. Hierbei sollen die Studenten die Möglichkeit haben, direkten Kontakt mit den neusten Hilfsmitteln, Einrichtungen und Technologien zu haben.
Über Jahre hinweg stand und steht die Effekteschmiede von George Lucas Industrial Light & Magic oder kurz ILM für Innovation in der Filmwelt. Aufgrund eines kostspieligen Scheidungsverfahren musste Lucas eine Entscheidung treffen: Verkauft er Pixar oder ILM? Er entschied sich für den Verkauf von Pixar und Steve Jobs griff zu. Der Rest ist Filmgeschichte. Bei ILM setzte Lucas auf Nummer sicher. Die VFX-Bude gehört zu den Perlen des Lucas Imperium, die Millionen einbringt. Die Dienstleistungen, die das Unternehmen anbietet, haben immer wieder die Filmgeschichte verändert.
Das vorliegende Buch von Pamela Glintenkamp Industrial Light & Magic: The Art of Innovation beweist diese Innovationskraft und den enormen Einfluss der Fabrik eindrucksvoll. Auf 358 Seiten durchstreift der Leser die Filmgeschichte und erinnert sich gerne das ein oder andere Effekteabendteuer, auch wenn so mancher Film dahinter einfach nur grausam war. IFM wurde geschaffen, um das Unmögliche zu schaffen, so beschrieb es George Lucas einstmals.
Und er sollte recht behalten: Die Tricks von Jurassic Park hauten uns vom Hocker, Star Wars sorgte dafür, dass uns die Spucke wegblieb, Indy Jones nahm uns auf eine Reise durch das moderne Actionkino mit. Mir persönlich gefielen auch die atmosphärische Dichte von Poltergeist, die erste CGI-Figur in Young Sherlock Holmes, der Spaß von Roger Rabbit, der Wind in Twister oder die Wasserszenen von Abyss. Als ich als Jugendlicher die Morphing-Effekte von Terminator 2 im Kino sah, wusste ich, wie die VFX-Zukunft des Kinos aussah: Weg mit Modelle, her mit dem Rechner.
Bei meinen Gesprächen auf der Siggraph wurde mir bestätigt, dass ILM genau hinschaut, was die Mitbewerber so machen. Vor allem WETA und das deutsche Unternehmen Pixomondo stehen ganz oben auf der Beobachtungsliste, schließlich waren die Tricks von Thilo Kutter in Emmerichs 2012 Weltklasse und die Deutschen bekamen für Hugo sogar einen Oscar.
Bücher wie Industrial Light & Magic – The Art of Innovation liebe ich: Die ideale Mischung von Fantasie und Technik. Natürlich verrät Pamela Glintenkamp keine Geheimnisse von ILM, aber der Leser bekommt einen guten Eindruck, mit welchen Problemen die Artists zu kämpfen hatten. Und man bedenke: Sie hatten nicht die Rechenpower von heute zur Verfügung, sondern SGI war damals noch ein großer Name. PowerAnimator war im Grunde nur nach einem Physikstudium zu bedienen. Jeder heutige 3D-Artist wird die Tipps wie einen Schwamm aufsaugen, wie damals Herausforderungen gelöst wurden. Und die Lösung hieß eben nicht, dass man 50 Programmierer an ein Problem setzt und die Peitsche schwingt.
Der Wechsel von analogen zu digitalen Tricks werden in diesem Buch ausführlich beschrieben. Immer wieder wird gezeigt, was der lockere Spruch „Let´s fix it in the Post“ für die Artists bedeutet, nämlich modellieren, rendern auf Teufel komm raus.
VFX können aufdringlich im Vordergrund stehen, wie bei den schrecklichen Transformers oder auch unbemerkt im Hintergrund eine Atmosphäre der Angst erzeugen, wie bei Saving Private Ryan, wo Regieas Spielberg eine fotorealistische Arbeit von seinem Freund Lucas forderte. Meine absolute Lieblingstricks sind aber in AI zu finden. Zu diesem Film habe ich eine eigene Buchbesprechung durchgeführt, auf die an dieser Stelle verwiesen sei.
Egal, um was es geht, ILM hat wohl eine Antwort darauf. Und daher ist allen Zeitgenossen dieses Buch empfohlen, wenn sie sich für Effekte im Kino interessieren. Einstmals begann ich meine Sammlung von Filmbüchern mit einem Sonderband des deutschen Kinomagazins Cinema „Die Tricks“. Die Tricks waren damals aufwendige Bastelarbeiten, Modelle, Matte-Zeichnungen. Wenn ich mir heute die Tricks aus dem Rechner in Welten bei Avatar anschaue, stelle ich fest, wie schnell die Zeit vergangenen ist und was ILM alles geschaffen hat. Respekt für so einen großen Anteil an der Filmgeschichte. Ich bin gespannt, was sich ILM als nächstes einfallen lässt. Pamela Glintenkamp wird es uns sicherlich berichten. In ihrer unaufdringlichen sachlichen Schreibe merkt an, dass die für das Stanley Kubrick Archiv in London gearbeitet hat. Ohne zu übertreiben, lässt sie die Künstler zu Wort kommen und hält sich selbst mit Superlativen zurück. In über 100 Interviews sammelte sie schönes Material von Casper bis Rango, was sie mit uns in Industrial Light & Magic: The Art of Innovation teilt. Unbedingt kaufen. Und wer mehr wissen will, sollte sich auch das Buch: Industrial Light & Magic: Into the Digital Realm antun. Hier meine Kritik:
Die Welten von Star Wars und Apple sind unsere Welten. Aus dem George Lucas Universum gibt es immer wieder Neuigkeiten. Im Moment wird an der 3D-Version von „Star Wars Episode I: The Phantom Menace“ gearbeitet. Die Konvertierung läuft zusammen mit Prime Focus, die schon bei Avatar, Shrek, Tron oder Narnia geholfen haben. Viel wichtiger ist aber, es gibt ein neues Case für das iPhone. Nämlich die Verbindung der Apple- und der Star Wars-Welt. Es gibt Steve Jobs in Carbonite. Wir erinnern uns an: Das Imperium schlägt zurück, in dem Han Solo in Carbonite eingeschlossen wurde. Dieses Schicksal teilt er jetzt mit Steve Jobs auf meinen iPhone. Das Teil gibt es online ab 35 US-Dollar. Also alle Geeks zugeschlagen, bevor Apple seine Anwälte loslässt.