Posts Tagged ‘Motion Capture’

Motion-Capture in freier Natur

24. Februar 2014

Ich liebe technische Visionen aus dem 3D-Umfeld. Bei Avatar habe ich Emily kennengelernt, die mich vom Hocker gehauen hat. Die Forschung daran erinnert mich immer wieder an das Labor von Professor Bunsenbrenner aus der Muppet Show, dort, wo die Zukunft schon heute gemacht wird. So schaue ich gerne beim Fraunhofer Institut vorbei, aber auch immer mehr bei den Informatikern in Saarbrücken. Zur CeBit stellen sie ein neues verbessertes System vor.

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Personen, aufgenommen in freier Natur, können direkt als virtuelle Figuren in Spielfilmszenen eingebettet werden. Dies war außerhalb eines Filmstudios bislang nicht möglich. Auch Ärzte und Sportler könnten die Technik nutzen, um Bewegungsabläufe besser zu analysieren. Um ihre Technologie zu vermarkten, haben die Informatiker die Firma „The Captury“ gegründet. Vom 12. bis 14. März präsentieren sie ihr Verfahren auf der CeBit in Hannover am Stand des Bundeswirtschaftsministeriums (Halle 9, Stand E24).

Um was geht es? Um virtuelle Figuren in reale Spielfilmszenen zu setzen, haben Filmstudios in Hollywood bislang viel Aufwand betrieben. Beim Motion-Capture-Verfahren tragen echte Schauspieler hautenge Anzüge mit Markern. Diese reflektieren Infrarotlicht, das von speziellen Kameras ausgestrahlt und empfangen wird. Die Bewegungen der Schauspieler werden anschließend mit Hilfe einer Software auf die animierten Figuren übertragen. Das bekannteste Beispiel ist „Gollum“, gespielt von Andy Serkis.

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Die Saarbrücker Wissenschaftler um Nils Hasler und Carsten Stoll vom Max-Planck-Institut für Informatik haben ein Verfahren entwickelt, das ohne diese Marker auskommt und die Bewegung der Schauspieler direkt – ohne Zeitverlust – auf die virtuellen Charaktere überträgt. Die vergangenen Monate haben sie genutzt, um die Technologie weiter zu verbessern. „Wir haben sie benutzerfreundlicher gemacht“, erklärt Nils Hasler. „Es ist nun auch möglich, die Filmaufnahmen in der freien Natur und nicht mehr nur im Studio zu drehen.“ Beispielsweise müssten Szenen wie bei „Herr der Ringe“, in denen „Gollum“ durch die rauen Berglandschaften von Mittelerde wandert, nicht mehr im Filmstudio produziert werden, sondern direkt in der Landschaft, in der die Szenen spielen.

Darüber hinaus haben sich die Forscher damit befasst, die Bewegungen von zwei Schauspielern gleichzeitig auf zwei animierte Charaktere zu übertragen. „Die Software muss dazu allerdings etwas länger rechnen als bei einer Person“, erklärt Carsten Stoll. Zudem ermöglicht die Technik es, komplette Kamerafahrten nachzuahmen. Die Bewegung einer Figur kann auf diese Weise ohne größeren Aufwand von allen Seiten eingefangen werden.

Noch ein weiteres Problem konnten die Informatiker um Christian Theobalt, dem Leiter der Forschergruppe „Graphics, Vision & Video“ am Max-Planck-Institut für Informatik, lösen: Personen, die etwa von einer anderen Figur in einer Spielfilmszene verdeckt werden, können die Forscher mit ihrer Technik komplett darstellen. Diese Neuerung ist nicht nur für die Film- und Spielindustrie interessant. Sportjournalisten könnten die Bewegungsabläufe bei einem Boxkampf besser live kommentieren oder Judo-Trainer die Kampftechniken ihrer Athleten direkt analysieren. „Auch Betriebsärzte oder Physiotherapeuten könnten die Technik nutzen, um zum Beispiel bei den Belegschaften von Unternehmen Rückenproblemen vorzubeugen oder Arbeitsabläufe zu optimieren.“

Um ihre Technologie besser zu vermarkten, haben die Informatiker um Hasler und Stoll im vergangenen Juni die Firma „The Captury“ gegründet. Derzeit bearbeiten sie schon erste Anfragen von Unternehmen aus der Industrie. Mit ihrem Verfahren haben die Forscher im vergangenen Jahr zudem den mit 30.000 Euro dotierten Hauptpreis im Gründerwettbewerb IKT gewonnen. Der Wettbewerb wird jährlich vom Bundesministerium für Wirtschaft und Energie ausgeschrieben.

Wie funktioniert das Ganze? Die Informatiker nutzen für ihre Verfahren recht preiswerte Technik. Acht kleine Videokameras (je 3 cm breit, hoch und tief) sind notwendig. Mit Hilfe ihrer Software erstellen sie ein 3D-Modell des zu erfassenden Darstellers aus einem Bewegungsskelett mit 58 Gelenken. Um die Bewegungen zu erfassen, arbeitet das Rechenverfahren kontinuierlich darauf hin, dass sich das zweidimensionale Bild aus der Videokamera und das 3D-Modell möglichst passgenau überlagern. Die dazu notwendigen Vergleiche können die Saarbrücker auf mathematischem Wege sehr effizient und schnell lösen. Auf diese Weise erfassen sie die gefilmte Bewegung und stellen sie innerhalb weniger Millisekunden als virtuelle Figur dar.

Für mich große Kunst: 3D-Künstler Robert Seidels Werk „_grau“

30. Juni 2013

Bildschirmfoto 2013-06-27 um 08.58.54

Seit Jahren beobachte ich mit Interesse die Arbeiten des 3D-Künstlers Robert Seidel und bin auch mit ihm befreundet. Wir lernten uns durch meine Tätigkeit als Chefredakteur von verschiedenen 3D-Zeitschriften kennen und verbrachten auch eine Siggraph zusammen. Nach all den Jahren bin ich immer noch fasziniert von seinen 2004 entstandenen experimentellen 3D-Kurzfilm „_grau“. Der Film war bisher bei über 150 Festivals in mehr als 25 Ländern zu sehen. Nachdem ich mir den Film immer wieder anschaue, will ich ihn mal näher vorstellen. Das Projekt entstand  auf der Grundlage persönlicher Ideen und Skizzen, umgesetzt in Autodesk 3ds max sowie After Effects. „_grau“ (www.grau1001.de) ist kein typischer 3D-Film, sondern eine sehr persönliche Collage. Wer mehr über seine Arbeit lesen will, dem empfehle ich ausdrücklich den Katalog zu Ausstellung Folds, den es hier zum kostenlosen Download gibt.

Zum Ablauf des Films sollte nicht allzu viel angemerkt werden, da dies die Assoziationen zu stark beeinflussen würde. Nur so viel: Die Sequenz am Anfang zeigt prismatische Splitter und Funken des aufprallenden Autos, die fast alle Farben aus dem Bild waschen. Es schließen sich Erinnerungen an, vornehmlich aus den vergangenen Jahren und Seidels Kindheit, um im Unfall selbst und dem so genannten Entscheidungsfell zu gipfeln. In diesem repräsentiert jedes Haar eine Entscheidung des Lebens, die final zum Zusammenstoß führen. Alle Objekte haben für Seidel eine Bedeutung, sind aber durch die am Unfall beteiligten Kräfte aus ihren Bahnen geraten.

Bildschirmfoto 2013-06-27 um 08.59.08

Der Inhalt und der Titel des Films „_grau“ gehen auf eine Diskussion zurück und sollen Robert Seidels Standpunkt innerhalb dieses Gesprächs zeigen: Es gibt bei keinem Ereignis eine strikte Trennung zwischen Gut und Böse, Hell und Dunkel. Der Betrachterstandpunkt wird basierend auf Erfahrungen, Vorstellungen, Ansprüchen  und physischer so wie psychischer Nähe zum Ereignis in seiner „Helligkeit“ variiert und verschwimmt mit fortschreitender zeitlicher Distanz. Auch die Filmlänge nimmt darauf Bezug, da sie mit 10:01 Minuten genau zwischen den beiden digitalen Extremen aufgespannt ist.

Der Entdecker des binären Zahlensystems Gottfried Wilhelm Leibniz belegte in seinem philosophisch-mathematischen Aufsatz übrigens die Zustände mit Gott (1) und Teufel (0). Um weiter mit dem Eingangszitat zu spielen: Das Helligkeitsspektrum des Films erstreckt sich nur zwischen reinem Weiß (RGB 255, 255, 255) und reinem Schwarz (RGB 0, 0, 0), wobei die beiden Extreme im digitalen Bild herausgefiltert wurden. Ursprünglich wollte sich Seidel mit diesem Thema ganz abstrakt auseinander setzen, doch während seiner Recherchen wurde er auf einer nächtlichen Autobahnfahrt beinahe in zwei Unfälle verwickelt. Diese Schlüsselerlebnisse veranlassten ihn darüber nachzudenken, wie wohl die letzten Sekunden eines Lebens aussehen würden. Aus dieser fiktiven Finalisierung eines Unfalls entwickelte er diverse amorphe Bildstrukturen, die den aufflackernden Erinnerungen entsprechen. Die Auseinandersetzung mit der Vergangenheit findet dabei sehr zufällig und ungewichtet statt. Kleine Details werden zu großen Momenten, während komplette Jahre verloren gehen.

Inspirationsquellen Gestalterisches Ziel von „_grau“ war es, eine eigenständige Bildwelt zu konstruieren, deren Komplexität und Dynamik an die Natur erinnert, und somit eine Art lebendiges Bild zu schaffen. Natürliche Farben und Formen übten schon in frühester Kindheit einen großen Einfluss auf Seidel aus. Auch seine Begeisterung für die Aufbereitung der Natur mittels wissenschaftlicher Visualisierung, die verborgene Bild- und Wissensstrukturen zum Vorschein bringt, schlug sich im Film nieder. Ebenfalls sehr einflussreich war die Kunst, allen voran die Surrealisten (Max Ernst) und Hieronymus Bosch, die bekannte Objekte in neue Zusammenhänge setzten. Auch im filmischen Bereich stehen einige Künstler mit Vorliebe für skurrile Details (Jan Svankmajer) Seidels Vorstellungswelt näher als beispielsweise abstrakt arbeitende Filmemacher oder Motion-Designer.

Die dritte Quelle der Inspiration ist Seidels Hauptwerkzeug, der Computer. Dank seinem Vater setzte er sich mit Rechnern schon früh auseinander. Die anfänglich spielerische Begeisterung wurde später durch selbst gepixelte Bilder, Basic-Programmierung, Fraktale und letztendlich 3D-Renderings abgelöst. Die digitalen Möglichkeiten, besonders von Software-Architekturen, empfindet er ebenfalls als anregend. Ohne das parametrische Arbeiten in 3ds max, also jederzeit einen Schritt zurücknehmen oder Vorhandenes neu kombinieren zu können, wäre vieles für ihn nicht umsetzbar gewesen. Aus diesen verschiedenen Einflüssen entwickelte er eine eigene Bilderwelt, die abstrakt zu sein scheint, aber nichts anderes als seine subjektive Wirklichkeit zeigt.

Bildschirmfoto 2013-06-27 um 08.59.17

Umsetzung  In Seidels beiden vorangegangenen Filmen tauchen einige der in „_grau“ verwendeten Techniken auf. „Lightmare“ aus dem Jahre 2001 (Honorary Mention Computer Animation/Visual FX beim Prix Ars Electronica) besteht aus einer lebenden 3D-Struktur, während „E3“ von 2002 eher malerisch ist. Beide Kurzfilme sind auf seiner Website www.2minds.de zu sehen.

„_grau“ war logistisch, technisch und gestalterisch Robert Seidels bisher aufwändigstes Unterfangen. Eines seiner Ziele war es, die verschiedenen Erinnerungssedimente organisch-zufällig anzuordnen; ein anderes, das flüchtige Gefühl seiner Skizzenbücher einzufangen. Folglich sollte nicht nur digital modelliert und animiert, sondern auch von realen Vorlagen abgeleitet werden, um mit den darin enthaltenen „Unreinheiten“ dem Bild mehr Leben einzuhauchen. Dazu musste Robert Seidel verschiedenste Techniken, die ihm zumindest aus der Theorie vertraut waren, in der Praxis ausprobieren, deren Potenzial einschätzen und sie gegebenenfalls einflechten.

So entstanden rund 120 verschiede-ne kleine und größere Experimente. Das Fundament bildeten die Hauptwerkzeuge 3ds max und After Effects sowie diverse Plug-ins und Skripte für beide Programme. Zusätzlich hat Seidel nach anderer Software recherchiert, um aus den Bereichen Fraktale, Bildrekonstruktion, Voxelgrafik (Voxel sind Volumenpixel; ein in der Medizin verwendetes Abbildungsverfahren), chemische Visualisierung sowie Partikel-, Haar- und Flüssigkeitssimulation zu schöpfen. Viele der getesteten Programme und Plug-ins waren aber nicht geeignet, da weder die Kontrollmöglichkeiten und die Geschwindigkeit noch der Datenaustausch oder die Programmstabilität in der relativ kurzen zur Verfügung stehenden Zeit zu vertretbaren Ergebnissen geführt hätten.

Neben Simulationsdaten sowie eigens modellierten Objekten hat Robert Seidel auch den eigenen Körper und reale Gegenstände als Quellen genutzt. So wurden zum Beispiel ein MRT-Datensatz (Magnet-Resonanz-Tomographie) seines Kopfes herangezogen, diverse 3D-Scans von Kopf, Hand sowie Plüsch- und Meerestieren angefertigt, seine Bewegungen mittels Motion Capture und seine Wohnung mit einer 3D-Kamera aufgezeichnet sowie Freiformflächen mit einem VR-Modeler aus der Autoindustrie entworfen.

Nachdem genügend Material gesammelt war, traf Seidel eine Auswahl und arrangierte und animierte die Modelle in 3ds max. Die Konvertierung der verschiedenen Datenformate, sei es 3D oder 2D, stellte eine große Herausforderung dar, denn viele der verwendeten Spezialapplikationen aus dem wissenschaftlichen Bereich haben proprietäre oder äußerst seltene Datenformate. Hier schaffen aber Tools wie PolyTrans, IrfanView oder diverse kleine MaxScripts Abhilfe.

Die Texturierung erfolgte mittels Painter und prozeduraler Texturen, die organisch wirkende Abweichungen erlauben. Ausgeleuchtet wurde nur klassisch oder mit Lightdome, da zum Rendern neben einem Arbeitsrechner lediglich ein alter PC sowie ein geliehenes Notebook zur Verfügung standen. Also leider keine Renderfarm, die den Ansprüchen von GI-Rendering genügt hätte. Die PCs renderten über Nacht, damit Robert Seidel die verschiedenen Teile am nächsten Tag begutachten konnte.

Nach und nach wurden die Sequenzen in After Effects zusammengefügt, wobei anzumerken ist, dass alle Objekte eigentlich farbig sind und erst im Nachhinein gebleicht wurden. Die ganze Zeit grau in grau zu arbeiten wäre sicherlich nicht sehr motivierend gewesen. In After Effects wurden abschließend Blurs eingefügt und Layer zusammengesetzt. Da relativ viele Dateien generiert wurden, waren regelmäßige Backups sehr wichtig, um später eventuell auf die Zwischenschritte des gerenderten Materials zugreifen zu können.

Trotz seines Alters aus dem Jahre 2004 ist der Film und die Arbeit von Robert Seidel für mich persönlich sehr wichtig.

Ubisoft Motion Capture-Studio in Toronto – warum nicht bei uns?

20. September 2012
Die Stage im neuen Ubisoft-Studio.

Die Stage im neuen Ubisoft-Studio.

MoCap ist das Zauberwort derzeit in der Film- und der Gamesbranche. MoCap oder Motion Capture sorgen dafür, dass Filme und Spiele realistischer wirken. Viele Produktionen wären ohne MoCap nicht möglich. Die Darsteller zwängen sich in hautenge Anzüge, überall am Körper werden Rezeptoren angebracht und so werden die Bewegungen der Darsteller in den Computer übertragen. Es entstehen realistische Kämpfe. Mit Avatar zeigte man, dass MoCap auch perfekt mit Gesichtsausdruck funktioniert. Interessant ist allerdings die Frage, wer die Rechte an den 3D-Daten hat? Und was passiert, wenn ein Darsteller stirbt – können dann seine 3D-Daten weiter in Spielfilmen spielen? Ein schönes Feld für Juristen und Gewerkschaftler.

Im Spielebereich wird MoCap schon lange eingesetzt. Die Fifa-Serie wäre nicht möglich, wenn der Spieleprogrammierer nicht die 3D-Daten der Fußballer hätten. Daher setzt die Branche immer mehr auf Realismus. Publisher Ubisoft hat jetzt ein neues Performance-Capture-Studios in Toronto eröffnet. Das Studio soll die Entwicklung von hochwertigen Inhalten für Videospiele unterstützen. Indem es Fachkenntnisse aus der Film- und Spieleindustrie vereint, hilft das Performance-Capture-Studio Ubisoft in Toronto bei der Entwicklung von facettenreicheren Charakteren, umfassenderen Geschichten und realistischen, filmreifen Spielen.

Darsteller in MoCap-Anzügen.

Darsteller in MoCap-Anzügen.

„Wir sind sehr stolz, unser Performance-Capture-Studio in Toronto vorstellen zu dürfen, da wir uns ja erst vor zwei Jahren hier niedergelassen haben,“ sagte Yannis Mallat, CEO von Ubisoft Toronto und Montreal. „Es geht hier nicht nur um die Entstehung einer innovativen Einrichtung, sondern um die Umstellung unserer Art und Weise, Geschichten zu erzählen. Wir setzen einen größeren Fokus auf schauspielerisches Talent und auf die Sicherstellung eines hochqualitativen Performance-Ergebnisses unserer Filmkunst- und Animations-Teams. Das Studio ist auch ein Beleg für unser Vertrauen in das Talent von Ontario, die besten Performance Capture-Ergebnisse in der Spieleindustrie zu liefern.“ Ich bin mal gespannt, ob den markigen Worten auch Taten folgen. Ich möchte mehr Geschichten in Spielen sehen.

Bewegungen werden in den Computer übertragen.

Bewegungen werden in den Computer übertragen.

In Toronto werden Techniken und Technologien genutzt, die momentan von der Filmindustrie eingesetzt werden. Performance-Capture beinhaltet das gleichzeitige Erfassen von Sprache, Gesichts- und Körperbewegungen, die von Schauspielern ausgeführt werden. Die Rahmendaten der neuen Investition sind zumindest eindrucksvoll:

  • Ein 600 Qudratmeter großes Performance-Arial, um umfangreiche Einstellungen zu ermöglichen.
  • 80 Vicon T160 Motion-Capture-Kameras, die eine hochauflösende, genaue und flexible Erfassung von Bewegungen ermöglichen.
  • Schnurlose Helmkameras, die Gesichtszüge genau erfassen und in Echtzeit mit Stimm- und Körperbewegungen synchronisieren.
  • Eine Tonbühne mit einem „Boxen in Boxen“-Design, welches ein hochqualitatives Capturing ermöglicht.
  • Vielseitig einsetzbare Hochlast-Stunt-Balken, die es ermöglichen dynamische und physische Szenen für Spiele zu erfassen.
Ein komplettes Set beim Dreh.

Ein komplettes Set beim Dreh.

Ich frage einfach mal: Warum muss eigentlich so ein Studio in Toronto angesiedelt sein? In Deutschland reden wir immer von der Kreativwirtschaft. Lassen wir doch endlich mal Taten sprechen. Toronto siedelt die großen Hersteller und Firmen der Branche an und wir reden davon. Ich verstehe die Kanadier schon, die stolz auf ihre neue Industrie sind: „Dies ist ein aufregender Tag für Ubisoft und die Spieleindustrie in Ontario, der demonstriert, was wir erreichen können, wenn wir zusammenarbeiten,“ sagt Brad Duguid, Minister of Economic Development and Innovation. „Unsere Regierung ist stolz auf die Ergebnisse, die wir erzielt haben, indem wir diesen Sektor in der Provinz gefördert und dabei geholfen haben, die Wirtschaft zu stärken und neue Arbeitsplätze zu schaffen.“ Durch die fortlaufenden Investitionen in die Studios in Toronto, Montreal und Quebec hat Ubisoft gezeigt, dass es Kanada als ein wichtiges Zentrum sieht, welches die Entwicklung von virtuellen Produkten antreibt.

Und immer noch mehr Öl gießen die Kanadier ins Feuer und sie machen es richtig. Sie verbinden Games und Uni. Bei uns hat die TU München einen Games-Lehrstuhl eröffnet und die universitäre Welt rümpft die Nase. Ubisoft wird auch zukünftig Zeit und Ressourcen investieren, um die Forschung und Entwicklung von Projekten mit externen Partnern in der Wissenschaft zu unterstützen. Ubisoft Toronto verstärkt sein Engagement und wird sich mit dem Sheridan College und seinen Filmindustrien, sowie seinem Forschungsausbildungs-Zentrum (SIRT) zusammenschließen. Hier sollen Forschungsprojekte im Bereich der virtuellen Produktion identifiziert, definiert und weiterverfolgt werden, um neue Kompetenzlevel zu erreichen. Zusätzlich plant Ubisoft, seine Kompetenzen und Fachkenntnisse zur Verfügung zu stellen, um einen positiven Einfluss auf spielbezogene Ausbildungs- und Studienpläne am Sheridan College auszuüben. Hierbei sollen die Studenten die Möglichkeit haben, direkten Kontakt mit den neusten Hilfsmitteln, Einrichtungen und Technologien zu haben.

 

Buchkritik: Die Bilderwelten von Avatar

7. Februar 2010

The Art of Avatar als Buch.

Avatar ist der erfolgreichste Film aller Zeiten und er hat einem alten/neuem Medium zum Durchbruch verholfen: Stereo 3D. Da ist es nicht ungewöhnlich, dass auf dem Buchmarkt zahlreiche Veröffentlichungen rund um das Thema Avatar auftauchen. Aus den Vielzahl der Veröffentlichungen ragt für mich das im Knesebeck-Verlag erschienene Buch „Avatar. James Cameron – Die Entdeckung einer neuen Dimension. Das Buch zum Film“ heraus (ISBN-13: 978-3868731897 für rund 20 Euro).
Es ist die deutsche Übersetzung der „The Art of …“-Reihe, die in den USA sehr erfolgreich laufen. Auch ich gehöre zu den Sammlern dieser Bücher. Vor allem den „Art of Pixar“-Büchern gehört mein Interesse.
Der Untertitel des Avatar-Buches trifft den Inhalt voll: „Die Entdeckung einer neuen Dimension“. Klingt schön pathetisch, passt aber. Beim Durchblättern der 108 Seiten kann der Leser in die Welt von Pandora eintauchen. Immer wieder entdecke ich in den 120 Abbildungen feine Details, die zum Träumen einladen. Aber auch der technisch interessierte Fan findet hier einen Fundus an Details. Das offizielle Begleitbuch zum Film erzählt detailgenau von der künstlerischen und technischen Konstruktion von Pandora. Anhand von über 100 exklusiven Filmbildern, Zeichnungen, Entwürfen und Skizzen bietet der Band einen sehr eindringlichen Blick hinter die Kulissen des epischen Fantasy-Abenteuers und illustriert den komplexen Entwicklungsprozess, der hinter der Erschaffung der fantastischen Geschöpfe und Landschaften oder den atemberaubenden Luftschlachten steht. Interviews mit Art Direktoren, Visual Effect Designern, Zeichnern und Kostümdesignern verdeutlichen die kreativen und technischen Herausforderungen während der Produktion von Avatar. Jon Landau beschreibt den Einsatz der Motion Capture-Software und den langwierigen Entstehungsprozess der VFX-Szene, die immer wieder dem künstlerischen Anspruch von James Cameron gerecht werden mussten.
Die Autorin ist in erster Linie die US-Amerikanerin Lisa Fitzpatrick. Sie schreibt seit über 15 Jahren Bücher zum Thema Film, unter anderem zu 24, Star Wars, Madagascar und Akte X. Sie lebt in San Francisco. Ihr zur Seite stehen zwei Berühmtheiten: James Cameron (Einleitung) und Peter Jackson (Nachwort).
In seinem Aufsatz „Die Aussetzung der Ungläubigkeit“ geht Peter Jackson auf die Bedeutung des Films Avatar für das Kino ein. „Für das Kino bedeutet Avatar einen gigantischen Sprung nach vorne.“ Hier ist vor allem die Entwicklung und Einführung einer verblüffend realen Stereo 3D-Technik gemeint. Der Film atme eine Liebe zum Detail und diesen Worten von Peter Jackson kann ich nur hinzufügen: Das Buch atmet diese Detailliebe ebenso und das ist gut so.