Motion-Capture in freier Natur

Ich liebe technische Visionen aus dem 3D-Umfeld. Bei Avatar habe ich Emily kennengelernt, die mich vom Hocker gehauen hat. Die Forschung daran erinnert mich immer wieder an das Labor von Professor Bunsenbrenner aus der Muppet Show, dort, wo die Zukunft schon heute gemacht wird. So schaue ich gerne beim Fraunhofer Institut vorbei, aber auch immer mehr bei den Informatikern in Saarbrücken. Zur CeBit stellen sie ein neues verbessertes System vor.

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Personen, aufgenommen in freier Natur, können direkt als virtuelle Figuren in Spielfilmszenen eingebettet werden. Dies war außerhalb eines Filmstudios bislang nicht möglich. Auch Ärzte und Sportler könnten die Technik nutzen, um Bewegungsabläufe besser zu analysieren. Um ihre Technologie zu vermarkten, haben die Informatiker die Firma „The Captury“ gegründet. Vom 12. bis 14. März präsentieren sie ihr Verfahren auf der CeBit in Hannover am Stand des Bundeswirtschaftsministeriums (Halle 9, Stand E24).

Um was geht es? Um virtuelle Figuren in reale Spielfilmszenen zu setzen, haben Filmstudios in Hollywood bislang viel Aufwand betrieben. Beim Motion-Capture-Verfahren tragen echte Schauspieler hautenge Anzüge mit Markern. Diese reflektieren Infrarotlicht, das von speziellen Kameras ausgestrahlt und empfangen wird. Die Bewegungen der Schauspieler werden anschließend mit Hilfe einer Software auf die animierten Figuren übertragen. Das bekannteste Beispiel ist „Gollum“, gespielt von Andy Serkis.

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Die Saarbrücker Wissenschaftler um Nils Hasler und Carsten Stoll vom Max-Planck-Institut für Informatik haben ein Verfahren entwickelt, das ohne diese Marker auskommt und die Bewegung der Schauspieler direkt – ohne Zeitverlust – auf die virtuellen Charaktere überträgt. Die vergangenen Monate haben sie genutzt, um die Technologie weiter zu verbessern. „Wir haben sie benutzerfreundlicher gemacht“, erklärt Nils Hasler. „Es ist nun auch möglich, die Filmaufnahmen in der freien Natur und nicht mehr nur im Studio zu drehen.“ Beispielsweise müssten Szenen wie bei „Herr der Ringe“, in denen „Gollum“ durch die rauen Berglandschaften von Mittelerde wandert, nicht mehr im Filmstudio produziert werden, sondern direkt in der Landschaft, in der die Szenen spielen.

Darüber hinaus haben sich die Forscher damit befasst, die Bewegungen von zwei Schauspielern gleichzeitig auf zwei animierte Charaktere zu übertragen. „Die Software muss dazu allerdings etwas länger rechnen als bei einer Person“, erklärt Carsten Stoll. Zudem ermöglicht die Technik es, komplette Kamerafahrten nachzuahmen. Die Bewegung einer Figur kann auf diese Weise ohne größeren Aufwand von allen Seiten eingefangen werden.

Noch ein weiteres Problem konnten die Informatiker um Christian Theobalt, dem Leiter der Forschergruppe „Graphics, Vision & Video“ am Max-Planck-Institut für Informatik, lösen: Personen, die etwa von einer anderen Figur in einer Spielfilmszene verdeckt werden, können die Forscher mit ihrer Technik komplett darstellen. Diese Neuerung ist nicht nur für die Film- und Spielindustrie interessant. Sportjournalisten könnten die Bewegungsabläufe bei einem Boxkampf besser live kommentieren oder Judo-Trainer die Kampftechniken ihrer Athleten direkt analysieren. „Auch Betriebsärzte oder Physiotherapeuten könnten die Technik nutzen, um zum Beispiel bei den Belegschaften von Unternehmen Rückenproblemen vorzubeugen oder Arbeitsabläufe zu optimieren.“

Um ihre Technologie besser zu vermarkten, haben die Informatiker um Hasler und Stoll im vergangenen Juni die Firma „The Captury“ gegründet. Derzeit bearbeiten sie schon erste Anfragen von Unternehmen aus der Industrie. Mit ihrem Verfahren haben die Forscher im vergangenen Jahr zudem den mit 30.000 Euro dotierten Hauptpreis im Gründerwettbewerb IKT gewonnen. Der Wettbewerb wird jährlich vom Bundesministerium für Wirtschaft und Energie ausgeschrieben.

Wie funktioniert das Ganze? Die Informatiker nutzen für ihre Verfahren recht preiswerte Technik. Acht kleine Videokameras (je 3 cm breit, hoch und tief) sind notwendig. Mit Hilfe ihrer Software erstellen sie ein 3D-Modell des zu erfassenden Darstellers aus einem Bewegungsskelett mit 58 Gelenken. Um die Bewegungen zu erfassen, arbeitet das Rechenverfahren kontinuierlich darauf hin, dass sich das zweidimensionale Bild aus der Videokamera und das 3D-Modell möglichst passgenau überlagern. Die dazu notwendigen Vergleiche können die Saarbrücker auf mathematischem Wege sehr effizient und schnell lösen. Auf diese Weise erfassen sie die gefilmte Bewegung und stellen sie innerhalb weniger Millisekunden als virtuelle Figur dar.

Schlagwörter: , , , , , , , , , , , ,

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s


%d Bloggern gefällt das: