Posts Tagged ‘Paul Kanyuk’

animago AWARD & CONFERENCE: Es kann beginnen

28. Oktober 2009

Trickster von Alexander Pohl ist für den animago nominiert

Im Moment bin ich schon etwas nervös. Morgen, Donnerstag 29. Oktober 2009, startet unsere erste animago CONFERENCE in der Filmstadt Babelsberg. Wer Lust hat an der Zukunft teilzunehmen, ist herzlich eingeladen. Karten gibt es an der Tageskasse. Mein Team von der DIGITAL PRODUCTION hat zusammen mit Freunden aus Berlin, vom örtlichen Autodesk-Händler Lichtblick 4D, eine fabelhafte Veranstaltung konzipiert. Gefördert wird der ganze Spaß durch das Medienboard Berlin Brandenburg.

Das Programm und die Referenten können sich sehen lassen: Paul Kanyuk verrät uns Hintergründe über die Crowd Simulation bei Pixar. Einen exklusiven Blick hinter die Kulissen des neuen Emmerich-Blockbusters „2012“ versprechen auch die Vorträge von Thomas Zauner (Scanline) „2012. Der ultimative Weltuntergang“ und Mohsen Mousavi (Pixomondo) „Technical FX pipeline on 2012 & Advanced Crowd simulation pipeline“. Und das ist wirklich eine Wucht: Noch bevor der Film 2012 in die Kinos kommt, sprechen bei uns gleich zwei Kreative über ihre Arbeit und stellen die Trick vor. Das ist eine absolute Seltenheit und ich freu mich wirklich darauf.

Mit dabei ist auch Hanno Hagedorn (Naughty Dog) zum Spiel des Jahres „Making of Uncharted 2: Among Thieves“. Das Spiel wurde auf der Games Com zum Spiel der Messe gekürt und ich bin mal gespannt über die Grafik und wie die Macher Bits und Bytes geordnet haben.

Persönlich freut es mich sehr, Armin Pohl von Mackevision als Referenten (und als Sponsor) zu treffen und zu hören. Macke ist ein starkes Unternehmen, gute Ideen, gutes Konzept und wirklich engagierte Leute. Pohl spricht  über „Create with no limits! Will CGI take it all?“

Dies ist auch nur möglich geworden, weil wir starke Partner an der Seite haben: Avid, Maxon, eyeon, Mackevision, PNY, 3Dconnexion, ChaosGroup. DANKE für eure Hilfe.

Am Abend des ersten Konferenztages muss ich dann ran. Wir verliehen zum 13. Mal den animago AWARD, den wichtigsten Preis der Animationsbranche. 13 ist aber keine Unglückszahl. Wir haben 1000 Einsendungen aus 44 Ländern für die elf AWARDs bekommen. Wow, diese Tatsache kann sich sehen lassen und beweist, dass das Konzept des animago richtig ist. Ich darf rund zweieinhalb Stunden moderieren und die Gäste durch den Abend führen. Eine ungewohnte Rolle für mich, denn eigentlich bin ich eher hinter dem Schreibtisch als auf einer Bühne zu finden. Aber was solls. Ein Mitarbeiter meinte neulich: „Die Rampensau wird es schon machen.“ Ich sehe das Mal als Lob und Motivation.

Wir haben dieses Jahr mit dem neuen Standort Babelsberg am Konzept gefeilt. Wir wollten mehr Öffentlichkeit und ich denke, es ist uns gut gelungen. „Der Artist in der Postproduktion soll die Anerkennung bekommen, die er verdient.“ Die ersten Schritte sind gemacht, die Weichen sind gestellt. Wir haben Publikumsvotings eingeführt, bei denen Interessierte den Sieger mitbestimmen konnten. Eine Fachjury hat eine Vorauswahl getroffen und dann wurde abgestimmt. Diese Votings wurden hervorragend angenommen. Außerdem haben wir starke Medienpartner an der Seite, die in ihre Branche den animago AWARD getragen haben.

Alles in allem bin ich zufrieden. Natürlich sind viele Ideen auf der Strecke geblieben. Aber der Grundstein für eine erfolgreiche Veranstaltung in Babelsberg, der Wiege des deutschen Films, sind gelegt. Der animago ist dort angekommen, wohin er gehört.

Heiße Phase zum animago

9. Oktober 2009

Seit Wochen arbeitet mein Team und ich fieberhaft auf ein Event hin: die animago AWARD & CONFERENCE. Am 29. und 30. Oktober wird in der Filmstadt Babelsberg der wichtigste europäische Animationspreis verliehen. Dazu gibt es ein fettes Programm mit allerlei Stars aus der Postproduktions- und Visualisierungsbranche. Sogar Pixar hat sich angesagt. Crowd-Simulation-Spezialist Paul Kanyuk komplettiert die Liste der Top-Referenten bei der animago CONFERENCE in der Filmstadt Potsdam/Babelsberg. In seinem Vortrag wird er sich auf die technologische Weiterentwicklung und die richtige Produktions-Pipieline in Sachen Crowd Simulation beim Animationsfilm konzentrieren. Von „Ratatouille“ über „Wall-E“ bis hin zum neuesten Werk „UP“ – im Anschluss werden die CONFERENCE-Besucher wissen, wie die Horden an Pixars Ratten, Roboter und Rottweiler zum Leben erweckt werden.

Persönlich gespannt bin ich auf einen Vortrag von Philip Weiss von metricminds: Er berichtet über neue Wege der Gesichtsanimation. Die Embody-Technolgie des US-Entwicklers CaptiveMotion beschreitet neue Wege beim motion capture. Was ich bisher gesehen habe, ist echt fett.

Bisher hat motion capture im Gesicht die gleiche Technologie benutzt, wie das optische motion capture für den Körper: Reflektierende Marker werden von mehreren Seiten aufgenommen und danach wird ihre Position errechnet. Hier gelten die gleichen Regeln der Physik wie im „großen“ MoCap-Studio. Die Marker müssen rund sein, damit das Licht sauber nach allen Richtungen zurückreflektiert werden kann. Die Kugelform ist außerdem wichtig, damit ihr Mittelpunkt gut von allen Perspektiven bestimmt werden kann, um die Genauigkeit zu gewährleisten. Der Prozess ist also nicht ganz unkompliziert und erfordert kleine Kügelchen auf dem Gesicht. Diese Kugelmarker haben zudem die Eigenschaft, dass sie sich nicht nur mit dem Gesicht bewegen, sondern aufgrund ihrer Aufhängung auch Eigenbewegungen und Zittern entwickeln. In der späteren Animation bewirken diese Bewegungen einen gummiartigen Effekt, der nicht unbedingt erwünscht ist. Ein weiterer Nachteil ist, dass die Marker leicht abfallen und ihre Reflektionskraft nachlässt, wenn sie schmutzig werden, oder mit Schweiß in Berührung kommen.

Das Embody Verfahren benutzt flache Marker, also Folienkreise, die auf das Gesicht aufgetragen werden. Diese werden strategisch positioniert, um eine gute Animierbarkeit der Daten zu gewährleisten. Momentan benutzt das Standard-Markerset etwa 1400 Marker. Diese werden dann, ähnlich wie beim herkömmlichen Motion Capture, mit mehreren Kameras aufgenommen und getracked. Das Ergebnis ist ein animiertes Mesh, das auch die Ausrichtung der Kreise beinhaltet (Normalen). Dieses Mesh wird dann per Shrink-Wrap Verfahren auf anders proportionierte Gesichter übertragen (Retargeting).

Die Qualität der Animationen ist sehr gut für Close-ups im Kino geeignet. Embody wurde jedoch für Computerspiele entwickelt, daher lässt sich die Animation auf beliebig viele Bones oder Morph Targets skalieren.

Ich werde Zug um Zug noch über die Vorbereitungen zur Veranstaltung berichten. Vielleicht treffen wir uns ja in Babelsberg.