Archive for the ‘3D’ Category

Päpste werden in 3D und 4K heilig gesprochen

26. April 2014

Heiligsprechung

Meine Mutter berichtete mir von der Krönung von Elisabeth im Jahre 1952. Damals wurde die Krönung live von der BBC in alle Welt übertragen. Sie war extra beim Friseur, denn schließlich kam die britische Königin ins Wohnzimmer. Es war eine riesiger technischer Schritt. Heute sind wir natürlich deutlich weiter. Das beste Beispiel ist am Sonntag. Die feierliche Zeremonie anlässlich der Heiligsprechung von Johannes XXIII. und Johannes Paul II. findet am 27. April auf dem Petersplatz statt und wird mit Sony-Kameras des Typs PMW-F55 in einem Studio-Setup in 4K-Ultra HD übertragen. Mit der Heiligsprechung kommt die 4K-Technologie von Sony erneut für die Live-Produktion eines wichtigen Events zum Einsatz und hebt die Archivierungsqualität auf ein neues Niveau.

Es ist ein Wahnsinn, welcher technischer Aufwand hier im Hintergrund läuft. Das Vatikanische Fernsehzentrum CTV (Centro Televisivo Vaticano) produziert die Veranstaltung in Zusammenarbeit mit Sony und Sky Italia. Mit technischer Unterstützung von DBW Communication und Eutelsat wird die Veranstaltung live in 4K-Qualität aus der Audienzhalle Pauls VI. im Vatikan übertragen. Darüber hinaus können Gläubige die Zeremonie auch live in 3D verfolgen: Die Gemeinde Sotto il Monte Giovanni XXIII, Geburtsort von Papst Johannes XXIII, wird die Heiligsprechung so mit räumlicher Tiefe erleben, als wäre sie auf dem Petersplatz mit dabei. Dabei kommt der digitale 4K-Kinoprojektor SRX-R515P von Sony zum Einsatz. Durch Streulichtreduzierung ermöglicht das Projektionssystem überzeugend wirklichkeitsnahe Bilder mit einem extrem hohen Kontrast von 8.000:1.

Mit seiner Entscheidung, eine so bedeutende Veranstaltung in HD, 3D und 4K zu produzieren, baut CTV seine Position als technologisch fortschrittliches Fernsehzentrum weiter aus und knüpft an vorangegangene Erfolge an. Mit der hohen Übertragungsqualität möchte der Sender seinen Zuschauern das Gefühl vermitteln, ein Teil dieses wichtigen Ereignisses zu sein.

SonyPro_PMW-F55

Von sechs Blickwinkeln aus innerhalb eines Studio-Setups auf dem Petersplatz drehen CTV und seine Kooperationspartner die Heiligsprechung in 4K-Auflösung. Dort ist ein modernes PMW-F55-Kamerasystem mit einem 4K-fähigen Übertragungswagen verbunden.

Als technischer Leiter wählte CTV die Positionierung der Kameras und die eingesetzten Objektive sorgfältig aus: Mit einem fortschrittlichen Super-35-mm-Sensor, einer Auflösung von bis zu 4.096 x 2.160 Pixeln (11,6 Millionen Pixel insgesamt) und besten Film- und Fernsehobjektiven ermöglichen die PMW-F55-Kameras von Sony Aufnahmen in höchster Qualität, die die Zuschauer in deutlich detailreichere und konstant scharfe Bilder eintauchen lassen werden.

Neben der PMW-F55 setzt CTV auch einen Sony-Videomischer MVS-8000X in 4K-Konfiguration, ein professionelles PVM-X330-30-4K-LCD-Monitorsystem und den neuen 4K-Server PWS-4400 ein. Produktionspartner DBW Communication bringt seine fachliche Erfahrung in dieses 4K-Gemeinschaftsprojekt ein und stellt einen Ü-Wagen bereit, der für die Zeremonie ein 4K-Upgrade erhält. Satelliten von Eutelsat werden schließlich das Signal übertragen.

 

Testlauf für weitere Live-Produktionen in 4K

Die Produktion ist ein wegweisender Probelauf für die Branche, die überragenden Möglichkeiten von 4K auszutesten. So wird die Veranstaltung auch die Generalprobe für das größte Sportereignis im Sommer dieses Jahres sein: das Finale der FIFATM-Fußballweltmeisterschaft 2014, das am 13. Juni in Rio de Janeiro, Brasilien, ausgetragen und in 4K aufgezeichnet wird.

„Die Produktion von 4K-Inhalten ist für das Vatikanische Fernsehzentrum hochinteressant und wir möchten die Entwicklung dieser neuen Technologie weiter vorantreiben. 4K hilft uns dabei, unsere Mission zu erfüllen: Die Aktivitäten des Heiligen Vaters und des Heiligen Stuhls in höchster Qualität zu dokumentieren und für so lange wie möglich zu bewahren“, sagt Dario E. Viganò, Generaldirektor des Vatikanischen Fernsehzentrums.

David Bush, Head of Marketing bei Sony Professional Solutions, Sony Europe, kommentiert: „Sony definiert weiterhin die Grenzen der Technologie neu. Dies ist das erste Mal, dass die drei Produktionsebenen HD, 3D und 4K bei so einem geschichtsträchtigen Ereignis zusammenkommen. Daher ist es wichtig, dass das beste Equipment zum Einsatz kommt und jedes Detail erfasst. Wir freuen uns sehr, das Vatikanische Fernsehzentrum, mit dem wir schon seit Jahren innovativ zusammenarbeiten, bei einer so wichtigen Veranstaltung zu unterstützen.“

Ich bin sehr gepannt auf die Übertragung. Wer schaut es sich auch an?

Rettet Softimage – oder lasst es sein!

7. März 2014

Softimage

Es war absehbar, doch nun steht es offiziell fest: Die Software Softimage hat keine Zukunft mehr. Besitzer Autodesk hat eindeutig erklärt, dass die Version Softimage 2015 die finale Version sein wird. Sie erscheint am 14. April 2014. Dann ist Schluss mit der 3D-Software. Bis April 2016 wird man den Support aufrecht erhalten. Für die Kreativen bedeutet es, jetzt endlich wechseln zu müssen. Viel bleibt nicht mehr übrig: von Autodesk gibt es Max und Maya, von Maxon noch Cinema 4D, von NewTek noch LightWave und von SideFX noch Houdini und ein paar mehr.

Ich habe noch erlebt, als Softimage noch Hoffnung und frisches Geld von Avid hatte. Es gab einen coolen Stand auf der Siggraph. Die Artists waren voller Hoffnung. Es gab noch eine fette Party und ein T-Shirt. Party und T-Shirt sind Geschichte. Neueigentümer Avid hatte später seine Probleme und wollte Softimage loswerden.

Noch ein toller Stand auf der Siggraph.

Noch ein toller Stand auf der Siggraph.

Autodesk hat sich vom zerfallendenen Avid-Konzern im Oktober 2008 das 3D-Tool geschnappt. Das Teil hat 35 Millionen US-Dollar gekostet. Zum Vergleich: Für Maya zahlte Autodesk an Alias noch 182 Millionen US-Dollar im Jahre 2005. Damals sagte mir der Autodesk-Chef der 3D-Sparte Marc Petit: „Wir beabsichtigen, die Softimage-Produktlinie beizubehalten und auszuweiten und über Autodesk FBX eine bessere Interoperabilität zwischen Softimage-Produkten, 3ds Max und Autodesk Maya zu bieten.“  Nun Marc Petit ist Geschichte bei Autodesk und Softimage wird es auch sein. Im Jahre 1987 ging Softimage an den Start und wurde unter anderem in zahlreichen Blockbustern verwendet wie Jurassic Park, Titanic, Happy Feet, 300, Elysium und The Lego Movie.

Auf der FMX damals noch.

Auf der FMX damals noch.

Im Netz regt sich Widerstand gegen die Entscheidung von Autodesk. Es gibt eine Online-Petition an Autodesk, die Software weiterzuführen. Es ist fraglich, ob die engagierte Aktion von Erfolg gekrönt sein wird. Excel-Fans wie Autodesk lassen sich von Emotionen nicht so leicht überzeugen und 3D-Software nimmt in dem großen Autodesk-Konzern nur einen Randbereich ein – zwar schillernd und Hollywoodlike, aber eben doch nur einen Randbereich.

Ich erinnere mich an ein Gespräch mit einem Autodesk-Manager, als damals Maya von Alias übernommen wurde. Er checkte bei der wichtigsten 3D-Messe Siggraph in sein Hotel ein. Der junge Typ hinter der Hotelrezeption, der ihm den Zimmerschlüssel überreichte, entpuppte sich als überzeugter Maya-Anwender. Und er war sichtlich sauer über den Kauf. Er warf dem Autodesk-Manager etwa folgenden Wortlaut an den Kopf: “Wenn ihr jetzt Maya einstellt, dann setzt es von mir Prügel. Darauf kannst du dich verlassen.” Nun, Maya gibt es noch immer im Autodesk-Konzern. Vielleicht sollten die Softimage-Fans deutlichere Worte finden als eine Online-Petition.

Motion-Capture in freier Natur

24. Februar 2014

Ich liebe technische Visionen aus dem 3D-Umfeld. Bei Avatar habe ich Emily kennengelernt, die mich vom Hocker gehauen hat. Die Forschung daran erinnert mich immer wieder an das Labor von Professor Bunsenbrenner aus der Muppet Show, dort, wo die Zukunft schon heute gemacht wird. So schaue ich gerne beim Fraunhofer Institut vorbei, aber auch immer mehr bei den Informatikern in Saarbrücken. Zur CeBit stellen sie ein neues verbessertes System vor.

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Personen, aufgenommen in freier Natur, können direkt als virtuelle Figuren in Spielfilmszenen eingebettet werden. Dies war außerhalb eines Filmstudios bislang nicht möglich. Auch Ärzte und Sportler könnten die Technik nutzen, um Bewegungsabläufe besser zu analysieren. Um ihre Technologie zu vermarkten, haben die Informatiker die Firma „The Captury“ gegründet. Vom 12. bis 14. März präsentieren sie ihr Verfahren auf der CeBit in Hannover am Stand des Bundeswirtschaftsministeriums (Halle 9, Stand E24).

Um was geht es? Um virtuelle Figuren in reale Spielfilmszenen zu setzen, haben Filmstudios in Hollywood bislang viel Aufwand betrieben. Beim Motion-Capture-Verfahren tragen echte Schauspieler hautenge Anzüge mit Markern. Diese reflektieren Infrarotlicht, das von speziellen Kameras ausgestrahlt und empfangen wird. Die Bewegungen der Schauspieler werden anschließend mit Hilfe einer Software auf die animierten Figuren übertragen. Das bekannteste Beispiel ist „Gollum“, gespielt von Andy Serkis.

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Die Saarbrücker Wissenschaftler um Nils Hasler und Carsten Stoll vom Max-Planck-Institut für Informatik haben ein Verfahren entwickelt, das ohne diese Marker auskommt und die Bewegung der Schauspieler direkt – ohne Zeitverlust – auf die virtuellen Charaktere überträgt. Die vergangenen Monate haben sie genutzt, um die Technologie weiter zu verbessern. „Wir haben sie benutzerfreundlicher gemacht“, erklärt Nils Hasler. „Es ist nun auch möglich, die Filmaufnahmen in der freien Natur und nicht mehr nur im Studio zu drehen.“ Beispielsweise müssten Szenen wie bei „Herr der Ringe“, in denen „Gollum“ durch die rauen Berglandschaften von Mittelerde wandert, nicht mehr im Filmstudio produziert werden, sondern direkt in der Landschaft, in der die Szenen spielen.

Darüber hinaus haben sich die Forscher damit befasst, die Bewegungen von zwei Schauspielern gleichzeitig auf zwei animierte Charaktere zu übertragen. „Die Software muss dazu allerdings etwas länger rechnen als bei einer Person“, erklärt Carsten Stoll. Zudem ermöglicht die Technik es, komplette Kamerafahrten nachzuahmen. Die Bewegung einer Figur kann auf diese Weise ohne größeren Aufwand von allen Seiten eingefangen werden.

Noch ein weiteres Problem konnten die Informatiker um Christian Theobalt, dem Leiter der Forschergruppe „Graphics, Vision & Video“ am Max-Planck-Institut für Informatik, lösen: Personen, die etwa von einer anderen Figur in einer Spielfilmszene verdeckt werden, können die Forscher mit ihrer Technik komplett darstellen. Diese Neuerung ist nicht nur für die Film- und Spielindustrie interessant. Sportjournalisten könnten die Bewegungsabläufe bei einem Boxkampf besser live kommentieren oder Judo-Trainer die Kampftechniken ihrer Athleten direkt analysieren. „Auch Betriebsärzte oder Physiotherapeuten könnten die Technik nutzen, um zum Beispiel bei den Belegschaften von Unternehmen Rückenproblemen vorzubeugen oder Arbeitsabläufe zu optimieren.“

Um ihre Technologie besser zu vermarkten, haben die Informatiker um Hasler und Stoll im vergangenen Juni die Firma „The Captury“ gegründet. Derzeit bearbeiten sie schon erste Anfragen von Unternehmen aus der Industrie. Mit ihrem Verfahren haben die Forscher im vergangenen Jahr zudem den mit 30.000 Euro dotierten Hauptpreis im Gründerwettbewerb IKT gewonnen. Der Wettbewerb wird jährlich vom Bundesministerium für Wirtschaft und Energie ausgeschrieben.

Wie funktioniert das Ganze? Die Informatiker nutzen für ihre Verfahren recht preiswerte Technik. Acht kleine Videokameras (je 3 cm breit, hoch und tief) sind notwendig. Mit Hilfe ihrer Software erstellen sie ein 3D-Modell des zu erfassenden Darstellers aus einem Bewegungsskelett mit 58 Gelenken. Um die Bewegungen zu erfassen, arbeitet das Rechenverfahren kontinuierlich darauf hin, dass sich das zweidimensionale Bild aus der Videokamera und das 3D-Modell möglichst passgenau überlagern. Die dazu notwendigen Vergleiche können die Saarbrücker auf mathematischem Wege sehr effizient und schnell lösen. Auf diese Weise erfassen sie die gefilmte Bewegung und stellen sie innerhalb weniger Millisekunden als virtuelle Figur dar.

Bewegungstipps zum Start der Monster Uni auf Blu ray

5. November 2013

Leider kommt der Blu ray-Start von der Die Monster Uni für den Semesterstart in Bayern ein paar Tage zu spät, aber dennoch wird der Film für unter anderem Animationsstudenten eine Bereicherung zum Studienstart sein. Am 14. November kommt der jüngste Pixar/Disney-Film auf Blu ray/DVD und zum Download.

Monster

Ich habe ja bereits zum Kinostart des Films meine Meinung über das Pixar-Werk geäußert. Und natürlich werde ich als Pixar-Fan mir den Film zulegen. Aber ich muss eben noch ein paar Tage warten. Derweil mache ich ein paar Übungen.

Art ist einfach ein cooler  Typ.

Art ist einfach ein cooler Typ.

Als Bildschirmarbeiter muss ich mich mehr bewegen und da gibt mir Monster Uni die richtige Anregung. Angespannt sitze ich am Mac, die Schulter sind hochgezogen, der Rücken rund – das führt zu Verspannungen und Schmerzen. Art, das denkbar merkwürdigste Mitglied der Omega Kreischma-Studentenvereinigung, hat damit keine Probleme – und das liegt nicht nur daran, dass er gar keinen Rücken hat. Er studiert New-Age Philosophie an der Monster Uni, führt ein Traumtagebuch und ist überaus gelenkig. Art hat für uns Pixar-Fans ein paar Übungen zusammengestellt.

1. Pflücken Sie Äpfel! Stellen Sie sich vor, diese hängen hoch über Ihrem Schreibtisch (geht im Sitzen oder im Stehen). Recken und strecken Sie sich tüchtig danach, abwechselnd mit dem linken und dem rechten Arm (jeweils 5x).

Bildschirmfoto 2013-11-03 um 18.03.27

2. Stellen Sie sich nun aufrecht hin, heben die Arme und winkeln Sie die Ellenbogen im rechten Winkel ab (wie ein U). Jetzt beide Ellenbogen gleichzeitig nach hinten ziehen. Einen Moment lang halten, nach vorn führen und wiederholen (10x).

3. Legen Sie Ihre Handflächen locker auf Ihre Schultern (linke Hand auf die linke Schulter, rechte Hand auf die rechte Schulter) und kreisen sie dann langsam die Ellenbogen. Erst beide gleichzeitig nach hinten, dann noch vorne (je 5x). Lassen Sie die Arme locker hängen und kreisen anschließend jede Schulter einzeln (je 5x)

Bildschirmfoto 2013-11-03 um 18.03.45

4. Spätestens jetzt müssen Sie sich wirklich hinstellen: Achten Sie auf stabilen Stand, etwas mehr als schulterbreit, Knie leicht angewinkelt. Beugen Sie sich leicht nach vorne, stützen Sie sich auf den Oberschenkeln ab und mobilisieren Sie Ihren Rücken, indem Sie ihn im unteren Teil abwechselnd runden und vorsichtig leicht ins Hohlkreuz gehen (5x).

5. Und zum Abschluss machen Sie es wie Art (l.) und lassen beide Arme und den Kopf einmal hängen und schütteln sie aus.

Bildschirmfoto 2013-11-03 um 18.03.58

Ich hab das Ganze mal in einem meiner Seminare ausprobiert. Ja, die Leute haben saudoof geschaut und sie haben noch mehr geschaut, als ich erklärte, dass ich die Tipps von Art habe. Ich stelle fest: Die Leute haben absolut keinen Humor. Was soll’s, ich freu mich derweil auf Die Monster Uni auf Blu ray.

Persönlicher Nachruf: Zum Tode von Iris Asche 3DPowerstore

9. Oktober 2013

Mit Entsetzen erfuhr ich vom Tod von Iris Asche. Am 4. September 2013 verstarb nach schwerer Krankheit die Chefin des 3DPowerstores aus Düsseldorf. Iris Asche war in der 3D-Branche jahrelang bekannt und in der Commuity sehr geschätzt. Die Branche hat eine engagierte Vertreterin verloren.

iris

Ich lernte Iris als Chefredakteur der Zeitschrift DIGITAL PRODUCTION kennen. Zusammen mit Ron Martin war sie meine Ansprechpartnerin für 3D-Produkte und die Szene darum. Immer wieder trafen wir uns auf Messen und Veranstaltungen, liefen uns auf der FMX, der IBC oder der Siggraph über den Weg, tranken den einen oder anderen Kaffee und ratschten wie alte Freunde. Iris war Teil der Branche und kannte sich aus. Als Kommunikationswirtin studierte sie von der Oktober 1984 bis April 1990 an der Hochschule der Künste Berlin. Ihre Diplomarbeit schrieb sie beim legendären Dr. Bernd Willim zumThema Computeranimation. Ihre kaufmännischen Erfahrungen sammelte sie im Einzelhandel/IKEA als leitende Angestellte im Bereich Local Marketing. Später war sie selbstständig im Bereich Innenarchitektur/Ladenbau. Dann kam der Schritt in die 3D-Branche, die ihr immer am Herzen lag. Sie gründete ihren 3DPowerstore. Dort war sie der gute Geist für alle organisatorischen Fragen rund um die Auftragsabwicklung, organisierte Schulungen und Workshops in Düsseldorf und hielt den Kontakt zu uns Medienmenschen.

Durch Facebook tauschten wir uns über gesunde Ernährung aus. Iris war eine Verfechterin von Rohkost und gab mir immer wieder Tipps für vegetarische Küche. Ihr letzter Post bei Facebook ging über die bevorstehende Briefwahl. Sie schrieb am 29. August: „Meine Kreuzchen sind gesetzt, Briefwahl erledigt.“ Über ihre Krankheit verlor sie in unseren Gesprächen kein Wort, aber in Bemerkungen spürte ich, dass etwas nicht stimmte. Am 4. September verstarb sie ohne Schmerzen in den Armen von Ron Martin. Iris, wir werden dich nicht vergessen.

Anbei ein kleines Video, dass ich über Iris auf der FMX 2011 gedreht habe.

 

Disney Planes – das ist Cars für Arme

20. September 2013

planes

Nein, liebe Freunde von Disney. Planes war einfach nichts, der Film hat mir nicht gefallen. Ich hab ihn zusammen mit meinen Kindern angesehen und K1 brachte es nach dem Film auf den Punkt: „Papa, warum haben die Cars jetzt mit Flugzeugen nochmals gedreht.“ Und recht hat das kluge Kind. Der Film ist eine Mischung der beiden Cars-Filme, ohne jedoch die Klasse der Pixar-Produktionen zu haben. K2 ergänzte am Ende dann noch: „Schau mal, der Flugzeugträger hat Augen, jetzt kommt bestimmt bald ein Film über Schiffe.“ Nein bitte nicht.

Klar, die Animationen waren okay, die Figuren waren okay, die Story war okay, aber alles schon mal gesehen und vor allem alles schon mal besser gesehen. Vereinzelt gab es ein paar gute Witze wie beispielsweise die Szene mit dem zerstörten Tablet. „Macht nichts, in wenigen Wochen kommt das neue.“ War das eine Andeutung für die neuen iPads? Quatsch, aber gut war es schon.

Nee, Nee - das war nix.

Nee, Nee – das war nix.

Vielleicht muss man Amerikaner sein, um diesen Film genießen zu können. Militärjets und Flugzeugträger spielen als tolle Gemeinschaft mit und der Kriegsheld Skipper ist ein weiser Mann. In den Staaten spielt das Militär eine andere Rolle, aber Leute, wir sind hier bei Disney. Lieber John Lasseter, als ausführender Produzent und Kreativchef von Disney habe ich mir mehr bei diesem Film erwartet. Bitte macht nicht mehr solche lieblosen Massenproduktionen. Ihr habt einen Namen zu verlieren. Ich will die Spritzigkeit, die ich von Lasseter gewohnt bin, die Dialoge, die Feinzeichnung der Personen.

Aber ich geb es zu: Ich wurde schon stutzig, als ich damals den ersten Trailer zu Planes im Netz sah. Die Musik stammte von Rob Zombie. Ja, der von mir verehrte Irre macht die Musik zu einem Disney-Film? Was läuft da falsch? Geht gar nicht.

Aber vielleicht hätte Rob Zombie doch die komplette Musik machen sollen. Stattdessen ließ Disney Mark Mancina ran, der einen belanglosen, lahmen Soundtrack Planes schuf. Wo ist Randy Newman? Er arbeitet wohl nur für Pixar und er weiß wohl auch warum.

Ok, an dem Kinotag hat es sowieso geregnet, da war es im Kino wenigstens trocken und das Popcorn bei Planes war auch nicht schlecht.

Soundtrack

Der Medicus mit Pixomondo-Tricks aus Deutschland

18. September 2013

Ich freue mich immer, wenn 3D-Firmen aus Deutschland in der Weltliga mitspielen und auch große Aufträge bekommen. So ist es derzeit bei der Produktion von „Der Medicus“. Bei der deutsch-amerikanischen Verfilmung des Buches Der Medicus von Noah Gordon ist Pixomondo für zahlreiche Tricks zuständig. Das Buch war in Europa ein Renner, während es in den USA nicht den Nerv traf. Aber historische Romane (und dessen Verfilmungen) sind bei uns in, obwohl ich so was persönlich nicht mag.

medicus

Um was geht es im Film? London im beginnenden Hochmittelalter: Der junge Rob Cole (Tom Payne) wächst mit einer Begabung heran. Er konnte den nahenden Tod seiner Mutter bereits einige Zeit zuvor spüren. Nachdem dieser tatsächlich eintritt, bleibt Cole jedoch nicht lange allein. Der fahrende Bader (Stellan Skarsgård) nimmt ihn mit auf seinen Fahrten und lehrt ihn sowohl in kleinen Taschenspielertricks, als auch in der Heilkunde. Jedoch sieht Cole frühzeitig ein, dass diesen Methoden Grenzen gesetzt sind, so dass er nach größerem Wissen zu streben beginnt. Er entschließt sich in das persische Isfahan zu reisen und dort den „Arzt aller Ärzte“ Ihn Sina (Ben Kingsley) aufzusuchen. Die Reise ist verboten und gefährlich, doch getrieben von seinem Wissensdurst nimmt der junge Rob die Strapazen auf sich. Auf seiner abenteuerlichen Reise begegnen ihm allerlei Herausforderungen und er ist gezwungen verschiedene Opfer zu bringen, doch er erkämpft sich seinen Weg erbarmungslos …

Bis zum Kinostart am 25. Dezember 2013 ist es nicht mehr lange hin. Daher arbeitet Pixomondo derzeit als alleiniges VFX-Unternehmen auf Hochtouren an den visuellen Effekten des Abenteuerfilms „Der Medicus“. Seit Januar 2013 werden im Kölner Produktionsbüro rund 160 Einstellungen mit 22.752 Einzelbildern bearbeitet.

Für das bildgewaltige Abenteuerepos auf Grundlage des gleichnamigen Bestsellers von Noah Gordon baut Pixomondo die persische Stadt Isfahan des 11. Jahrhunderts komplett am Computer nach. Von weiten Totalaufnahmen der gesamten Stadt bis hin zu detailreichen Straßenszenen wird das digitale Modell in verschiedensten Filmsequenzen eingesetzt. Pixomondo produziert für „Der Medicus“ zudem Effekte für Szenen der weiteren Handlungsorte in England, Ägypten und in der Wüste. Durch die Kombination von real gedrehten Aufnahmen und digital erstellten Landschaften und Objekten erhalten die Handlungsorte ein individuelles Erscheinungsbild – passend zum Mittelalter.

Computergenerierte Soldaten und digitale Armeen ersetzen in Schlachten reale Schauspieler und Statisten. Dank der „Digital Crowd“ passt Pixomondo am Computer die verschiedenen Kampfszenen schnell und einfach an die Wünsche des Regisseurs Philipp Stölzl an. Für die Arbeiten an „Der Medicus“ hat Pixomondo ein Produktionsbüro in Köln aufgebaut. Das Pixomondo-Team sitzt im Haus der Firma CinePostproduction, die für den Schnitt und die Farbkorrektur bei dem Projekt verantwortlich ist. „Für uns ergeben sich hierdurch zahlreiche Synergien“, ergänzt Christian Vogt, COO von Pixomondo.

Ich hoffe, dass Christian Vogt sich nicht irrt. CinePostproduction hat gewaltige Probleme. Der Geschäftsbetrieb der insolventen CinePostproduction geht weiter, so verkündete es der Insolvenzverwalter. Das Amtsgericht München hat Stephan Ammann von der PLUTA Rechtsanwalts GmbH mit Beschluss vom 12. August 2013 zum vorläufigen Insolvenzverwalter der CinePostproduction GmbH bestellt. Der Rechtsanwalt und Steuerberater hatte bereits eine wichtige Entscheidung getroffen: „Der Geschäftsbetrieb der CinePostproduction wird fortgeführt“, erklärte Ammann. Er plant, die vorhandenen Aufträge weiter auszuführen und neue Aufträge entgegenzunehmen. Die CinePostproduction GmbH mit Sitz in Grünwald ist eine 100%-ige Tochtergesellschaft der börsennotierten CineMedia Film AG und zählt zu Deutschlands größten Postproduktionsunternehmen mit bundesweiten Niederlassungen. Aktuell beschäftigt das Unternehmen mehr als 200 Mitarbeiter. Standorte sind München, Berlin, Hamburg, Köln und Halle. Die Gehälter der Mitarbeiter sind über das Insolvenzgeld der Bundesagentur für Arbeit gesichert. So wird wohl auch die Produktion von „Der Mediucus“ gut über die Bühne gehen.

Design-Riese Autodesk setzt auf Mietmodell von Software

15. September 2013

Getreu dem Motto von Nikolas Negroponte „Don´t move atoms, move bytes“ steigen immer mehr Software-Hersteller auf den Vertrieb ihrer Software durch Download um. Der Zwischenhändler wird dabei ausgehungert und muss sich neue Aufgaben suchen. Oftmals muss dann in die personal- und schulungsintensive Beratung investiert werden, die aber von der Masse der Kunden nur bedingt angenommen wird.

Autodesk

Nach Adobe mit der Creative Cloud und dem Wegfall der Software-Schachteln ist nun Autodesk an der Reihe. Autodesk führt ab 16. September Software-Mietmodell für seine Konstruktions-, Planungs-, Architektur- und Entertainment-Lösungen ein. Kunden können zwischen monatlichem, vierteljährlichem und jährlichem Abonnement wählen. Für meinen 3D-Bereich handelt es sich um Autodesk 3ds Max, Autodesk Maya sowie auf das neue Autodesk Maya LT. Hier hat Autodesk die US-Mietpreise veröffentlicht. Europäische Preismodelle habe ich nicht gefunden.

Dabei fährt Autodesk (noch) zweigleisig: Zusätzlich zum traditionellen Lizenzmodell haben Kunden zum ersten Mal die Gelegenheit, über ein monatliches, vierteljährliches oder jährliches Abonnement Produkte aus der Palette an Autodesk Desktop-Software nach Bedarf zu nutzen. Das Pay-as-you-go-Modell erweitert somit die Nutzungs- und Bezahlmöglichkeiten für Autodesk-Software. Konstrukteure, Ingenieure, Architekten und Visual Effect Artists können so Software für ihre Projekte einsetzen, ohne dass dafür hohe Investitionskosten anfallen. Das Mietmodell ist vor allem für Freiberufler, Start-Ups und Büros mit hoher Projektarbeit eine interessante Alternative, meint Autodesk. Kunden, die sich für dieses Modell entscheiden, erhalten ähnliche Leistungen wie Autodesk Subscription-Kunden. Dazu gehören regelmäßige Software-Updates, Zugang zu ausgewählten Autodesk 360 Cloud-Services und Kunden-Support.

Es hat den Vorteil, dass ich für ein Projekt nur Software mieten und nicht teuer bezahlen muss. Allerdings entfällt das Spielen mit Software, denn ich habe das Produkt nur zeitlich limitiert. Ich kenne viele 3D-Designer, die durch das Herumspielen neue Möglichkeiten der komplizierten 3D-Software entdecken, auch wenn sie nicht gerade in einem Projekt stecken.

Ich bin mal gespannt, wie der Markt das Angebot von Autodesk annimmt. Die arg gebeutelten Händler werden sicherlich nicht begeistert sein.

Muss das sein? Äffle und Pferdle als 3D-Animation

27. Juli 2013

Es ist wohl der Lauf der Dinge, dass alles digitalisiert werden muss. Obwohl ich ja ein Verfechter der digitalen Welt bin, muss ich nicht alles 3D-animiert haben. Dazu gehören zum einen die Mainzelmännchen, die Biene Maja und jetzt kommt auch noch “Äffle und Pferdle”.

Es schlagen zwei Herzen in meiner Brust. Ich weiß, dass man neue Zielgruppen mit zeitgemäßer Bildsprache erreichen kann und dennoch bin ich in diesem Fall ein konservativer Knochen. Nicht alles, was geht, muss auch gemacht werden. Aber vielleicht werde ich einfach nur alt, aber mir gefällt es einfach nicht.

Originalclip ab 0:35 min

Um was geht es? Die Abteilung Forschung & Entwicklung des Instituts für Animation, Visual Effects und digitale Postproduktion an der Filmakademie Baden-Württemberg hat in Kooperation mit der Lang-Film Medienproduktion neue Produktionstechniken für die beliebten schwäbischen Zeichentrickfiguren „Äffle und Pferdle“ entwickelt. Dadurch sind die beiden Figuren ab sofort auch als Computer-Animationen zu bewundern. Die Filmakademie gehört zu den führenden Schulen im digitalen Bereich und ich habe lange in meiner Zeit als Chefredakteur für 3D-Zeitschriften mit den Kreativen zusammengearbeitet. Großartige Talente sind dort zu finden.

Die animierten Sequenzen von „Äffle und Pferdle“, die im Südwestrundfunk seit 1960 zwischen den ausgestrahlten Werbespots gezeigt werden (ähnlich den Mainzelmännchen im ZDF), wurden bis 1998 mit der Hand gezeichnet. Die Entwicklung der neuen Produktionstechniken und die erstmalige 3D-Adaption, die auf der Website der R&D-Abteilung mit mehreren Videobeispielen veranschaulicht werden, sollen nun die Basis für die Produktion von neuen Episoden bilden. Dabei sollen Charme und Stil der Originale unbedingt beibehalten werden.

Clip von 2D zu 3D-Roto

Die „Äffle und Pferdle“-Cartoons, in denen der unverwechselbare Dialekt der Region gesprochen wird, greifen typisch schwäbische Verhaltensformen auf. Das „Pferdle“ ist dabei eine Referenz an das Stuttgarter Stadtwappen. Die beiden Tiere zählen zu den beliebtesten Charakteren in Baden-Württemberg und haben allein auf Facebook über 73.000 Follower und meine Familie gehört auch dazu.

Clip Komplett animiert

Roto vs Full Animation

Technisch sind die Umsetzungen hervorragend und auch der Charme ging nicht verloren. Ich bin dennoch nicht begeistert und muss mich wohl daran gewöhnen. Meinen Kindern gefällt es übrigens. Tja, der Lauf der Dinge.

Alles auf einmal:

Für mich große Kunst: 3D-Künstler Robert Seidels Werk „_grau“

30. Juni 2013

Bildschirmfoto 2013-06-27 um 08.58.54

Seit Jahren beobachte ich mit Interesse die Arbeiten des 3D-Künstlers Robert Seidel und bin auch mit ihm befreundet. Wir lernten uns durch meine Tätigkeit als Chefredakteur von verschiedenen 3D-Zeitschriften kennen und verbrachten auch eine Siggraph zusammen. Nach all den Jahren bin ich immer noch fasziniert von seinen 2004 entstandenen experimentellen 3D-Kurzfilm „_grau“. Der Film war bisher bei über 150 Festivals in mehr als 25 Ländern zu sehen. Nachdem ich mir den Film immer wieder anschaue, will ich ihn mal näher vorstellen. Das Projekt entstand  auf der Grundlage persönlicher Ideen und Skizzen, umgesetzt in Autodesk 3ds max sowie After Effects. „_grau“ (www.grau1001.de) ist kein typischer 3D-Film, sondern eine sehr persönliche Collage. Wer mehr über seine Arbeit lesen will, dem empfehle ich ausdrücklich den Katalog zu Ausstellung Folds, den es hier zum kostenlosen Download gibt.

Zum Ablauf des Films sollte nicht allzu viel angemerkt werden, da dies die Assoziationen zu stark beeinflussen würde. Nur so viel: Die Sequenz am Anfang zeigt prismatische Splitter und Funken des aufprallenden Autos, die fast alle Farben aus dem Bild waschen. Es schließen sich Erinnerungen an, vornehmlich aus den vergangenen Jahren und Seidels Kindheit, um im Unfall selbst und dem so genannten Entscheidungsfell zu gipfeln. In diesem repräsentiert jedes Haar eine Entscheidung des Lebens, die final zum Zusammenstoß führen. Alle Objekte haben für Seidel eine Bedeutung, sind aber durch die am Unfall beteiligten Kräfte aus ihren Bahnen geraten.

Bildschirmfoto 2013-06-27 um 08.59.08

Der Inhalt und der Titel des Films „_grau“ gehen auf eine Diskussion zurück und sollen Robert Seidels Standpunkt innerhalb dieses Gesprächs zeigen: Es gibt bei keinem Ereignis eine strikte Trennung zwischen Gut und Böse, Hell und Dunkel. Der Betrachterstandpunkt wird basierend auf Erfahrungen, Vorstellungen, Ansprüchen  und physischer so wie psychischer Nähe zum Ereignis in seiner „Helligkeit“ variiert und verschwimmt mit fortschreitender zeitlicher Distanz. Auch die Filmlänge nimmt darauf Bezug, da sie mit 10:01 Minuten genau zwischen den beiden digitalen Extremen aufgespannt ist.

Der Entdecker des binären Zahlensystems Gottfried Wilhelm Leibniz belegte in seinem philosophisch-mathematischen Aufsatz übrigens die Zustände mit Gott (1) und Teufel (0). Um weiter mit dem Eingangszitat zu spielen: Das Helligkeitsspektrum des Films erstreckt sich nur zwischen reinem Weiß (RGB 255, 255, 255) und reinem Schwarz (RGB 0, 0, 0), wobei die beiden Extreme im digitalen Bild herausgefiltert wurden. Ursprünglich wollte sich Seidel mit diesem Thema ganz abstrakt auseinander setzen, doch während seiner Recherchen wurde er auf einer nächtlichen Autobahnfahrt beinahe in zwei Unfälle verwickelt. Diese Schlüsselerlebnisse veranlassten ihn darüber nachzudenken, wie wohl die letzten Sekunden eines Lebens aussehen würden. Aus dieser fiktiven Finalisierung eines Unfalls entwickelte er diverse amorphe Bildstrukturen, die den aufflackernden Erinnerungen entsprechen. Die Auseinandersetzung mit der Vergangenheit findet dabei sehr zufällig und ungewichtet statt. Kleine Details werden zu großen Momenten, während komplette Jahre verloren gehen.

Inspirationsquellen Gestalterisches Ziel von „_grau“ war es, eine eigenständige Bildwelt zu konstruieren, deren Komplexität und Dynamik an die Natur erinnert, und somit eine Art lebendiges Bild zu schaffen. Natürliche Farben und Formen übten schon in frühester Kindheit einen großen Einfluss auf Seidel aus. Auch seine Begeisterung für die Aufbereitung der Natur mittels wissenschaftlicher Visualisierung, die verborgene Bild- und Wissensstrukturen zum Vorschein bringt, schlug sich im Film nieder. Ebenfalls sehr einflussreich war die Kunst, allen voran die Surrealisten (Max Ernst) und Hieronymus Bosch, die bekannte Objekte in neue Zusammenhänge setzten. Auch im filmischen Bereich stehen einige Künstler mit Vorliebe für skurrile Details (Jan Svankmajer) Seidels Vorstellungswelt näher als beispielsweise abstrakt arbeitende Filmemacher oder Motion-Designer.

Die dritte Quelle der Inspiration ist Seidels Hauptwerkzeug, der Computer. Dank seinem Vater setzte er sich mit Rechnern schon früh auseinander. Die anfänglich spielerische Begeisterung wurde später durch selbst gepixelte Bilder, Basic-Programmierung, Fraktale und letztendlich 3D-Renderings abgelöst. Die digitalen Möglichkeiten, besonders von Software-Architekturen, empfindet er ebenfalls als anregend. Ohne das parametrische Arbeiten in 3ds max, also jederzeit einen Schritt zurücknehmen oder Vorhandenes neu kombinieren zu können, wäre vieles für ihn nicht umsetzbar gewesen. Aus diesen verschiedenen Einflüssen entwickelte er eine eigene Bilderwelt, die abstrakt zu sein scheint, aber nichts anderes als seine subjektive Wirklichkeit zeigt.

Bildschirmfoto 2013-06-27 um 08.59.17

Umsetzung  In Seidels beiden vorangegangenen Filmen tauchen einige der in „_grau“ verwendeten Techniken auf. „Lightmare“ aus dem Jahre 2001 (Honorary Mention Computer Animation/Visual FX beim Prix Ars Electronica) besteht aus einer lebenden 3D-Struktur, während „E3“ von 2002 eher malerisch ist. Beide Kurzfilme sind auf seiner Website www.2minds.de zu sehen.

„_grau“ war logistisch, technisch und gestalterisch Robert Seidels bisher aufwändigstes Unterfangen. Eines seiner Ziele war es, die verschiedenen Erinnerungssedimente organisch-zufällig anzuordnen; ein anderes, das flüchtige Gefühl seiner Skizzenbücher einzufangen. Folglich sollte nicht nur digital modelliert und animiert, sondern auch von realen Vorlagen abgeleitet werden, um mit den darin enthaltenen „Unreinheiten“ dem Bild mehr Leben einzuhauchen. Dazu musste Robert Seidel verschiedenste Techniken, die ihm zumindest aus der Theorie vertraut waren, in der Praxis ausprobieren, deren Potenzial einschätzen und sie gegebenenfalls einflechten.

So entstanden rund 120 verschiede-ne kleine und größere Experimente. Das Fundament bildeten die Hauptwerkzeuge 3ds max und After Effects sowie diverse Plug-ins und Skripte für beide Programme. Zusätzlich hat Seidel nach anderer Software recherchiert, um aus den Bereichen Fraktale, Bildrekonstruktion, Voxelgrafik (Voxel sind Volumenpixel; ein in der Medizin verwendetes Abbildungsverfahren), chemische Visualisierung sowie Partikel-, Haar- und Flüssigkeitssimulation zu schöpfen. Viele der getesteten Programme und Plug-ins waren aber nicht geeignet, da weder die Kontrollmöglichkeiten und die Geschwindigkeit noch der Datenaustausch oder die Programmstabilität in der relativ kurzen zur Verfügung stehenden Zeit zu vertretbaren Ergebnissen geführt hätten.

Neben Simulationsdaten sowie eigens modellierten Objekten hat Robert Seidel auch den eigenen Körper und reale Gegenstände als Quellen genutzt. So wurden zum Beispiel ein MRT-Datensatz (Magnet-Resonanz-Tomographie) seines Kopfes herangezogen, diverse 3D-Scans von Kopf, Hand sowie Plüsch- und Meerestieren angefertigt, seine Bewegungen mittels Motion Capture und seine Wohnung mit einer 3D-Kamera aufgezeichnet sowie Freiformflächen mit einem VR-Modeler aus der Autoindustrie entworfen.

Nachdem genügend Material gesammelt war, traf Seidel eine Auswahl und arrangierte und animierte die Modelle in 3ds max. Die Konvertierung der verschiedenen Datenformate, sei es 3D oder 2D, stellte eine große Herausforderung dar, denn viele der verwendeten Spezialapplikationen aus dem wissenschaftlichen Bereich haben proprietäre oder äußerst seltene Datenformate. Hier schaffen aber Tools wie PolyTrans, IrfanView oder diverse kleine MaxScripts Abhilfe.

Die Texturierung erfolgte mittels Painter und prozeduraler Texturen, die organisch wirkende Abweichungen erlauben. Ausgeleuchtet wurde nur klassisch oder mit Lightdome, da zum Rendern neben einem Arbeitsrechner lediglich ein alter PC sowie ein geliehenes Notebook zur Verfügung standen. Also leider keine Renderfarm, die den Ansprüchen von GI-Rendering genügt hätte. Die PCs renderten über Nacht, damit Robert Seidel die verschiedenen Teile am nächsten Tag begutachten konnte.

Nach und nach wurden die Sequenzen in After Effects zusammengefügt, wobei anzumerken ist, dass alle Objekte eigentlich farbig sind und erst im Nachhinein gebleicht wurden. Die ganze Zeit grau in grau zu arbeiten wäre sicherlich nicht sehr motivierend gewesen. In After Effects wurden abschließend Blurs eingefügt und Layer zusammengesetzt. Da relativ viele Dateien generiert wurden, waren regelmäßige Backups sehr wichtig, um später eventuell auf die Zwischenschritte des gerenderten Materials zugreifen zu können.

Trotz seines Alters aus dem Jahre 2004 ist der Film und die Arbeit von Robert Seidel für mich persönlich sehr wichtig.