Posts Tagged ‘Max-Planck-Institut für Informatik’

Simulation: Gefahr einer Pandemie durch infizierte Fluggäste 

11. Oktober 2014
Startpunkt der Seuche in München.

Startpunkt der Seuche in München.

Für mich ist es faszinierend und erschreckend zugleich: Wissenschaftler am Max-Planck-Institut für Informatik haben den Einfluss jedes einzelnen Flughafens weltweit auf die Gefahr einer Pandemie durch infizierte Fluggäste errechnet und eine interaktive Website erstellt.
Wir kennen so Szenarios aus Filmen wie Andromeda – tödlicher Staub aus dem All oder Outbreak – Lautlose Killer oder ganz banalen Zombie-Filmen. Wie lange braucht es, bis sich eine Seuche über die ganze Welt ausbreitet. Was für mich Unterhaltung war, wird durch Ebola Ernst.
Mit der Zunahme des weltweiten Flugverkehrs steigt die Gefahr von Pandemien. Tausende Flugverbindungen täglich – mit zehntausenden Fluggästen in engstem physischen Kontakt – können lokale Ereignisse zu globalen Phänomenen verstärken. Wissenschaftler am Max-Planck-Institut für Informatik haben nun einen Algorithmus entwickelt, der aus der Anbindungsstärke eines Flughafens das Risiko berechnet, dass von dort eine Pandemie beginnt.
Am MPI für Informatik in Saarbrücken wird seit Jahren in der Arbeitsgruppe „Bioinformatik“ an  Modellen der Ausbreitungscharakteristik von Krankheiten oder sozialen Phänomenen innerhalb von Netzwerken geforscht.
Die Wissenschaftler dort haben dazu eine, expected force genannte, Maßzahl entwickelt, die Größe, Dichte und Vielfalt der Verbindungen zu Nachbarknoten kombiniert; die Werte liegen dabei zwischen 0 und 100 und korrelieren zu 90 Prozent mit dem Potential, dass von dem Knoten im Netzwerk eine Ereigniskaskade ausgeht. Das können auch harmlose Ereignisse in sozialen Netzwerken sein, wie z.B. Twitter-Retweets. Für eine Infektionskrankheit im globalen Maßstab manifestiert diese Kaskade aber eine Pandemie.

Verbreitungsszenario

Verbreitungsszenario

Dr. Glenn Lawyer hat diese Maßzahl auf das Netzwerk der weltweiten Flugverbindungen angewendet, für jeden Flughafen weltweit dessen expected force „ExF“ berechnet und auf einer Webseite verfügbar gemacht. Die expected force berechnet sich aus Daten zu Flugverbindungen vom jeweiligen Flughafen und der an den Zielflughäfen folgenden Anschlussverbindungen. Sie wurde auf der Grundlage einer Datenbank von 3.458 Flughäfen mit 68.820 Flugverbindungen und 171 verschiedenen Flugzeugvarianten berechnet. Die ExF eines Flughafens ist von der Anzahl der Flugrouten, deren Frequenz sowie der Sitzkapazität der Flugzeuge bestimmt. Nahe dem Maximum von ExF=100 finden sich Flughäfen mit sehr vielen Verbindungen und hohen Fluggastzahlen (Frankfurt, Atlanta, Peking), annähernd Null sind sehr abgelegene, z.B. Mount Pleasant, Falkland Inseln, ExF=3.
„Die Webseite gibt den Besuchern die Möglichkeit, die Infektionswege innerhalb des Netzwerks von Flugverbindungen nachzuvollziehen,“ erklärt Glenn Lawyer. „Man sieht, wie die Weiterverbreitung vom der Startpunkt beeinflusst ist.“
Die Webseite verdeutlicht, dass die Ausbreitung so lange langsam vor sich geht, bis sie den Netzwerkkern erreicht hat. Ab dann verstärkt sie sich explosionsartig. Die Webseite bietet zwei Modi an: „SI“ nimmt eine Pandemie an und simuliert deren Verlauf bis der gesamte Netzwerkkern betroffen ist; der Modus „SIS“ beschreibt, dass verseuchte Netzwerkknoten mit der Zeit gesunden – eine Pandemie entsteht nur dann, wenn die Krankheit schnell ausreichend viele Knoten erreicht.

Motion-Capture in freier Natur

24. Februar 2014

Ich liebe technische Visionen aus dem 3D-Umfeld. Bei Avatar habe ich Emily kennengelernt, die mich vom Hocker gehauen hat. Die Forschung daran erinnert mich immer wieder an das Labor von Professor Bunsenbrenner aus der Muppet Show, dort, wo die Zukunft schon heute gemacht wird. So schaue ich gerne beim Fraunhofer Institut vorbei, aber auch immer mehr bei den Informatikern in Saarbrücken. Zur CeBit stellen sie ein neues verbessertes System vor.

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Foto: Uwe Bellhäuser/Max-Planck-Institut für Informatik

Personen, aufgenommen in freier Natur, können direkt als virtuelle Figuren in Spielfilmszenen eingebettet werden. Dies war außerhalb eines Filmstudios bislang nicht möglich. Auch Ärzte und Sportler könnten die Technik nutzen, um Bewegungsabläufe besser zu analysieren. Um ihre Technologie zu vermarkten, haben die Informatiker die Firma „The Captury“ gegründet. Vom 12. bis 14. März präsentieren sie ihr Verfahren auf der CeBit in Hannover am Stand des Bundeswirtschaftsministeriums (Halle 9, Stand E24).

Um was geht es? Um virtuelle Figuren in reale Spielfilmszenen zu setzen, haben Filmstudios in Hollywood bislang viel Aufwand betrieben. Beim Motion-Capture-Verfahren tragen echte Schauspieler hautenge Anzüge mit Markern. Diese reflektieren Infrarotlicht, das von speziellen Kameras ausgestrahlt und empfangen wird. Die Bewegungen der Schauspieler werden anschließend mit Hilfe einer Software auf die animierten Figuren übertragen. Das bekannteste Beispiel ist „Gollum“, gespielt von Andy Serkis.

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Kein Filmstudio notwendig: Die Bewegungen von Personen können in der Natur erfasst werden, um so virtuelle Figuren zu animieren. Foto: Hasler/MPI

Die Saarbrücker Wissenschaftler um Nils Hasler und Carsten Stoll vom Max-Planck-Institut für Informatik haben ein Verfahren entwickelt, das ohne diese Marker auskommt und die Bewegung der Schauspieler direkt – ohne Zeitverlust – auf die virtuellen Charaktere überträgt. Die vergangenen Monate haben sie genutzt, um die Technologie weiter zu verbessern. „Wir haben sie benutzerfreundlicher gemacht“, erklärt Nils Hasler. „Es ist nun auch möglich, die Filmaufnahmen in der freien Natur und nicht mehr nur im Studio zu drehen.“ Beispielsweise müssten Szenen wie bei „Herr der Ringe“, in denen „Gollum“ durch die rauen Berglandschaften von Mittelerde wandert, nicht mehr im Filmstudio produziert werden, sondern direkt in der Landschaft, in der die Szenen spielen.

Darüber hinaus haben sich die Forscher damit befasst, die Bewegungen von zwei Schauspielern gleichzeitig auf zwei animierte Charaktere zu übertragen. „Die Software muss dazu allerdings etwas länger rechnen als bei einer Person“, erklärt Carsten Stoll. Zudem ermöglicht die Technik es, komplette Kamerafahrten nachzuahmen. Die Bewegung einer Figur kann auf diese Weise ohne größeren Aufwand von allen Seiten eingefangen werden.

Noch ein weiteres Problem konnten die Informatiker um Christian Theobalt, dem Leiter der Forschergruppe „Graphics, Vision & Video“ am Max-Planck-Institut für Informatik, lösen: Personen, die etwa von einer anderen Figur in einer Spielfilmszene verdeckt werden, können die Forscher mit ihrer Technik komplett darstellen. Diese Neuerung ist nicht nur für die Film- und Spielindustrie interessant. Sportjournalisten könnten die Bewegungsabläufe bei einem Boxkampf besser live kommentieren oder Judo-Trainer die Kampftechniken ihrer Athleten direkt analysieren. „Auch Betriebsärzte oder Physiotherapeuten könnten die Technik nutzen, um zum Beispiel bei den Belegschaften von Unternehmen Rückenproblemen vorzubeugen oder Arbeitsabläufe zu optimieren.“

Um ihre Technologie besser zu vermarkten, haben die Informatiker um Hasler und Stoll im vergangenen Juni die Firma „The Captury“ gegründet. Derzeit bearbeiten sie schon erste Anfragen von Unternehmen aus der Industrie. Mit ihrem Verfahren haben die Forscher im vergangenen Jahr zudem den mit 30.000 Euro dotierten Hauptpreis im Gründerwettbewerb IKT gewonnen. Der Wettbewerb wird jährlich vom Bundesministerium für Wirtschaft und Energie ausgeschrieben.

Wie funktioniert das Ganze? Die Informatiker nutzen für ihre Verfahren recht preiswerte Technik. Acht kleine Videokameras (je 3 cm breit, hoch und tief) sind notwendig. Mit Hilfe ihrer Software erstellen sie ein 3D-Modell des zu erfassenden Darstellers aus einem Bewegungsskelett mit 58 Gelenken. Um die Bewegungen zu erfassen, arbeitet das Rechenverfahren kontinuierlich darauf hin, dass sich das zweidimensionale Bild aus der Videokamera und das 3D-Modell möglichst passgenau überlagern. Die dazu notwendigen Vergleiche können die Saarbrücker auf mathematischem Wege sehr effizient und schnell lösen. Auf diese Weise erfassen sie die gefilmte Bewegung und stellen sie innerhalb weniger Millisekunden als virtuelle Figur dar.

Software findet Musik für Vertonung von Fotoserien und Videos

24. Juni 2011

Es ist fast wie Magie und es haute mich aus den Socken. Forscher der Uni Saarland haben eine Software entwickelt, die passende Musik für die Vertonung von Fotoserien und Videos findet.

Das löst das Musikproblem vieler Amateure. Aus dem Urlaub bringt jeder gerne schöne Fotos von Städten, Sandstränden oder Menschen mit. Wer diese dann mit Musik untermalt dem Freundeskreis zeigen will, sucht oft stundenlang nach den dazu passenden Musikstücken. Diese Aufgabe übernimmt der Computer jetzt völlig eigenständig. Informatiker des Saarbrücker Exzellenzclusters haben dafür eine Software entwickelt, die automatisch für Fotos und Videoausschnitte die geeignete Musik findet. Mit lizenzfreier Musik kann man das Verfahren mit Namen „Picasso“ schon testen. In einigen Wochen wird es außerdem eine Anwendung für das iPhone geben, die als Quelle die auf dem Handy gespeicherte Lieblingsmusik nutzt.  Als Lizenzfreie Musik empfehle ich hier ausdrücklich die Audiotracks von Dosch Audio. Hier kann man die Forschungsergebnisse der Informatiker einmal ausprobieren.

Filmer und 3D-Artist wissen: Passt die Musik zu den Bildern, ist die halbe Miete bereits gemacht. Musik und Bild gehören einfach zusammen. Zum romantischen Foto vom Palmenstrand könnten schmachtvolle Liebeslieder passen, eine Kanufahrt durch wilde Schluchten würde man eher mit temperamentvollen Werken inszenieren. „Filmregisseure achten in der Regel sehr genau darauf, welche Melodie auf eine Szene passt. Damit auch der Computer selbstständig die geeignete Musik für eine Bilderserie findet, haben wir einige Dutzend Filme angeschaut und ihre Soundtracks ausgewertet. Daraus entstand eine Datenbank mit mehreren tausend Bildern und der dazu passenden Musik“, sagt Sebastian Michel, Leiter einer Forschergruppe am Exzellenzcluster der Saar-Uni.

Über ein ausgeklügeltes Rechenverfahren gleicht der Computer diese Bilder mit den Urlaubsfotos ab. Anhand des gespeicherten Soundtracks begibt sich die Picasso-Software dann auf die Suche nach  Musikstücken, die mit hoher Wahrscheinlichkeit die Atmosphäre der Aufnahme passend untermalen. „Die Trefferquote unseres Systems ist erstaunlich hoch. Allerdings kann es häufig vorkommen, dass nicht gleich der erste Treffer perfekt passt. Fehler entstehen meist dann, wenn der Betrachter mit dem Foto verschiedene Gefühle verbindet. Ein einsames Haus zum Beispiel kann der eine mit romantischen Abenden verbinden, der andere denkt nur an gespenstische Nächte“, erläutert der Informatiker. Picasso schlage daher immer mehrere Musikstücke vor, aus denen der Benutzer dann das passendste auswählen kann.

Der Saarbrücker Wissenschaftler will gemeinsam mit seinem Doktoranden Aleksandar Stupar die Software weiter verbessern, damit sie auch für Videosequenzen und die Untermalung von Hörspielen genutzt werden kann. „Wir haben dafür bereits Regiebücher von Filmen ausgewertet und die Szenenbeschreibungen mit der Filmmusik abgeglichen. Auf dieser Datenbasis kann man auch für gesprochene Texte eine geeignete Hintergrundmusik recherchieren“, meint Sebastian Michel. In den kommenden Wochen werden die Informatiker außerdem eine Anwendung für das iPhone programmieren, mit der jeder seine Urlaubsfotos mit Musik untermalen kann, die in der eigenen Mediathek gespeichert ist. „Auf unserer Webseite bieten wir die Picasso-Software außerdem zum Ausprobieren mit lizenzfreien Musikstücken an. Das schränkt die Bandbreite im Musikgeschmack derzeit noch ein. Wir können uns aber vorstellen, dass das Computerprogramm auch für kommerzielle Musikanbieter von Interesse ist“, sagt Michel. Die Wissenschaftler werden das Verfahren im Juli auf einer der weltweit wichtigsten Konferenzen für Informationssuche und Wissensdatenbanken, der ACM SIGIR 2011 in Beijing (China) vorstellen.

Sebastian Michel

Sebastian Michel

leitet eine Forschungsgruppe am Saarbrücker Exzellenzcluster „Multimodal Computing and Interaction“ und forscht auch am Max-Planck-Institut für Informatik. Der Exzellenzcluster wird seit 2007 im Rahmen der Exzellenzinitiative von Bund und Ländern gefördert. Die Wissenschaftler erforschen dort, wie man multimodale Informationen wie Texte, Audiodateien, Videos und Bilder noch effizienter organisieren, verstehen und durchsuchen kann. Neben der Universität des Saarlandes sind am Exzellenzcluster das Max-Planck-Institut für Informatik, das Max-Planck-Institut für Softwaresysteme und das Deutsche Forschungszentrum für Künstliche Intelligenz beteiligt. Ich finde diese Technik kann der volle Hammer werden.

3D-Kino beschleunigt die Entwicklung von Medikamenten

17. April 2010
Mit Ballview kann man in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen.

Mit Ballview kann man in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen.

Wer für ein Türschloss den passenden Schlüssel sucht, muss eine räumliche Vorstellung davon haben. Ähnlich geht es Forschern, die Formen und Strukturen von Molekülen begreifen müssen, um neue Medikamente zu entwerfen. Bioinformatiker in Saarbrücken und Tübingen haben dafür die frei verfügbare Software Ballview entwickelt. Mit ihrer Hilfe kann man jetzt wie in einem 3D-Kino in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen. Außerdem haben die Wissenschaftler ermöglicht, dass internationale Forscher-gruppen über das neue 3D-Internet im Medikamentendesign zusammenarbeiten können.
Mit der Software Ballview können komplizierte Moleküle und deren physikalische Eigenschaften, aber auch umfangreiche biologische Systeme wie etwa Viren berechnet und visualisiert werden. Damit Forscher sich noch besser die räumlichen Strukturen der Moleküle vorstellen können, werden diese jetzt auch stereoskopisch dargestellt. Dabei werden zwei Bilder an einer Leinwand so übereinander gelegt, dass der Betrachter sie durch eine 3D-Brille mit enormer Tiefenwahrnehmung sehen kann. Er erhält dadurch einen äußerst realistischen räumlichen Eindruck und kann die Proteine oder Viren direkt an der Leinwand verschieben, in einzelne Bereiche hineinzoomen und diese dann bearbeiten. Dabei kommen moderne Eingabegeräte wie die 3D-Spacemouse zum Einsatz, mit der man in virtuellen Umgebungen Objekte bewegen kann. Auch das so genannte Headtracking, das die Kopfbewegungen des Anwenders über Infrarotsensoren erfasst, hilft bei der Steuerung.
Dr. Andreas Hildebrandt leitet eine Forschergruppe am Zentrum für Bioinformatik und dem Intel Visual Computing Institute der Universität des Saarlandes. Sein Team kombinierte die neue Visualisierungstechnik mit dem Ray-Tracing-Verfahren, das vom Computergraphik-Team um Professor Philipp Slusallek zur Marktreife gebracht wurde. Damit können die räumlichen Strukturen der Moleküle auf sehr realistische Weise mit Licht, Schatten und Spiegelungen dargestellt werden. Diese erweiterte Ballview-Software, die bisher nur an zweidimensionalen Bildschirmen zum Einsatz kam, kann jetzt auch im 3D-Kino an der stereoskopischen Leinwand betrachtet werden.
Da im Medikamentendesign viele Forschergruppen auf der ganzen Welt zusammenarbeiten, haben die Saarbrücker Informatiker außerdem die Möglichkeit geschaffen, dreidimensionale Darstellungen über das Internet auszutauschen und anzuzeigen. Die dafür notwendige 3-D-Technologie für das Internet, genannt „XML3D“, wurde von einem Forscherteam um Professor Philipp Slusallek am Intel Visual Computing Institute der Universität des Saarlandes und dem Deutschen Forschungszentrum für Künstliche Intelligenz entwickelt. Durch eine Erweiterung von gewöhnlichen Webbrowser können damit komplexe dreidimensionale Graphiken verarbeitet werden. Diese neue Web-Technologie wurde jetzt auch in die Ballview-Software integriert. So können Wissenschaftler künftig über das Internet Moleküle auf dreidimensionale Weise betrachten und gemeinsam am Bildschirm bearbeiten.
Ballview ist im Rahmen eines Forschungsprojektes am Max-Planck-Institut für Informatik in Saarbrücken entwickelt worden. Heute wird das Open-Source-Programm von drei Forscherteams an den Zentren für Bioinformatik in Saarbrücken und Tübingen weiter entwickelt. Beteiligt sind unter anderem Dr. Andreas Hildebrandt, Professor Hans-Peter Lenhof (Universität des Saarlandes) Professor Oliver Kohlbacher (Universität Tübingen) und Anna Dehof (Universität des Saarlandes). Die Raytracing-Bibliothek RTfact wird durch das Team von Professor Philipp Slusallek entwickelt. Beteiligt sind unter anderem Iliyan Georgiev und Lukas Marsalek von der Universität des Saarlandes.