Posts Tagged ‘Universität des Saarlandes’

Tasten in VR und AR

8. März 2023

Kennen Sie noch das Muppet-Labor von Professor Bunsenbrenner, dort wo die Zukunft schon heute gemacht wird. Daran erinnert mich eine Meldung der Universität des Saarlandes über Tastsinn im virtuellen Welten. Das Vorhaben von Jürgen Steimle, Informatik-Professor der Universität des Saarlandes, klingt fantastisch.

Der Wissenschaftler will einen Tastsinn in VR mit hauchdünnen elektronischer Folien erreichen, die wie Abzieh-Tattoos auf den Körper aufgetragen werden können. Um die Technologie, die er mit seiner Forschungsgruppe im Rahmen des EU-geförderten Projektes „InteractiveSkin“ entwickelt hat, näher zur Marktreife zu bringen, wird Steimle nun erneut durch den Europäischen Forschungsrat (ERC) mit einem so genannten „Proof-of-Concept-Grant“ unterstützt.

Virtual- und Augmented-Reality (VR und AR) bewegen sich immer mehr hinaus aus dem Nischen-Markt hin zum Massenprodukt. Die meisten Anwendungen der erweiterten Realität haben eines gemeinsam: Sie sprechen nur oder hauptsächlich den Sehsinn an. „Der Tastsinn bleibt in der Regel außen vor, obwohl er ein ganz entscheidender Faktor dabei ist, wie wir unsere Welt wahrnehmen“, erklärt der Informatik-Professor Jürgen Steimle, der die Forschungsgruppe zu Mensch-Computer-Interaktion an der Universität des Saarlandes am Saarland Informatics Campus leitet. Den Tastsinn zentral in virtuelle Welten zu integrieren, würde erheblich dazu beitragen, dass Nutzer diese immersiv erleben, so der Professor.

Bedingt geht das nämlich schon heute: Eine verbreitete Möglichkeit sind in den Händen gehaltene Controller, die durch bewegliche Teile wie Motoren haptische Eindrücke erzeugen, oder auch Handschuhe, in die ebenfalls vibrierende und anderweitig bewegliche Elemente eingebaut sind. Hier bessere Ansätze zu entwickeln, hat sich Professor Jürgen Steimle zur Aufgabe gemacht.

Herausgekommen ist dabei das Projekt „Tacttoo“: Der Name ist ein Kofferwort aus „taktil“, also den Tastsinn betreffend, und „Tattoo“ und beschreibt somit prägnant, was in dem Projekt entwickelt wurde: Eine hauchdünne, nur 35 Mikrometer (tausendstel Millimeter) dicke elektronische Folie, die wie ein Abzieh-Tattoo auf die Haut aufgetragen werden kann und dort nur durch elektrische Reize, ganz ohne bewegliche Teile, den Tastsinn stimulieren kann. Weil die Folie so dünn ist, können Gegenstände noch wie zuvor wahrgenommen und ertastet werden. Das eröffnet neue Anwendungsmöglichkeiten: Wie auch mit anderen Methoden können durch Tacttoo völlig neue haptische Erfahrungen für rein digitale Objekte erzeugt werden (wenngleich auch wesentlich realistischer dank höherer Auflösung), zusätzlich können aber auch reale Objekte um andere Sinneseindrücke erweitert werden. Ich finde die Idee grandios.

So könnte die Technik nach Angaben der Uni beispielweise beim Produktdesign zum Einsatz kommen: Mithilfe von Augmented Reality und eines physischen Prototyps könnte die Haptik verschiedener Materialien ausprobiert werden, bevor es in die Produktion geht. Oder im Falle eines elektrischen Gerätes könnten verschiedene Positionierungen von Knöpfen und anderen physischen Bedienelementen erprobt werden, indem man diese als künstliche haptische Sinneseindrücke simuliert. Auch in der Ausbildung, beispielsweise von Chirurgen, wäre die Technik denkbar. Denn bereits heute werden hier Virtual-Reality-Umgebungen eingesetzt. Diese könnten mithilfe von Steimles Methode um realistisches haptisches Feedback erweitert werden, ohne die nötige Feinmotorik der auszubildenden Mediziner einzuschränken.

Google-Auszeichnung: Computer lernen sprachlich logische Zusammenhänge in Texten

9. August 2013

In meinem Seminaren wird oft diskutiert, wann Computer denn endlich die menschliche Sprache verstehen. Diskussionsgrundlage sind Ausschnitte aus der TV-Serie Star Trek, in denen die Mannschaft mit dem Bordcomputer sprechen und der Rechner sinnvolle Antworten gibt, So weit entfernt sind wir von der Science Fiction-Welt nicht.

Wäre das nicht schön, wenn Computer die Sprache wirklich verstehen würden?

Wäre das nicht schön, wenn Computer die Sprache wirklich verstehen würden?

Programme, die unsere Sprache verstehen und sinnvolle Verknüpfungen in Texten finden – daran arbeiten Saarbrücker Wissenschaftler wie Ivan Titov. Der Informatiker entwickelt derzeit ein Verfahren, mit dem Rechner erlernen sollen, sprachlich logische Zusammenhänge in Texten zu finden. So könnte es künftig zum Beispiel möglich sein, einen Computer gezielt über einen Text auszufragen. Der Rechner analysiert darauf den Inhalt und gibt dem Nutzer die richtigen Antworten. Der Software-Konzern Google hat den Saarbrücker Informatiker nun mit dem 140.000 Dollar dotierten Google Focused Research Award ausgezeichnet.

Jeder Student, der an einer Hausarbeit sitzt, kennt das Problem: Bevor man überhaupt etwas zu Papier bringt, muss man sich meist durch zahlreiche Texte und seitenlange Abhandlungen durchkämpfen. Praktisch wäre hier ein Computerprogramm, das die Textmenge schnell durcharbeitet, eine sinnvolle Zusammenfassung der Inhalte liefert oder gar Fragen dazu beantwortet.

Daran arbeiten derzeit Saarbrücker Wissenschaftler um Ivan Titov, die gleichzeitig an der Universität von Amsterdam forschen. Titov befasst sich damit, wie Rechner lernen können, Bedeutung und Zusammenhänge von Wörtern in Sätzen und Texten zu verstehen. „Das von uns entwickelte Modell simuliert, wie Menschen Texte verfassen. Unsere Computer lassen wir das in umgekehrter Reihenfolge abarbeiten, um Texte zu verstehen: Die Rechner werden dabei die Bedeutung des Textes oder sogar die Absichten des Autors erkennen“, erläutert der promovierte Informatiker. Der Clou: Titov und seine Arbeitsgruppe geben dieses Modell und die darin zusammengefassten Regeln nicht vor, stattdessen definieren Millionen von Sätzen diese für sie. Diese analysieren sie in umfangreichen Text-Sammlungen wie Wikipedia mit speziellen Algorithmen auf rund 100 Computern.

Mit den erarbeiteten Ergebnissen sollen Computer auch nicht offensichtliche Beziehungen zwischen Wörtern und Sätzen erkennen. Die Rechner sollen so zum Beispiel Wörter und ihre Bedeutungen im Kontext erkennen können, wie der folgende Fall zeigt: Bei den Sätzen „John hat gerade seinen Abschluss an der Saar-Uni gemacht. Er arbeitet nun für Google“ ist selbst für einen Computer klar, dass John und Saar-Uni über die Beziehung „hat Abschluss gemacht“ und John, Google über „arbeitet für“ zusammengehören. Doch das Modell der Saarbrücker Informatiker kann auch erkennen, dass John an der Universität des Saarlandes studierte und dort sehr wahrscheinlich in der Fachrichtung Informatik. Verstehen die Computer diese Muster in der menschlichen Sprache, wollen die Wissenschaftler dieses Verfahren in einem nächsten Schritt anwenden, um sie Fragen zu kleineren Texten beantworten zu lassen oder diese automatisch zusammenzufassen.

Neben Ivan Titov erhält auch Hans Uszkoreit einen mit 220.000 US-Dollar dotierten Google Focused Award. Uszkoreit ist Professor für Computerlinguistik an der Saar-Uni und wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Er arbeitet daran, sprachliche Zusammenhänge in großen Wissensbanken herauszufiltern.

Mit dem „Google Focused Research Award“ fördert der Suchmaschinenanbieter Google Forschungsgebiete, die für das Unternehmen selbst und für die Informatik von großem Interesse sind. Die Preisträger erhalten freien Zugang zu Werkzeugen und Technologien von Google.

 

Android: SRT Appguard verhindert nach Hause telefonieren

28. April 2013

In meinem Seminaren diskutieren Teilnehmer immer wieder über die Sicherheitsproblematik. Viele fühlen sich unwohl, wenn Google & Co alle ihre Schritte tracken und sie so zum gläsernen Bürger werden. Die Bürger wollen nicht ausspioniert werden. Oftmals telefonieren viele Anwendungen am Smartphone ungefragt nach Hause. Der User weiß nichts davon. Wer ein Android-Smartphone oder -Tablet besitzt und Angst hat, dem empfehle ich die Installation der Anti-Spionage-App „SRT Appguard“, die von der Uni Saarbrücken kommt. Scheinbar empfehle nicht nur ich diese App, denn soeben wurde nach Uniangaben die App mehr als eine Millionen Mal geladen.

pb_appguardPro

„Wir waren uns sicher, dass eine solche App notwendig ist. Aber ihr Erfolg hat uns selbst überrascht“, erklärt Michael Backes, Professor für Informationssicherheit und Kryptografie an der Universität des Saarlandes und wissenschaftlicher Direktor am Center for IT-Security, Privacy and Accountability (CISPA). Im vergangenen Juli hat das vom ihm gegründete Unternehmen Backes SRT die App zum kostenlosen Herunterladen freigegeben. Mit „SRT Appguard“ können Anwender installierte Apps überwachen und deren Berechtigungen für den Zugriff auf Kontaktdaten und Internet jederzeit zurücknehmen. Sie benötigen dafür keine weitreichenden Zugriffsrechte, so genannte Root-Rechte. „Genau das ist bisher bei Android-Apps nicht möglich gewesen“, erklärt Backes.
Was die Sicherheits-App möglich machte, fand schnell Gefallen bei den Anwendern. Kontinuierlich stiegen die Downloadzahlen auf den Softwareverzeichnissen der IT-Portale „heise.de“ und „chip.de“. Innerhalb von sechs Monaten luden 91.536 Personen das Mini-Programm herunter und bugsierten es so auf Platz 11 in der Kategorie „Die 100 beliebtesten Apps aus 2012“. „Addieren wir die Zahlen von Chip mit den Downloads von unserer Firmenseite, wissen wir, dass SRT Appguard inzwischen mehr als eine Million mal heruntergeladen wurde“, erklärt Backes. Inzwischen steht bei Chip.de der Zähler auf 178.272 und 93 Prozent der Anwender bewerten sie mit emporgestreckten Daumen. Auch auf der DVD, die rund 230.000 Heften der diesjährigen Januar-Ausgabe beilag, fand sich die App wieder.
Nun bietet die Ausgründung auch eine kommerzielle Version der App an. Seit Anfang April ist „SRT Appguard Pro“ im Internet-Verkaufsportal „Google Play“ für 3,99 Euro zu finden. Alternativ kann die App auf der Plattform „Androidpit“ erworben werden. In wenigen Tagen werden die Saarbrücker Informatiker die App zum gleichen Preis in „Samsung Apps“ anbieten. Der südkoreanische Konzern hatte Backes SRT dazu aufgefordert. Gegenüber der kostenlosen Version hat sie sich insbesondere in der Bedienung verbessert. Alle überwachten Apps können nun auf einen Blick betrachtet werden. Ein „Risk Score“ zeigt grafisch für jede App an, wie gefährlich deren aktuelle Rechte-Konfiguration ist. „Auf diese Weise erleichtern wir es den Nutzern noch mehr, die potenzielle Bedrohung auf ihrem Smartphone oder Tablet-PC einzuschätzen“, erklärt Philipp von Styp-Rekowsky, Doktorand von Professor Backes und Geschäftsführer der Ausgründung. Darüber hinaus läuft die App wesentlich schneller und arbeitet problemlos ab Android-Version 2.3. Auch die Aktualisierungen von den installierten Apps funktionieren nun. Bei der ersten Version war das bisher nicht möglich.

Technischer Hintergrund
Im Gegensatz zur ersten Versionen des SRT Appguard greift die Applikation nicht mehr in den Code der auf dem Smartphone installierten, zu überwachenden App ein. Stattdessen wird eine spezielle Programm-Bibliothek nachgeladen. Wird die jeweilige App in der sogenannten Dalvik Virtual Machine ausgeführt, überwacht Appguard die Aufrufe von sicherheitskritischen Funktionen wie Verbindungsaufbau mit dem Internet oder Auslesen des Adressbuches.

Software findet Musik für Vertonung von Fotoserien und Videos

24. Juni 2011

Es ist fast wie Magie und es haute mich aus den Socken. Forscher der Uni Saarland haben eine Software entwickelt, die passende Musik für die Vertonung von Fotoserien und Videos findet.

Das löst das Musikproblem vieler Amateure. Aus dem Urlaub bringt jeder gerne schöne Fotos von Städten, Sandstränden oder Menschen mit. Wer diese dann mit Musik untermalt dem Freundeskreis zeigen will, sucht oft stundenlang nach den dazu passenden Musikstücken. Diese Aufgabe übernimmt der Computer jetzt völlig eigenständig. Informatiker des Saarbrücker Exzellenzclusters haben dafür eine Software entwickelt, die automatisch für Fotos und Videoausschnitte die geeignete Musik findet. Mit lizenzfreier Musik kann man das Verfahren mit Namen „Picasso“ schon testen. In einigen Wochen wird es außerdem eine Anwendung für das iPhone geben, die als Quelle die auf dem Handy gespeicherte Lieblingsmusik nutzt.  Als Lizenzfreie Musik empfehle ich hier ausdrücklich die Audiotracks von Dosch Audio. Hier kann man die Forschungsergebnisse der Informatiker einmal ausprobieren.

Filmer und 3D-Artist wissen: Passt die Musik zu den Bildern, ist die halbe Miete bereits gemacht. Musik und Bild gehören einfach zusammen. Zum romantischen Foto vom Palmenstrand könnten schmachtvolle Liebeslieder passen, eine Kanufahrt durch wilde Schluchten würde man eher mit temperamentvollen Werken inszenieren. „Filmregisseure achten in der Regel sehr genau darauf, welche Melodie auf eine Szene passt. Damit auch der Computer selbstständig die geeignete Musik für eine Bilderserie findet, haben wir einige Dutzend Filme angeschaut und ihre Soundtracks ausgewertet. Daraus entstand eine Datenbank mit mehreren tausend Bildern und der dazu passenden Musik“, sagt Sebastian Michel, Leiter einer Forschergruppe am Exzellenzcluster der Saar-Uni.

Über ein ausgeklügeltes Rechenverfahren gleicht der Computer diese Bilder mit den Urlaubsfotos ab. Anhand des gespeicherten Soundtracks begibt sich die Picasso-Software dann auf die Suche nach  Musikstücken, die mit hoher Wahrscheinlichkeit die Atmosphäre der Aufnahme passend untermalen. „Die Trefferquote unseres Systems ist erstaunlich hoch. Allerdings kann es häufig vorkommen, dass nicht gleich der erste Treffer perfekt passt. Fehler entstehen meist dann, wenn der Betrachter mit dem Foto verschiedene Gefühle verbindet. Ein einsames Haus zum Beispiel kann der eine mit romantischen Abenden verbinden, der andere denkt nur an gespenstische Nächte“, erläutert der Informatiker. Picasso schlage daher immer mehrere Musikstücke vor, aus denen der Benutzer dann das passendste auswählen kann.

Der Saarbrücker Wissenschaftler will gemeinsam mit seinem Doktoranden Aleksandar Stupar die Software weiter verbessern, damit sie auch für Videosequenzen und die Untermalung von Hörspielen genutzt werden kann. „Wir haben dafür bereits Regiebücher von Filmen ausgewertet und die Szenenbeschreibungen mit der Filmmusik abgeglichen. Auf dieser Datenbasis kann man auch für gesprochene Texte eine geeignete Hintergrundmusik recherchieren“, meint Sebastian Michel. In den kommenden Wochen werden die Informatiker außerdem eine Anwendung für das iPhone programmieren, mit der jeder seine Urlaubsfotos mit Musik untermalen kann, die in der eigenen Mediathek gespeichert ist. „Auf unserer Webseite bieten wir die Picasso-Software außerdem zum Ausprobieren mit lizenzfreien Musikstücken an. Das schränkt die Bandbreite im Musikgeschmack derzeit noch ein. Wir können uns aber vorstellen, dass das Computerprogramm auch für kommerzielle Musikanbieter von Interesse ist“, sagt Michel. Die Wissenschaftler werden das Verfahren im Juli auf einer der weltweit wichtigsten Konferenzen für Informationssuche und Wissensdatenbanken, der ACM SIGIR 2011 in Beijing (China) vorstellen.

Sebastian Michel

Sebastian Michel

leitet eine Forschungsgruppe am Saarbrücker Exzellenzcluster „Multimodal Computing and Interaction“ und forscht auch am Max-Planck-Institut für Informatik. Der Exzellenzcluster wird seit 2007 im Rahmen der Exzellenzinitiative von Bund und Ländern gefördert. Die Wissenschaftler erforschen dort, wie man multimodale Informationen wie Texte, Audiodateien, Videos und Bilder noch effizienter organisieren, verstehen und durchsuchen kann. Neben der Universität des Saarlandes sind am Exzellenzcluster das Max-Planck-Institut für Informatik, das Max-Planck-Institut für Softwaresysteme und das Deutsche Forschungszentrum für Künstliche Intelligenz beteiligt. Ich finde diese Technik kann der volle Hammer werden.

3D-Kino beschleunigt die Entwicklung von Medikamenten

17. April 2010

Mit Ballview kann man in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen.

Mit Ballview kann man in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen.

Wer für ein Türschloss den passenden Schlüssel sucht, muss eine räumliche Vorstellung davon haben. Ähnlich geht es Forschern, die Formen und Strukturen von Molekülen begreifen müssen, um neue Medikamente zu entwerfen. Bioinformatiker in Saarbrücken und Tübingen haben dafür die frei verfügbare Software Ballview entwickelt. Mit ihrer Hilfe kann man jetzt wie in einem 3D-Kino in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen. Außerdem haben die Wissenschaftler ermöglicht, dass internationale Forscher-gruppen über das neue 3D-Internet im Medikamentendesign zusammenarbeiten können.
Mit der Software Ballview können komplizierte Moleküle und deren physikalische Eigenschaften, aber auch umfangreiche biologische Systeme wie etwa Viren berechnet und visualisiert werden. Damit Forscher sich noch besser die räumlichen Strukturen der Moleküle vorstellen können, werden diese jetzt auch stereoskopisch dargestellt. Dabei werden zwei Bilder an einer Leinwand so übereinander gelegt, dass der Betrachter sie durch eine 3D-Brille mit enormer Tiefenwahrnehmung sehen kann. Er erhält dadurch einen äußerst realistischen räumlichen Eindruck und kann die Proteine oder Viren direkt an der Leinwand verschieben, in einzelne Bereiche hineinzoomen und diese dann bearbeiten. Dabei kommen moderne Eingabegeräte wie die 3D-Spacemouse zum Einsatz, mit der man in virtuellen Umgebungen Objekte bewegen kann. Auch das so genannte Headtracking, das die Kopfbewegungen des Anwenders über Infrarotsensoren erfasst, hilft bei der Steuerung.
Dr. Andreas Hildebrandt leitet eine Forschergruppe am Zentrum für Bioinformatik und dem Intel Visual Computing Institute der Universität des Saarlandes. Sein Team kombinierte die neue Visualisierungstechnik mit dem Ray-Tracing-Verfahren, das vom Computergraphik-Team um Professor Philipp Slusallek zur Marktreife gebracht wurde. Damit können die räumlichen Strukturen der Moleküle auf sehr realistische Weise mit Licht, Schatten und Spiegelungen dargestellt werden. Diese erweiterte Ballview-Software, die bisher nur an zweidimensionalen Bildschirmen zum Einsatz kam, kann jetzt auch im 3D-Kino an der stereoskopischen Leinwand betrachtet werden.
Da im Medikamentendesign viele Forschergruppen auf der ganzen Welt zusammenarbeiten, haben die Saarbrücker Informatiker außerdem die Möglichkeit geschaffen, dreidimensionale Darstellungen über das Internet auszutauschen und anzuzeigen. Die dafür notwendige 3-D-Technologie für das Internet, genannt „XML3D“, wurde von einem Forscherteam um Professor Philipp Slusallek am Intel Visual Computing Institute der Universität des Saarlandes und dem Deutschen Forschungszentrum für Künstliche Intelligenz entwickelt. Durch eine Erweiterung von gewöhnlichen Webbrowser können damit komplexe dreidimensionale Graphiken verarbeitet werden. Diese neue Web-Technologie wurde jetzt auch in die Ballview-Software integriert. So können Wissenschaftler künftig über das Internet Moleküle auf dreidimensionale Weise betrachten und gemeinsam am Bildschirm bearbeiten.
Ballview ist im Rahmen eines Forschungsprojektes am Max-Planck-Institut für Informatik in Saarbrücken entwickelt worden. Heute wird das Open-Source-Programm von drei Forscherteams an den Zentren für Bioinformatik in Saarbrücken und Tübingen weiter entwickelt. Beteiligt sind unter anderem Dr. Andreas Hildebrandt, Professor Hans-Peter Lenhof (Universität des Saarlandes) Professor Oliver Kohlbacher (Universität Tübingen) und Anna Dehof (Universität des Saarlandes). Die Raytracing-Bibliothek RTfact wird durch das Team von Professor Philipp Slusallek entwickelt. Beteiligt sind unter anderem Iliyan Georgiev und Lukas Marsalek von der Universität des Saarlandes.