Posts Tagged ‘Deutschen Forschungszentrum für Künstliche Intelligenz’

Medienkompetenz: Sprachforscher wollen Wahrheitsgehalt von Infos im Netz sichtbar machen

13. Februar 2014
Wahr oder falsch? Brennt das London eye?

Wahr oder falsch? Brennt das London eye?

Ist eine Information im Internet vertrauenswürdig? Im Moment verbringe ich einen Teil meiner Schulung mit Medienkompetenz. Zur Vorbereitung von Referaten u.a. wird in der Regel auf Wikipedia und Co gegangen und kopiert. Doch ist die Info überhaupt wahr und kann ich mich auf dem Informationsgehalt verlassen?

Damit diese Frage künftig beantwortet werden kann, arbeitet der Saarbrücker Sprachtechnologe Thierry Declerck seit Anfang des Jahres im Rahmen des Projekts „Pheme“ mit Wissenschaftlern verschiedener Fachdisziplinen aus England, Österreich, der Schweiz, Bulgarien, Spanien und Kenia zusammen. Ziel der Forscher ist es, ein automatisches Analyseverfahren zu entwickeln, das dem Internetnutzer schnell und verlässlich mitteilt, ob er einer gefundenen Information trauen kann oder eher nicht. Die Ergebnisse werden in zwei Fallstudien getestet, Testgebiete sind Medizinische Informationssysteme und digitaler Journalismus. Das Projekt ist auf drei Jahre angelegt, hat ein Gesamtvolumen von rund 4,3 Millionen Euro und wird von der EU mit rund drei Millionen Euro gefördert. Ich finde diese Forschung super interessant.

Der Saarbrücker Sprachtechnologe Thierry Declerck

Der Saarbrücker Sprachtechnologe Thierry Declerck

„Das Wahrzeichen Londons, das London Eye, brennt.“ Ein Satz wie dieser verbreitet sich über Facebook, Twitter und Co. explosionsartig. Aber stimmt er auch? Die Folgen solcher Falschmeldungen sind unberechenbar – je nach Brisanz des Inhalts ist von Gewaltexzessen bis hin zum Einbruch von Aktienmärkten alles möglich. Die Frage der Vertrauenswürdigkeit von Informationen im Netz stellt sich daher immer dringlicher. Auch jeder, der schon nach Krankheitssymptomen gesucht hat, kennt das Problem. Aber wie misst man den Wahrheitsgehalt von Online-Informationen? Und das schnell genug? Gemeinsam mit seinen internationalen Forschungspartnern will der Sprachtechnologe Thierry Declerck hierfür Antworten finden. Die Wissenschaftler arbeiten an einer robusten Methode, die jeweils zuverlässig angibt, wie vertrauenswürdig eine Information ist. „Wir konzentrieren uns dabei auf vier Arten problematischer Informationen: die Spekulation, die kontroverse Diskussion, die Fehlinformation und die gezielte Verbreitung falscher oder irreführender Tatsachen“, erklärt er.

Für mich klingt das alles nach Science Fiction, aber wir sind wohl nicht weit von einer Lösung entfernt. Eine der größten Herausforderungen hierbei ist die Datenflut. „Mehrere tausend Textnachrichten werden jede Sekunde neu eingestellt. Daher wenden wir Methoden an, um große Datenmengen zu verarbeiten, so genannte Big Data-Analysen“, sagt Declerck, der in der Computerlinguistik der Saar-Universität am Lehrstuhl von Professor Hans Uszkoreit und am Deutschen Forschungszentrum für Künstliche Intelligenz forscht. „Wir verbinden statistische Methoden mit präzisen sprachwissenschaftlichen Analysen. Die Lösung liegt in der Kombination der verschiedenen Verfahren. Im Projekt arbeiten hierzu Wissenschaftler unterschiedlicher Ausrichtung zusammen“, erläutert er. Computerlinguistische Sprachanalysen werden verknüpft mit Informationen aus sozialen Netzwerken, Inhalte werden mit zuverlässigen Datenbanken abgeglichen, statistisch geprüft und mittels Grafiken ausgewertet. Die Aussage wird gleichsam durch verschiedenste Filter geschickt; am Ende steht eine bestimmte Wahrscheinlichkeit, die für oder gegen die Wahrheit spricht.

Declercks Aufgabe im Projekt ist die Sprachtechnologie. Er baut dabei auf Vorarbeiten im EU-Projekt „TrendMiner“ auf: „Wir haben Methoden entwickelt, die es möglich machen, aus der Datenflut Themen und Trends herauszufischen, die im Internet aktuell diskutiert werden. So lassen sich etwa Stimmungen erkennen.“ Mit Hilfe eines komplexen Systems aus Sprachverarbeitungs-Modulen will der Forscher jetzt die Informationen weiter auswerten, sie von ihrer Bedeutung und von Besonderheiten im Satzbau her erfassen. „Zum Beispiel wollen wir Satzstrukturen, die Zweifel am Wahrheitsgehalt einer Aussage ausdrücken, sowie bestimmte Schlüsselwörter wie ´scheinbar` oder ´nicht` automatisch erkennen“, sagt Declerck. Im Ausgangsbeispiel mit dem London Eye würde das System die Häufung von Zweifel wie „Stahl brennt doch gar nicht“ oder „Ich bin am London Eye, hier brennt nichts“ in seine Wahrheits-Analyse einbeziehen. Hierzu entwickelt Declerck derzeit mathematische Algorithmen: In Zahlen übersetzt, lassen sich Muster und Strukturen erkennen – die Informationen werden berechenbar.

Besonderer Knackpunkt für die Forscher wird die Unbeständigkeit der Wahrheit in unserer realen Welt sein. Was heute wahr ist, kann morgen schon falsch sein: „Der Faktor Zeit spielt eine große Rolle. Zum Beispiel ist eine Aussage der Form ´X ist Präsident des Landes Y` nur so lange wahr, wie der genannte Präsident auch tatsächlich amtiert. Unser System muss sich also ständig anpassen können“, erklärt er. Daher verknüpft er die zu überprüfenden Informationen mit den entsprechenden Daten in zuverlässigen Quellen, z.B. Online-Nachschlagewerken wie DBpedia. „Hinter den Texten solcher Datenbanken liegen verschlüsselte, maschinenlesbare Informationen. Wir nutzen diese derzeit sozusagen als Spielwiese, um Gesetzmäßigkeiten zu finden und neue leistungsfähige Algorithmen zu entwickeln“, sagt der Sprachtechnologe.

Die EU fördert das Projekt „Pheme“ als „Specific Targeted Research Project (STREP)“. Partner im Projekt sind in England die University of Sheffield (Koordinator), das Kings College London, sowie die University of Warwick, in Österreich die Modul Universität Wien, in der Schweiz swissinfo.ch, in Bulgarien Ontotext, in Spanien ATOS Spain SAU, in Kenia Ushahidi und in Deutschland die Universität des Saarlandes.

Google-Auszeichnung: Computer lernen sprachlich logische Zusammenhänge in Texten

9. August 2013

In meinem Seminaren wird oft diskutiert, wann Computer denn endlich die menschliche Sprache verstehen. Diskussionsgrundlage sind Ausschnitte aus der TV-Serie Star Trek, in denen die Mannschaft mit dem Bordcomputer sprechen und der Rechner sinnvolle Antworten gibt, So weit entfernt sind wir von der Science Fiction-Welt nicht.

Wäre das nicht schön, wenn Computer die Sprache wirklich verstehen würden?

Wäre das nicht schön, wenn Computer die Sprache wirklich verstehen würden?

Programme, die unsere Sprache verstehen und sinnvolle Verknüpfungen in Texten finden – daran arbeiten Saarbrücker Wissenschaftler wie Ivan Titov. Der Informatiker entwickelt derzeit ein Verfahren, mit dem Rechner erlernen sollen, sprachlich logische Zusammenhänge in Texten zu finden. So könnte es künftig zum Beispiel möglich sein, einen Computer gezielt über einen Text auszufragen. Der Rechner analysiert darauf den Inhalt und gibt dem Nutzer die richtigen Antworten. Der Software-Konzern Google hat den Saarbrücker Informatiker nun mit dem 140.000 Dollar dotierten Google Focused Research Award ausgezeichnet.

Jeder Student, der an einer Hausarbeit sitzt, kennt das Problem: Bevor man überhaupt etwas zu Papier bringt, muss man sich meist durch zahlreiche Texte und seitenlange Abhandlungen durchkämpfen. Praktisch wäre hier ein Computerprogramm, das die Textmenge schnell durcharbeitet, eine sinnvolle Zusammenfassung der Inhalte liefert oder gar Fragen dazu beantwortet.

Daran arbeiten derzeit Saarbrücker Wissenschaftler um Ivan Titov, die gleichzeitig an der Universität von Amsterdam forschen. Titov befasst sich damit, wie Rechner lernen können, Bedeutung und Zusammenhänge von Wörtern in Sätzen und Texten zu verstehen. „Das von uns entwickelte Modell simuliert, wie Menschen Texte verfassen. Unsere Computer lassen wir das in umgekehrter Reihenfolge abarbeiten, um Texte zu verstehen: Die Rechner werden dabei die Bedeutung des Textes oder sogar die Absichten des Autors erkennen“, erläutert der promovierte Informatiker. Der Clou: Titov und seine Arbeitsgruppe geben dieses Modell und die darin zusammengefassten Regeln nicht vor, stattdessen definieren Millionen von Sätzen diese für sie. Diese analysieren sie in umfangreichen Text-Sammlungen wie Wikipedia mit speziellen Algorithmen auf rund 100 Computern.

Mit den erarbeiteten Ergebnissen sollen Computer auch nicht offensichtliche Beziehungen zwischen Wörtern und Sätzen erkennen. Die Rechner sollen so zum Beispiel Wörter und ihre Bedeutungen im Kontext erkennen können, wie der folgende Fall zeigt: Bei den Sätzen „John hat gerade seinen Abschluss an der Saar-Uni gemacht. Er arbeitet nun für Google“ ist selbst für einen Computer klar, dass John und Saar-Uni über die Beziehung „hat Abschluss gemacht“ und John, Google über „arbeitet für“ zusammengehören. Doch das Modell der Saarbrücker Informatiker kann auch erkennen, dass John an der Universität des Saarlandes studierte und dort sehr wahrscheinlich in der Fachrichtung Informatik. Verstehen die Computer diese Muster in der menschlichen Sprache, wollen die Wissenschaftler dieses Verfahren in einem nächsten Schritt anwenden, um sie Fragen zu kleineren Texten beantworten zu lassen oder diese automatisch zusammenzufassen.

Neben Ivan Titov erhält auch Hans Uszkoreit einen mit 220.000 US-Dollar dotierten Google Focused Award. Uszkoreit ist Professor für Computerlinguistik an der Saar-Uni und wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Er arbeitet daran, sprachliche Zusammenhänge in großen Wissensbanken herauszufiltern.

Mit dem „Google Focused Research Award“ fördert der Suchmaschinenanbieter Google Forschungsgebiete, die für das Unternehmen selbst und für die Informatik von großem Interesse sind. Die Preisträger erhalten freien Zugang zu Werkzeugen und Technologien von Google.

 

3D-Kino beschleunigt die Entwicklung von Medikamenten

17. April 2010
Mit Ballview kann man in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen.

Mit Ballview kann man in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen.

Wer für ein Türschloss den passenden Schlüssel sucht, muss eine räumliche Vorstellung davon haben. Ähnlich geht es Forschern, die Formen und Strukturen von Molekülen begreifen müssen, um neue Medikamente zu entwerfen. Bioinformatiker in Saarbrücken und Tübingen haben dafür die frei verfügbare Software Ballview entwickelt. Mit ihrer Hilfe kann man jetzt wie in einem 3D-Kino in die virtuelle Welt von Wirkstoff-Molekülen, DNA und Viren eintauchen. Außerdem haben die Wissenschaftler ermöglicht, dass internationale Forscher-gruppen über das neue 3D-Internet im Medikamentendesign zusammenarbeiten können.
Mit der Software Ballview können komplizierte Moleküle und deren physikalische Eigenschaften, aber auch umfangreiche biologische Systeme wie etwa Viren berechnet und visualisiert werden. Damit Forscher sich noch besser die räumlichen Strukturen der Moleküle vorstellen können, werden diese jetzt auch stereoskopisch dargestellt. Dabei werden zwei Bilder an einer Leinwand so übereinander gelegt, dass der Betrachter sie durch eine 3D-Brille mit enormer Tiefenwahrnehmung sehen kann. Er erhält dadurch einen äußerst realistischen räumlichen Eindruck und kann die Proteine oder Viren direkt an der Leinwand verschieben, in einzelne Bereiche hineinzoomen und diese dann bearbeiten. Dabei kommen moderne Eingabegeräte wie die 3D-Spacemouse zum Einsatz, mit der man in virtuellen Umgebungen Objekte bewegen kann. Auch das so genannte Headtracking, das die Kopfbewegungen des Anwenders über Infrarotsensoren erfasst, hilft bei der Steuerung.
Dr. Andreas Hildebrandt leitet eine Forschergruppe am Zentrum für Bioinformatik und dem Intel Visual Computing Institute der Universität des Saarlandes. Sein Team kombinierte die neue Visualisierungstechnik mit dem Ray-Tracing-Verfahren, das vom Computergraphik-Team um Professor Philipp Slusallek zur Marktreife gebracht wurde. Damit können die räumlichen Strukturen der Moleküle auf sehr realistische Weise mit Licht, Schatten und Spiegelungen dargestellt werden. Diese erweiterte Ballview-Software, die bisher nur an zweidimensionalen Bildschirmen zum Einsatz kam, kann jetzt auch im 3D-Kino an der stereoskopischen Leinwand betrachtet werden.
Da im Medikamentendesign viele Forschergruppen auf der ganzen Welt zusammenarbeiten, haben die Saarbrücker Informatiker außerdem die Möglichkeit geschaffen, dreidimensionale Darstellungen über das Internet auszutauschen und anzuzeigen. Die dafür notwendige 3-D-Technologie für das Internet, genannt „XML3D“, wurde von einem Forscherteam um Professor Philipp Slusallek am Intel Visual Computing Institute der Universität des Saarlandes und dem Deutschen Forschungszentrum für Künstliche Intelligenz entwickelt. Durch eine Erweiterung von gewöhnlichen Webbrowser können damit komplexe dreidimensionale Graphiken verarbeitet werden. Diese neue Web-Technologie wurde jetzt auch in die Ballview-Software integriert. So können Wissenschaftler künftig über das Internet Moleküle auf dreidimensionale Weise betrachten und gemeinsam am Bildschirm bearbeiten.
Ballview ist im Rahmen eines Forschungsprojektes am Max-Planck-Institut für Informatik in Saarbrücken entwickelt worden. Heute wird das Open-Source-Programm von drei Forscherteams an den Zentren für Bioinformatik in Saarbrücken und Tübingen weiter entwickelt. Beteiligt sind unter anderem Dr. Andreas Hildebrandt, Professor Hans-Peter Lenhof (Universität des Saarlandes) Professor Oliver Kohlbacher (Universität Tübingen) und Anna Dehof (Universität des Saarlandes). Die Raytracing-Bibliothek RTfact wird durch das Team von Professor Philipp Slusallek entwickelt. Beteiligt sind unter anderem Iliyan Georgiev und Lukas Marsalek von der Universität des Saarlandes.