Posts Tagged ‘Hans Uszkoreit’

Medienkompetenz: Sprachforscher wollen Wahrheitsgehalt von Infos im Netz sichtbar machen

13. Februar 2014
Wahr oder falsch? Brennt das London eye?

Wahr oder falsch? Brennt das London eye?

Ist eine Information im Internet vertrauenswürdig? Im Moment verbringe ich einen Teil meiner Schulung mit Medienkompetenz. Zur Vorbereitung von Referaten u.a. wird in der Regel auf Wikipedia und Co gegangen und kopiert. Doch ist die Info überhaupt wahr und kann ich mich auf dem Informationsgehalt verlassen?

Damit diese Frage künftig beantwortet werden kann, arbeitet der Saarbrücker Sprachtechnologe Thierry Declerck seit Anfang des Jahres im Rahmen des Projekts „Pheme“ mit Wissenschaftlern verschiedener Fachdisziplinen aus England, Österreich, der Schweiz, Bulgarien, Spanien und Kenia zusammen. Ziel der Forscher ist es, ein automatisches Analyseverfahren zu entwickeln, das dem Internetnutzer schnell und verlässlich mitteilt, ob er einer gefundenen Information trauen kann oder eher nicht. Die Ergebnisse werden in zwei Fallstudien getestet, Testgebiete sind Medizinische Informationssysteme und digitaler Journalismus. Das Projekt ist auf drei Jahre angelegt, hat ein Gesamtvolumen von rund 4,3 Millionen Euro und wird von der EU mit rund drei Millionen Euro gefördert. Ich finde diese Forschung super interessant.

Der Saarbrücker Sprachtechnologe Thierry Declerck

Der Saarbrücker Sprachtechnologe Thierry Declerck

„Das Wahrzeichen Londons, das London Eye, brennt.“ Ein Satz wie dieser verbreitet sich über Facebook, Twitter und Co. explosionsartig. Aber stimmt er auch? Die Folgen solcher Falschmeldungen sind unberechenbar – je nach Brisanz des Inhalts ist von Gewaltexzessen bis hin zum Einbruch von Aktienmärkten alles möglich. Die Frage der Vertrauenswürdigkeit von Informationen im Netz stellt sich daher immer dringlicher. Auch jeder, der schon nach Krankheitssymptomen gesucht hat, kennt das Problem. Aber wie misst man den Wahrheitsgehalt von Online-Informationen? Und das schnell genug? Gemeinsam mit seinen internationalen Forschungspartnern will der Sprachtechnologe Thierry Declerck hierfür Antworten finden. Die Wissenschaftler arbeiten an einer robusten Methode, die jeweils zuverlässig angibt, wie vertrauenswürdig eine Information ist. „Wir konzentrieren uns dabei auf vier Arten problematischer Informationen: die Spekulation, die kontroverse Diskussion, die Fehlinformation und die gezielte Verbreitung falscher oder irreführender Tatsachen“, erklärt er.

Für mich klingt das alles nach Science Fiction, aber wir sind wohl nicht weit von einer Lösung entfernt. Eine der größten Herausforderungen hierbei ist die Datenflut. „Mehrere tausend Textnachrichten werden jede Sekunde neu eingestellt. Daher wenden wir Methoden an, um große Datenmengen zu verarbeiten, so genannte Big Data-Analysen“, sagt Declerck, der in der Computerlinguistik der Saar-Universität am Lehrstuhl von Professor Hans Uszkoreit und am Deutschen Forschungszentrum für Künstliche Intelligenz forscht. „Wir verbinden statistische Methoden mit präzisen sprachwissenschaftlichen Analysen. Die Lösung liegt in der Kombination der verschiedenen Verfahren. Im Projekt arbeiten hierzu Wissenschaftler unterschiedlicher Ausrichtung zusammen“, erläutert er. Computerlinguistische Sprachanalysen werden verknüpft mit Informationen aus sozialen Netzwerken, Inhalte werden mit zuverlässigen Datenbanken abgeglichen, statistisch geprüft und mittels Grafiken ausgewertet. Die Aussage wird gleichsam durch verschiedenste Filter geschickt; am Ende steht eine bestimmte Wahrscheinlichkeit, die für oder gegen die Wahrheit spricht.

Declercks Aufgabe im Projekt ist die Sprachtechnologie. Er baut dabei auf Vorarbeiten im EU-Projekt „TrendMiner“ auf: „Wir haben Methoden entwickelt, die es möglich machen, aus der Datenflut Themen und Trends herauszufischen, die im Internet aktuell diskutiert werden. So lassen sich etwa Stimmungen erkennen.“ Mit Hilfe eines komplexen Systems aus Sprachverarbeitungs-Modulen will der Forscher jetzt die Informationen weiter auswerten, sie von ihrer Bedeutung und von Besonderheiten im Satzbau her erfassen. „Zum Beispiel wollen wir Satzstrukturen, die Zweifel am Wahrheitsgehalt einer Aussage ausdrücken, sowie bestimmte Schlüsselwörter wie ´scheinbar` oder ´nicht` automatisch erkennen“, sagt Declerck. Im Ausgangsbeispiel mit dem London Eye würde das System die Häufung von Zweifel wie „Stahl brennt doch gar nicht“ oder „Ich bin am London Eye, hier brennt nichts“ in seine Wahrheits-Analyse einbeziehen. Hierzu entwickelt Declerck derzeit mathematische Algorithmen: In Zahlen übersetzt, lassen sich Muster und Strukturen erkennen – die Informationen werden berechenbar.

Besonderer Knackpunkt für die Forscher wird die Unbeständigkeit der Wahrheit in unserer realen Welt sein. Was heute wahr ist, kann morgen schon falsch sein: „Der Faktor Zeit spielt eine große Rolle. Zum Beispiel ist eine Aussage der Form ´X ist Präsident des Landes Y` nur so lange wahr, wie der genannte Präsident auch tatsächlich amtiert. Unser System muss sich also ständig anpassen können“, erklärt er. Daher verknüpft er die zu überprüfenden Informationen mit den entsprechenden Daten in zuverlässigen Quellen, z.B. Online-Nachschlagewerken wie DBpedia. „Hinter den Texten solcher Datenbanken liegen verschlüsselte, maschinenlesbare Informationen. Wir nutzen diese derzeit sozusagen als Spielwiese, um Gesetzmäßigkeiten zu finden und neue leistungsfähige Algorithmen zu entwickeln“, sagt der Sprachtechnologe.

Die EU fördert das Projekt „Pheme“ als „Specific Targeted Research Project (STREP)“. Partner im Projekt sind in England die University of Sheffield (Koordinator), das Kings College London, sowie die University of Warwick, in Österreich die Modul Universität Wien, in der Schweiz swissinfo.ch, in Bulgarien Ontotext, in Spanien ATOS Spain SAU, in Kenia Ushahidi und in Deutschland die Universität des Saarlandes.

Google-Auszeichnung: Computer lernen sprachlich logische Zusammenhänge in Texten

9. August 2013

In meinem Seminaren wird oft diskutiert, wann Computer denn endlich die menschliche Sprache verstehen. Diskussionsgrundlage sind Ausschnitte aus der TV-Serie Star Trek, in denen die Mannschaft mit dem Bordcomputer sprechen und der Rechner sinnvolle Antworten gibt, So weit entfernt sind wir von der Science Fiction-Welt nicht.

Wäre das nicht schön, wenn Computer die Sprache wirklich verstehen würden?

Wäre das nicht schön, wenn Computer die Sprache wirklich verstehen würden?

Programme, die unsere Sprache verstehen und sinnvolle Verknüpfungen in Texten finden – daran arbeiten Saarbrücker Wissenschaftler wie Ivan Titov. Der Informatiker entwickelt derzeit ein Verfahren, mit dem Rechner erlernen sollen, sprachlich logische Zusammenhänge in Texten zu finden. So könnte es künftig zum Beispiel möglich sein, einen Computer gezielt über einen Text auszufragen. Der Rechner analysiert darauf den Inhalt und gibt dem Nutzer die richtigen Antworten. Der Software-Konzern Google hat den Saarbrücker Informatiker nun mit dem 140.000 Dollar dotierten Google Focused Research Award ausgezeichnet.

Jeder Student, der an einer Hausarbeit sitzt, kennt das Problem: Bevor man überhaupt etwas zu Papier bringt, muss man sich meist durch zahlreiche Texte und seitenlange Abhandlungen durchkämpfen. Praktisch wäre hier ein Computerprogramm, das die Textmenge schnell durcharbeitet, eine sinnvolle Zusammenfassung der Inhalte liefert oder gar Fragen dazu beantwortet.

Daran arbeiten derzeit Saarbrücker Wissenschaftler um Ivan Titov, die gleichzeitig an der Universität von Amsterdam forschen. Titov befasst sich damit, wie Rechner lernen können, Bedeutung und Zusammenhänge von Wörtern in Sätzen und Texten zu verstehen. „Das von uns entwickelte Modell simuliert, wie Menschen Texte verfassen. Unsere Computer lassen wir das in umgekehrter Reihenfolge abarbeiten, um Texte zu verstehen: Die Rechner werden dabei die Bedeutung des Textes oder sogar die Absichten des Autors erkennen“, erläutert der promovierte Informatiker. Der Clou: Titov und seine Arbeitsgruppe geben dieses Modell und die darin zusammengefassten Regeln nicht vor, stattdessen definieren Millionen von Sätzen diese für sie. Diese analysieren sie in umfangreichen Text-Sammlungen wie Wikipedia mit speziellen Algorithmen auf rund 100 Computern.

Mit den erarbeiteten Ergebnissen sollen Computer auch nicht offensichtliche Beziehungen zwischen Wörtern und Sätzen erkennen. Die Rechner sollen so zum Beispiel Wörter und ihre Bedeutungen im Kontext erkennen können, wie der folgende Fall zeigt: Bei den Sätzen „John hat gerade seinen Abschluss an der Saar-Uni gemacht. Er arbeitet nun für Google“ ist selbst für einen Computer klar, dass John und Saar-Uni über die Beziehung „hat Abschluss gemacht“ und John, Google über „arbeitet für“ zusammengehören. Doch das Modell der Saarbrücker Informatiker kann auch erkennen, dass John an der Universität des Saarlandes studierte und dort sehr wahrscheinlich in der Fachrichtung Informatik. Verstehen die Computer diese Muster in der menschlichen Sprache, wollen die Wissenschaftler dieses Verfahren in einem nächsten Schritt anwenden, um sie Fragen zu kleineren Texten beantworten zu lassen oder diese automatisch zusammenzufassen.

Neben Ivan Titov erhält auch Hans Uszkoreit einen mit 220.000 US-Dollar dotierten Google Focused Award. Uszkoreit ist Professor für Computerlinguistik an der Saar-Uni und wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Er arbeitet daran, sprachliche Zusammenhänge in großen Wissensbanken herauszufiltern.

Mit dem „Google Focused Research Award“ fördert der Suchmaschinenanbieter Google Forschungsgebiete, die für das Unternehmen selbst und für die Informatik von großem Interesse sind. Die Preisträger erhalten freien Zugang zu Werkzeugen und Technologien von Google.