Sprachforscher wollen Wahrheitsgehalt von Informationen im Netz sichtbar machen
Damit diese Frage künftig beantwortet werden kann, arbeitet der Saarbrücker Sprachtechnologe Thierry Declerck seit Anfang des Jahres im Rahmen des Projekts „Pheme“ mit Wissenschaftlern verschiedener Fachdisziplinen aus England, Österreich, der Schweiz, Bulgarien, Spanien und Kenia zusammen.
Ziel der Forscher ist es, ein automatisches Analyseverfahren zu entwickeln, das dem Internetnutzer schnell und verlässlich mitteilt, ob er einer gefundenen Information trauen kann oder eher nicht. Die Ergebnisse werden in zwei Fallstudien getestet, Testgebiete sind Medizinische Informationssysteme und digitaler Journalismus.
Das Projekt ist auf drei Jahre angelegt, hat ein Gesamtvolumen von rund 4,3 Millionen Euro und wird von der EU mit rund drei Millionen Euro gefördert.
„Das Wahrzeichen Londons, das London Eye, brennt.“ Ein Satz wie dieser verbreitet sich über Facebook, Twitter und Co. explosionsartig. Aber stimmt er auch? Die Folgen solcher Falschmeldungen sind unberechenbar – je nach Brisanz des Inhalts ist von Gewaltexzessen bis hin zum Einbruch von Aktienmärkten alles möglich. Die Frage der Vertrauenswürdigkeit von Informationen im Netz stellt sich daher immer dringlicher. Auch jeder, der schon nach Krankheitssymptomen gesucht hat, kennt das Problem. Aber wie misst man den Wahrheitsgehalt von Online-Informationen? Und das schnell genug?
Gemeinsam mit seinen internationalen Forschungspartnern will der Sprachtechnologe Thierry Declerck hierfür Antworten finden. Die Wissenschaftler arbeiten an einer robusten Methode, die jeweils zuverlässig angibt, wie vertrauenswürdig eine Information ist. „Wir konzentrieren uns dabei auf vier Arten problematischer Informationen: die Spekulation, die kontroverse Diskussion, die Fehlinformation und die gezielte Verbreitung falscher oder irreführender Tatsachen“, erklärt er.
Eine der größten Herausforderungen hierbei ist die Datenflut. „Mehrere tausend Textnachrichten werden jede Sekunde neu eingestellt. Daher wenden wir Methoden an, um große Datenmengen zu verarbeiten, so genannte Big Data-Analysen“, sagt Declerck, der in der Computerlinguistik der Saar-Universität am Lehrstuhl von Professor Hans Uszkoreit und am Deutschen Forschungszentrum für Künstliche Intelligenz forscht. „Wir verbinden statistische Methoden mit präzisen sprachwissenschaftlichen Analysen. Die Lösung liegt in der Kombination der verschiedenen Verfahren. Im Projekt arbeiten hierzu Wissenschaftler unterschiedlicher Ausrichtung zusammen“, erläutert er.
Computerlinguistische Sprachanalysen werden verknüpft mit Informationen aus sozialen Netzwerken, Inhalte werden mit zuverlässigen Datenbanken abgeglichen, statistisch geprüft und mittels Grafiken ausgewertet. Die Aussage wird gleichsam durch verschiedenste Filter geschickt; am Ende steht eine bestimmte Wahrscheinlichkeit, die für oder gegen die Wahrheit spricht.
Declercks Aufgabe im Projekt ist die Sprachtechnologie. Er baut dabei auf Vorarbeiten im EU-Projekt „TrendMiner“ auf: „Wir haben Methoden entwickelt, die es möglich machen, aus der Datenflut Themen und Trends herauszufischen, die im Internet aktuell diskutiert werden. So lassen sich etwa Stimmungen erkennen.“ Mit Hilfe eines komplexen Systems aus Sprachverarbeitungs-Modulen will der Forscher jetzt die Informationen weiter auswerten, sie von ihrer Bedeutung und von Besonderheiten im Satzbau her erfassen.
„Zum Beispiel wollen wir Satzstrukturen, die Zweifel am Wahrheitsgehalt einer Aussage ausdrücken, sowie bestimmte Schlüsselwörter wie ´scheinbar` oder ´nicht` automatisch erkennen“, sagt Declerck. Im Ausgangsbeispiel mit dem London Eye würde das System die Häufung von Zweifel wie „Stahl brennt doch gar nicht“ oder „Ich bin am London Eye, hier brennt nichts“ in seine Wahrheits-Analyse einbeziehen. Hierzu entwickelt Declerck derzeit mathematische Algorithmen: In Zahlen übersetzt, lassen sich Muster und Strukturen erkennen – die Informationen werden berechenbar.
Besonderer Knackpunkt für die Forscher wird die Unbeständigkeit der Wahrheit in unserer realen Welt sein. Was heute wahr ist, kann morgen schon falsch sein: „Der Faktor Zeit spielt eine große Rolle. Zum Beispiel ist eine Aussage der Form ´X ist Präsident des Landes Y` nur so lange wahr, wie der genannte Präsident auch tatsächlich amtiert. Unser System muss sich also ständig anpassen können“, erklärt er. Daher verknüpft er die zu überprüfenden Informationen mit den entsprechenden Daten in zuverlässigen Quellen, z.B. Online-Nachschlagewerken wie DBpedia.
„Hinter den Texten solcher Datenbanken liegen verschlüsselte, maschinenlesbare Informationen. Wir nutzen diese derzeit sozusagen als Spielwiese, um Gesetzmäßigkeiten zu finden und neue leistungsfähige Algorithmen zu entwickeln“, sagt der Sprachtechnologe.
Hintergrund: Die EU fördert das Projekt „Pheme“ als „Specific Targeted Research Project (STREP)“. Partner im Projekt sind in England die University of Sheffield (Koordinator), das Kings College London, sowie die University of Warwick, in Österreich die Modul Universität Wien, in der Schweiz swissinfo.ch, in Bulgarien Ontotext, in Spanien ATOS Spain SAU, in Kenia Ushahidi und in Deutschland die Universität des Saarlandes.
http://www.pheme.eu
http://www.coli.uni-saarland.de/page.php?id=projects
Kontakt: Thierry Declerck: 0681 / 857 75-53 58; E-Mail: declerck@dfki.de
Ein Pressefoto für den kostenlosen Gebrauch finden Sie unter http://www.uni-saarland.de/pressefotos. Bitte beachten Sie die Nutzungsbedingungen.
Hinweis für Hörfunk-Journalisten: Sie können Telefoninterviews in Studioqualität mit Wissenschaftlern der Universität des Saarlandes führen, über Rundfunk-Codec (IP-Verbindung mit Direktanwahl oder über ARD-Sternpunkt 106813020001). Interviewwünsche bitte an die Pressestelle (0681/302-2601, oder -64091).
Media Contact
Alle Nachrichten aus der Kategorie: Kommunikation Medien
Technische und kommunikationswissenschaftliche Neuerungen, aber auch wirtschaftliche Entwicklungen auf dem Gebiet der medienübergreifenden Kommunikation.
Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Interaktive Medien, Medienwirtschaft, Digitales Fernsehen, E-Business, Online-Werbung, Informations- und Kommunikationstechnik.
Neueste Beiträge
Größte bisher bekannte magnetische Anisotropie eines Moleküls gemessen
An der Berliner Synchrotronstrahlungsquelle BESSY II ist es gelungen, die größte magnetische Anisotropie eines einzelnen Moleküls zu bestimmen, die jemals experimentell gemessen wurde. Je größer diese Anisotropie ist, desto besser…
Tsunami-Frühwarnsystem im Indischen Ozean
20 Jahre nach der Tsunami-Katastrophe… Dank des unter Federführung des GFZ von 2005 bis 2008 entwickelten Frühwarnsystems GITEWS ist heute nicht nur der Indische Ozean besser auf solche Naturgefahren vorbereitet….
Resistente Bakterien in der Ostsee
Greifswalder Publikation in npj Clean Water. Ein Forschungsteam des Helmholtz-Instituts für One Health (HIOH) hat die Verbreitung und Eigenschaften von antibiotikaresistenten Bakterien in der Ostsee untersucht. Die Ergebnisse ihrer Arbeit…