Aktuelles

aboprämie

To watch this video, you need the latest Flash-Player and active javascript in your browser.

Tomayers Video-Tagebuch

No-Go-Area Deutschland

Filmkritiken

Termine

links & rights

Trust me

»Freiheit ist die Freiheit zu sagen, dass zwei und zwei gleich vier ist«, heißt es bei George Orwell. Sein totalitarismustheoretisches Werk 1984 dreht sich um die Frage, ob die Wahrheit bestimmte Macht- und Mehrheitsverhältnisse unbeschadet überstehen kann, und Orwells Held sieht nach schlimmer Folter ein: Nein, zwei und zwei sind immer nur dann vier, wenn es der Partei in den Kram passt, ansonsten fünf, sieben oder grün.

Google entwickelt gerade ein Programm, das die Wahrheit von der Lüge scheiden soll – und zwar automatisch! Kein vernunftbegabtes Wesen muss mehr einen Blick auf die Ergebnisse werfen, sobald der neue Algorithmus »Knowledge-Based Trust« durchs Netz kriecht. Automatisch ist wichtig, weil: Je vernunftbegabter die Wesen, umso größeren Wert legen sie darauf, bezahlt zu werden. Das Erfolgsrezept von Google und anderen Sozialen Medien, Plattformen und Suchmaschinen besteht aber gerade darin, alles, was kostet, gar nicht erst anzufangen. Den größten Profit im Netz macht, wer verbreitet, was andere hergestellt haben.

Facebook oder Google betonen, sie seien keine »publizistischen Einheiten«. Sie unterhalten keine Redaktionen, prüfen keine Fakten, wählen keine Nachrichten aus. Statt dessen überlassen sie es (angeblich) ihren Algorithmen, bestimmte Inhalte an bestimmte Nutzer zu vermitteln. Leider kommt dabei heraus, dass alle User Katzen lieben und an 9/11 zweifeln. Google erntet für das Projekt »Knowledge-Based Trust« Hohn und Spott, aber der Konzern zeigt Problembewusstsein: Gerüchte und Schund sollen auf die hinteren Ergebnisseiten verschwinden.

Wie das geht? Schund ist populär, deshalb taugen Kriterien wie Zugriffszahlen und Links nicht zur Qualitätskontrolle. »Eine Quelle, die wenig falsche Fakten aufweist, ist vertrauenswürdig«, heißt es aus Googles Forschungsabteilung. Aber wie finden wir »Tatsachen« maschinell? »Wissensbasiertes Vertrauen« entsteht dadurch, dass die Maschinen unglaublich viele Internetseiten durchsuchen und die Worte darinnen nach vermuteten Sinnbezügen ordnen, zum Beispiel nach »ist Vater von« oder »wurde geboren in«. Die Fehlerraten sind enorm. Nun schätzt der Algorithmus, wie wahrscheinlich es ist, dass die Informationsextraktion einer bestimmten Datei erfolgreich war, und vergleicht die Tatsachen mit einer Datenbank, in der bereits andere »Tatsachenwahrscheinlichkeiten« abgelegt sind.

Der automatisierte Faktencheck ist dann letztlich so populistisch wie Googles alte Methode. Sollte die Mehrzahl der Texte einmal falsch liegen, wird jeder abgewertet werden, der etwas anderes behauptet. Zwei plus zwei? Die meisten sagen vier, aber fast alle haben vorher im Netz nachgeschaut.

Matthias Becker

 

Zurück