Kann die KI Fake News korrigieren?

10 min read
artificial-intelligence-fake-news
Artwork by Bruno Silva

Humanoide mit Fledermausflügeln, blauhäutige Ziegen, zweibeinige schwanzlose Biber, ein Tempel aus Saphir – das waren einige der Sehenswürdigkeiten, die Sir John Herschel, ein bekannter britischer Astronom, beobachtete, als er sein Teleskop von einem Observatorium in Südafrika aus nach oben richtete. Oder zumindest hat das die New York Sun bereits 1835 in einer Reihe von Geschichten berichtet.

Die Berichte sorgten so für Furore, dass sich die Auflage der Zeitung von 8.000 auf über 19.000 Exemplare mehr als verdoppelte. Plötzlich glaubten alle, die die Berichte gelesen hatten, dass es auf dem Mond eine blühende Kolonie von Fledermausmännern gab.

Bis auf ein kleines Detail stimmte nichts davon. Die Geschichten waren von Richard Adams Locke einem Redakteurder „Sun“ erfunden worden.

Der Vorfall ging als Great Moon Hoak in die Geschichte ein, aber wenn all das heute passieren würde, würden wir es anders nennen: Fake News!

Donald Trump mag denken, dass er den Begriff erfunden hat, der in den letzten Jahren an Popularität gewonnen hat, aber das ist nicht einmal annähernd wahr. Fake News gibt es schon seit vielen Jahren, aber wir machen uns jetzt mehr denn je Sorgen um sie. Wie sind wir vom grundsätzlich harmlosen Great Moon Hoax zur sehr ernsten Bedrohung durch den Pizzagate-Skandal gekommen?

Nun, die Geschwindigkeit und der Umfang des Internets haben es hundertmal schlimmer gemacht. Wie die New York Times in einer dreiteiligen Filmreihe erklärt, die im November dieses Jahres veröffentlicht wurde, verbreitet sich Desinformation wie ein Virus.

Wie kann man also die Verbreitung dieses Virus verhindern?

Wenn man Mark Zuckerberg, den CEO von Facebook, fragt, wird er wahrscheinlich das wiederholen, was er dem amerikanischen Kongress Anfang dieses Jahres erzählte: Künstliche Intelligenz wird es beheben.

Aber stimmt es, dass künstliche Intelligenz Fake News beheben kann? Wird es möglich sein, dass eine Maschine automatisch überprüfen kann, ob etwas wahr oder falsch ist? Und was noch wichtiger ist, kann die KI ein Problem beheben, das sie überhaupt erst geschaffen hat?

KI, wir haben ein Problem

Es wurde viel über künstliche Intelligenz und Desinformation geschrieben, aber wir können nicht genug über die Rolle der KI bei der Erzeugung und Verteilung von Fake News auf der ganzen Welt sagen.

Ariel Conn, Direktor für Medien und Öffentlichkeitsarbeit am Future of Life Institute, erläutert: „Wenn KI-Forscher, die Programme erstellt haben, in denen sie Videos ändern können, dass es so aussieht, als hätte jemand etwas gesagt, was sie nicht gesagt haben, lässt uns das über die ethischen Auswirkungen dieser Technologie nachdenken.“

Nehmen wir zum Beispiel dieses Video des ehemaligen US-Präsidenten Barack Obama. Es wurde als Experiment von Forschern der University of Southern California für eine Sendung namens „Breaking News“ auf RadioLab produziert . Wenn du dieses Video auf deinem Computer oder deinem Handy sehen würdest, würdest du es glauben?

Die RadioLab-Episode wurde im Juli 2017 ausgestrahlt. Spulen wir bis April 2018, nur wenige Monate später, und du bekommst eine verbesserte Version, diesmal auf Buzzfeed als öffentliche Bekanntmachung veröffentlicht. Es stellte sich heraus: Obama bezeichnete Trump nicht als „kompletten Dreck“. Der Oscar-prämierte Filmemacher Jordan Peele hat es gemacht – in seiner überzeugendsten Obama-Stimme. Das gefälschte Audio war überzeugend über echtes Videomaterial des ehemaligen Präsidenten gelegt worden.

Die algorithmische maschinelle Lerntechnologie, die zur Erstellung dieser Videos verwendet wurde, heißt Deepfakes und ermöglicht es jedem, eine sehr realistische Simulation so ziemlich jedes Menschen zu erstellen (sofern man Video- und Audioaufnahmen hat).

Aber das eigentliche Problem bei Deepfakes ist, wenn die Menschen diese Technologie nicht mehr verwenden, um Nicolas Cage zu zufälligen Filmen hinzuzufügen und beginnen, Videos von politischen Führern zu produzieren, die Dinge sagen, die sie nie gesagt haben, wie wir bereits oben gesehen haben. Ariel Conn formuliert es so: „Es wird viel einfacher werden, Menschen zu manipulieren, und das ist äußerst beunruhigend.“

Wo steht die KI bei all dem? Ist sie die Lösung oder das Problem?

artificial-intelligence-fake-news-gauge

Korrektur von fehlerhaften Nachrichten

Um zu wissen, ob künstliche Intelligenz uns helfen kann, gefälschte Nachrichten zu korrigieren, müssen wir zunächst verstehen, wie maschinelles Lernen funktioniert.

Maschinelles Lernen ist die Wissenschaft, Computer dazu zu bringen, aus Daten zu lernen, Muster zu erkennen und Entscheidungen mit minimalem menschlichem Eingriff zu treffen. Die Idee ist, dass Maschinen ihre Leistung im Laufe der Zeit verbessern und zunehmend autonomer werden.

Um dies auf unseren Kampf gegen Desinformation anzuwenden, müssten wir also eine Technologie entwickeln, die Daten analysiert, um korrekt festzustellen, ob ein Inhalt wahr oder falsch ist. Laut den Experten, darunter Facebooks European Director of AI Research, Antoine Bordes, ist das jedoch leichter gesagt als getan:

„Wenn es darum geht, an einem Bild etwas Ungewöhnliches zu erkennen – das schafft eine Maschine. Aber wenn interpretiert werden soll, ob ein Text wahr oder falsch ist, geht das viel, viel tiefer. Es ist viel komplizierter zu kennzeichnen und das können Maschinen noch nicht. “

Warum? Weil Maschinen nicht über grundlegende menschliche Fähigkeiten verfügen wie „Verständnis, gesunder Menschenverstand und die Fähigkeit, Dinge in einen Kontext zu setzen“.

Dies bedeutet jedoch nicht, dass die Forscher nicht unermüdlich an der Lösung dieses Problems arbeiten. Die Anzahl der Studien zu diesem Thema hat in den letzten Jahren erheblich zugenommen und einige haben sich als durchaus fruchtbar erwiesen.

Die beste KI um gefälschte Nachrichten zu entdecken

In der MIT Technology Reviewschreibt Preslav Nakov, Senior Scientist am Qatar Computing Research Institute und einer der Forscher an einer neuen Studie über die Vertrauenswürdigkeit von Medienunternehmen, dass er trotz aller Skepsis optimistisch ist, was den Einsatz von Maschinen zur Erkennung gefälschter Nachrichten angeht. Er sagt trotzdem voraus, dass das wahrscheinlich nicht so bald passieren wird.

In der Studie, die Nakov mit durchführte, trainierten sie ihr System mit Variablen, die Maschinen ohne menschliches Zutun analysieren konnten. Sie führten eine Inhaltsanalyse der Schlagzeilenstruktur und Wortvielfalt durch, bewerteten den Webverkehr und bewerteten den Einfluss von Medienunternehmen, indem sie das Engagement für Social Media maßen.

Am Ende des Experiments markierte ihr bestes Modell nur zu 65 % der Zeit genau die Medien mit „niedriger“, „mittlerer“ oder „hoher“ Vertrauenswürdigkeit.

Aber die Vertrauenswürdigkeit der Medien zu analysieren und gefälschte Nachrichten zu identifizieren, ist ein Drahtseilakt. Journalisten befolgen – oder sollen es zumindest – sorgfältige Methoden und Verhaltenskodizes, um die Nachrichten zu produzieren, die wir jeden Tag lesen. Und kein Computer könnte es jemals verstehen.

artificial-intelligence-fake-news-robot

Menschen und Maschinen der Welt, vereinigt euch!

„Ich glaube, dass die KI immer nützlicher werden wird, um gefälschte Nachrichten zu entdecken, aber wir müssen auch die menschliche Komponente verstärken. Am Ende wird es eine Teamarbeit zwischen Maschinen und Menschen sein. “

Antoine Bordes, der europäische Direktor des Facebook AI Research Lab

Die Kombination des Besten aus menschlicher und künstlicher Intelligenz könnte unsere beste Hoffnung sein. Maschinen geben uns Schnelligkeit und Skalierbarkeit, während Menschen Verständnis mitbringen – und damit die Fähigkeit, Kontext und Nuancen bei der Beurteilung der Wahrhaftigkeit eines Textes zu berücksichtigen. Dies ermöglicht es uns auch, mehr Daten in das System einzuspeisen und seine Leistung im Laufe der Zeit zu verbessern.

Dennoch ist es wichtig, die Tatsache hervorzuheben, dass wir auch über Journalismus sprechen, eine unglaublich menschlich orientierte Aktivität, die nach strengen Regeln arbeitet, um die Wahrheit herauszufinden. Aus diesem Grund sind Plattformen zum Überprüfen von Fakten ein großer Teil des Puzzles von falschen Nachrichten.

Wir sprachen mit Aaron Sharockman, geschäftsführender Direktor von Politifact, einer der bekanntesten Webseiten zur Überprüfung von Fakten in den USA, über die Rolle, die KI in der Zukunft spielen wird, und die Methodik, die ihr Truth-o-Meter unterstützt.

Sie haben 11 Vollzeitjournalisten, die jeden Tag die wichtigsten Geschichten im Print- oder Rundfunkjournalismus nach überprüfbaren Fakten durchsuchen.

„Von daher fragen wir zuerst den Sprecher, was ist dein Beweis dafür, dass dies wahr ist? Während in den Vereinigten Staaten also die Unschuldsvermutung gilt, wenn man verhaftet wird, gilt man hier als schuldig, bis die Unschuld bewiesen ist. Wenn man etwas sagt, sollte man die Fakten haben, um es zu unterstützen, um es zu untermauern.“

Sie verlassen sich dann auf unabhängige und sachkundige Quellen, die bereit sind, das zu Protokoll zu geben. „Von dort aus empfiehlt ein Schreiber ein Urteil oder eine Bewertung. Wir haben sechs Bewertungen, die wir verwenden, von wahr bis hin zu feuerrot falsch, was unsere größte Lüge ist. Aber letztendlich kann der Schreiber nicht über die Bewertung entscheiden. Was passiert, ist, dass es an ein Gremium von drei Redakteuren geht, und sie fungieren als Jury.“

Könnte KI das jemals ersetzen?

Nun, eine Maschine kann ihre Algorithmen wahrscheinlich nicht in den Griff bekommen, aber sie könnte dazu beitragen, sie effizienter zu gestalten und diese Informationen an eine größere Anzahl von Menschen zu senden, so Aaron Sharockman:

„Die Menschen müssen immer an der Tatsachenprüfung beteiligt sein und den Menschen helfen zu verstehen, was wahr ist oder nicht. Es ist letztlich ein sehr personenzentriertes System. Ich denke jedoch, dass Computer dazu beitragen können, den Prozess effizienter zu gestalten. Also, worauf ich mich freue, ist, wie können Computer meinen Fact-Checker, einen unserer 11 Fact-Checker, nehmen und die Fähigkeit haben, die Anzahl der Fact-Checks zu verdoppeln, die sie schreiben?“

Sharockman erklärt weiter:

„Wie können Computer die Zeit, die benötigt wird, um eine Faktenüberprüfung zu schreiben, von sechs Stunden auf drei Stunden reduzieren? Und zweitens, wie können Computer und KI die Reichweite unserer Faktenüberprüfung verstärken? Das funktioniert auf zwei Arten. Die eine ist der einfache Weg, nämlich die Veröffentlichung einer Faktenprüfung, wie können wir sicherstellen, dass jeder sie sieht? Zweitens, Fehlinformation verbreiten sich weiter, unabhängig davon, was wir unternehmen. Wie kann die Tatsachenprüfung versuchen, in der Nähe der Ausbreitung der Fehlinformation zu bleiben? Ob dies bedeutet, dass es sich in einem anderen Blog wiederholt, wie kann die Faktenprüfung an diesen Blog gebunden werden? Ist es ein Twitter Bot, der jemandem antwortet, der einen schlechten Link auf Twitter veröffentlicht hat? Ich denke, das sind die Dinge, die mich am meisten begeistern. Und ich kann sie in meinem Horizont sehen; Ich kann fühlen, dass sie kommen werden. “

Die Realität einholen

Am Ende fühlt es sich an, als würden wir die Realität noch einholen. Da die Grenze zwischen Simulation und Realität immer weiter verschwimmt, müssen wir genau wissen, wo wir bei dieser Technologie stehen und ob sie die Wahrheit diktieren oder aufdecken wird.

Ariel Conn vom Future of Life Institute ist sich nicht sicher, ob wir schon eine Antwort haben. „Ich habe das Gefühl, dass dies genau wie all die anderen Bedrohungen, denen wir ausgesetzt sind, sein wird. Bei der Cybersicherheit geht es fast ausschließlich darum, dass wir aufholen. Aber sobald wir ein besseres Gefühl dafür haben, was einige dieser Bedrohungen sind, sind wir in der Lage, ziemlich gute Programme zu entwickeln, um uns vor Cyber-Bedrohungen zu schützen. Ich denke also, dass KI gleich bleibt, wo sie vor allem anfangs, wahrscheinlich aufholen wird. Aber hoffentlich wird es proaktiver.“

Heute steht der Kampf um Informationen im Mittelpunkt der Debatte und der Schaden ist real. Wir schüren vielleicht keine Ängste vor einer außerirdischen Invasion – ich meine, ich habe eine gute Vorstellung davon, wer als Erster darüber twittern würde – aber wir verbreiten Lügen, die ernsthafte Auswirkungen auf unser Leben, unsere Demokratie und unsere Zukunft haben könnten. Die Technologie wird uns nur teilweise voranbringen: Wir müssen unsere eigenen schlechten Gewohnheiten überprüfen.

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon