Roboter sind (noch) keine Journalisten

Wenn es um von Computern generierte Texte geht, sind viele Journalisten und Leser gleichermaßen skeptisch – zu Unrecht. Denn tatsächlich werden die kreativen Köpfe in den Redaktionen nicht von Maschinen ersetzt. Sie werden vielmehr entlastet.

Quelle: shutterstock.com

Künstliche Intelligenz (KI) kommt in mehr und mehr Lebensbereichen zum Einsatz, nicht zuletzt auch in den Medien. Im Journalismus gibt es seit einigen Jahren den Trend, bestimmte Texte nicht mehr von Menschen, sondern von Maschinen verfassen zu lassen. Einer der Vorreiter dieser Entwicklung ist die „LA Times“, die seit 2014 den sogenannten Quakebot einsetzt, ein Programm, das auf der Grundlage von Daten des US-Innenministeriums Erdbebenmeldungen erstellt.

Das gleiche Programm war jedoch auch für eine historische Falschmeldung verantwortlich, als es 2017 ein Erbeben der Stärke 6,8 m Pazifik westlich von Santa Barbara meldete. Wenig später konnte Entwarnung gegeben werden: Die KI hatte lediglich eine Meldung aus dem Archiv fälschlich als aktuell eingestuft. Das besagte Erbeben hatte sich tatsächlich ereignet – allerdings im Jahr 1925. Später stellte sich heraus, dass auch menschliches Versagen zu diesem Fehler beitrug. Ein Mitarbeiter des „U.S. Geological Service“ hatte Datensätze vertauscht und die Maschine mit den falschen Rohdaten gefüttert.
Es sind nicht nur solche kuriosen Einzelfälle, die dafür sorgen, dass ein Teil der Bevölkerung dem Einsatz von KI im Journalismus kritisch gegenübersteht. Schließlich zeichnen sich Zeitungen in der Wahrnehmung vieler Leser durch ein hohes Maß von Originalität aus. Wie kann eine Maschine da einen signifikanten Mehrwert bieten? Diese Grundstimmung spiegelt sich auch in aktuellen Befragungen wider.

So können sich die Deutschen laut einer repräsentativen Umfrage der Standortinitiative „nextMedia. Hamburg“ einen verstärkten KI-Einsatz nur auf bestimmten Gebieten vorstellen. Während 63 Prozent der Befragten einen automatisch erstellten Wetterbericht und immerhin 51 Prozent eine automatische Verkehrsmeldung freiwillig lesen würden, können sich dies bei einem politischen Bericht lediglich 13 Prozent vorstellen. 16 Prozent sagen gar, sie würden unter keinen Umständen KI-generierte Medieninhalte konsumieren wollen.

Quelle: statista

Die Befragung zeigt jedoch auch den sprachlichen Fortschritt künstlich generierter Meldungen auf. Konfrontiert mit zwei verschiedenen Texten, einer von Menschenhand verfasst, der andere von einer Maschine, konnten nur 39 Prozent den maschinell erstellten Text als solchen identifizieren. Eine grundsätzliche Skepsis gegenüber KI-basiertem Journalismus, gepaart mit der Schwierigkeit, ihn als solchen zu erkennen: Das führt bei vielen Menschen zu dem Bedürfnis, die KI-Texte auch als solche zu kennzeichnen – ganze 77 Prozent der Befragten wünschen sich dies.

Hier zeigt sich auch ein gewisses Rest-Misstrauen der Befragten gegenüber Künstlicher Intelligenz im Allgemeinen. Algorithmen können leicht manipuliert werden, zudem ist die Verantwortung für Falschmeldungen nicht eindeutig zuzuordnen. Wer haftet etwa, wenn eine Maschine einen schwerwiegenden Fehler macht?  Auch wenn jüngere Gutachten zu dem Ergebnis kommen, dass Verlage grundsätzlich für die KI-Texte haften könnten, ist die rechtliche Situation nicht abschließend geklärt. Immerhin 57 Prozent der Teilnehmer der Umfrage hegen Zweifel an der Glaubwürdigkeit solcher Texte.

Dies steht auf den ersten Blick im Widerspruch zu einer Studie der LMU München, die Robotertexten eine höhere Glaubwürdigkeit als redaktionell verfassten Artikeln bescheinigt. Allerdings wurden den Testpersonen hier lediglich Texte vorgelegt, ohne sie über deren Ursprung aufzuklären. Aufgrund ihrer hohen Faktendichte wurden die KI-Texte von den Testern als geringfügig glaubwürdiger eingestuft, während menschengemachte Texte über eine etwas bessere Lesbarkeit verfügten. Wenn sich die Kunden also nicht über den Textursprung im Klaren sind, bleiben die wahrgenommenen Unterschiede vergleichsweise gering.

"Nach dem letzten Spiel der Saison kann der FC Bayern die Sektkorken knallen lassen und den Meistertitel in der Bundesliga feiern." 

"Der FC Bayern München ist nach einer guten Vorstellung gegen ein müdes Eintracht Frankfurt (5:1) der neue/alte Deutsche Meister."

Quelle: statista

Begrenzte Einsatzbereiche für Roboterjournalismus

Momentan ist der Einsatz von KI-Texten noch auf bestimmte Themenbereiche begrenzt. Vor allem bei Sport- und Wetterberichten sowie in der Börsenberichterstattung werden sogenannte Textroboter genutzt, also genau in jenen Bereichen, in denen sich die Mehrheit der Deutschen dies auch vorstellen kann. Besonders Nachrichtenagenturen lassen in letzter Zeit einen großen Teil ihrer Meldungen maschinell erstellen. Schließlich sollen hier lediglich Fakten geliefert und die Leser nicht unbedingt emotional berührt werden. Die amerikanische Agentur „Bloomberg“ beispielsweise lässt ein Drittel ihrer Bilanzberichte nicht mehr von Menschen schreiben. Auch die Agentur „AP“ (Associated Press) lässt Kursentwicklungen und Quartalszahlen inzwischen von Robotern, die mit KI arbeiten, zusammenfassen. Innerhalb von drei Monaten können auf diese Weise bis zu 4000 Berichte erstellt werden. Außerdem ist es möglich, die Meldungen zeitgleich in verschiedenen Sprachen für ein internationales Publikum zu produzieren. Künftig plant die „AP“ sogar, 80 Prozent ihrer Berichte maschinell erstellen zu lassen. Die dadurch freiwerdenden Ressourcen sollen dem Investigativen Journalismus zugutekommen.

Außerhalb des Journalismus, im Bereich des E-Commerce (Onlinehandel), haben Robotexte bereits heute eine enorme Verbreitung gefunden. Hier können die Programme ihre Stärken ideal ausspielen. Aufgrund der Vielzahl von gleichartigen Produkttexten können die Erstellungskosten gesenkt werden; Texter müssen nicht immer wieder den gleichen Artikel in leicht abgewandelter Form schreiben. Phillipp Ronicke, Experte für SEO (Search Engine Optimization) und Geschäftsführer der ConversionBoosting GmbH, hat sich intensiv mit dem Thema befasst. Er ist sich sicher, dass durch den Einsatz der Texte schon etliche Website-Besucher zu Kunden und Käufern wurden. „Entscheidend ist, dass die Produkttexte nicht nur Informationen vermitteln, sondern auch in Suchmaschinen ranken“, so Ronicke.

Dies wird einerseits ermöglicht durch die Vielfalt an grammatikalischen Konstruktionen und Satzfragmenten, aufgrund derer die Texte von Google Analytics als einzigartig (Unique Content) eingestuft werden. Andererseits verfügen die KI-Programme oftmals bereits über eine eingebaute Suchmaschinenoptimierung, die zum Beispiel auf die Verwendung gewisser Schlagworte oder Überschriften achtet. „Wir können verschiedene Textvarianten ausspielen und messen, welche am besten verkauft“, erklärt Ronicke. Das Problem besteht darin, dass für eine solche Erfolgsmessung eine hohe Zahl von Websitebesuchern in einer begrenzten Zeit notwendig ist, eine Voraussetzung, die nicht jeder Online-Shop erfüllt.

Quelle: unsplash.com

Nicht nur bei der Texterstellung, sondern auch bei der Moderation der Kommentarbereiche von Online-Zeitungen kommen KI-Programme zum Einsatz. Die „New York Times“, die aufgrund des großen Moderationsaufwands zuvor nur zehn Prozent ihrer Artikel zum Kommentieren freigab, konnte durch eine neue Software namens „Perspective“ ihr Onlineforum massiv erweitern. Das Programm erkennt automatisch Hasskommentare und filtert diese heraus. Durch ihre vergrößerte Online-Community ist es für die Zeitung einfacher, mit Lesern in Kontakt zu treten und letztlich ihre Abonnentenzahl zu erhöhen.

Allerdings sind diese Maschinen abseits der reinen Schlagworterkennung noch sehr fehleranfällig, da ihnen die Fähigkeit fehlt, Bedeutungen und Zusammenhänge zu erkennen. Wie auch bei der KI zur Texterstellung fehlt es hier am notwendigen Kontextverständnis, um noch bessere Ergebnisse zu erzielen.

Fehler kommen noch öfter vor als gedacht

Der Medienwissenschaftler Dr. Andreas Graefe ist, was die Fortentwicklung der KI angeht, skeptischer als viele seiner Kollegen. Er glaubt, dass die Automatisierung bereits an ihre Grenzen stößt. In einer Untersuchung für das Tow Center for Digital Journalism hat er sich mit automatisch erstellten Nachrichten zu Wahlprognosen im Rahmen des US-Wahlkampfs 2016 beschäftigt. Gemeinsam mit dem deutschen Softwarehersteller AX Semantics produzierten Graefe und sein Team in kurzer Zeit tausende von KI-Texten in denen Umfrageergebnisse, Expertenmeinungen und Wählererwartungen ausgewertet wurden.

Er und seine Mitstreiter kamen zu dem Ergebnis, dass die Fehlerrate von automatisch erzeugten Texten dramatisch ansteigt, sobald diese mit mehreren unterschiedlichen Datensätzen konfrontiert werden, aus denen dann eine sinnvolle Meldung zusammengefügt werden muss. Dies war dann der Fall, wenn unterschiedliche Umfragen von verschieden Instituten in den Text einfließen sollten. Auch tat sich das Programm schwer, unter Einbeziehung der Vergangenheit bestimmte Aussagen zu treffen, etwa: „Das ist der höchste Zustimmungswert eines Kandidaten in Florida seit x Jahren“.  Bei nur einem einzigen Datensatz (z. B. Trump liegt landesweit fünf Prozentpunkte hinter Clinton) gab es hingegen so gut wie keine Fehler.

Die meisten Falschmeldungen beruhten letztlich auf Fehlern in den Rohdaten, was allerdings für die Forscher wegen des enormen Umfangs des Experiments nicht auf den ersten Blick zu erkennen war. Insgesamt war der Aufwand für Qualitätskontrolle und Fehlerbehebung deutlich größer als vermutet.

Für Graefe ist die Schlussfolgerung klar: „Automatisierte Texte sind bei klarer Datenlage gut geeignet, Fakten zusammenzufassen. Sie sind jedoch schlecht geeignet, wenn es in den Datensätzen viele Fehler oder Bedarf für Interpretation gibt.“ Dies zeigte sich auch, wenn ein Fakt im Kontext der Wahl bewertet werden sollte. So war für Analysten ein Umfragevorsprung von fünf Prozentpunkten für Clinton keine große Neuigkeit. Ein Vorsprung von fünf Punkten für Trump wäre hingegen als Sensation gewertet worden. Die KI tat sich mit solchen Einschätzungen deutlich schwerer und war nicht in der Lage, größere Zusammenhänge zu erkennen.

Quelle: shutterstock.com

Berechenbare Textvorlagen

Nimmt nun angesichts dieser Ergebnisse die Gefahr von Falschmeldungen im Journalismus zu? Müssen wir uns auf eine Welle unfreiwillig produzierter Fake News gefasst machen? Nicht unbedingt, meint Graefe: „Oft ist es so, dass die Fehler in den Rohdaten zu finden sind. Dann ist die Frage: Würde ein Journalist diese Fehler erkennen, wenn er selbst den Text von Hand schreibt?“ Es gebe sogar Beispiele, die zeigten, dass Journalisten im Zweifel genau die gleichen Fehler machten. „Insofern kann es sogar von Vorteil sein, mit solchen Templates zu arbeiten. Wenn der Fehler einmal entdeckt ist, kann er für die Zukunft korrigiert werden“, so Graefe.

Und noch weitere Vorteile von KI zeigen sich beim Blick auf die Textvorlagen: Sie folgen immer der gleichen, im Algorithmus angelegten Struktur. Bestimmte vom Redakteur vorgegebene Wendungen und Satzbausteine wiederholen sich regelmäßig. Damit sind die Texte tendenziell eher faktenorientiert und weniger emotional. KI-Texte setzen sich also nicht ohne Grund dort durch, wo Neutralität und Objektivität gefragt sind – bei Finanz- und Wetterberichten etwa. Andreas Graefe kann sich auch einen verstärkten Einsatz bei politischen Nachrichten vorstellen. Allerdings solle man nicht den Fehler machen, die KI mit dem Menschen vergleichen zu wollen, denn: „Mensch und Maschine konkurrieren nicht um die gleiche Textart.“

Diese Erfahrung hat auch Peter Buhr gemacht, der innerhalb des Axel-Springer-Konzerns als Chefberater für Digitales und Innovation fungiert. Mit automatisierten Sport-Berichten im Online-Bereich der Zeitung WELT zählte Springer vor rund zehn Jahren zu den ersten Verlagen innerhalb Deutschlands, die sich an das Thema KI-Texte heranwagten. Bis heute werden die Fußballberichte aus der 3. Und 4. Liga von einer Software der Berliner Retresco GmbH erstellt.

Die Software füllt damit eine Lücke. „Es handelt sich genau um die Art von Inhalten, für die kein Sportjournalist gern seine Zeit aufwenden will“, sagt Buhr. Natürlich haben die KI-Berichte aus den unteren Fußballigen nicht die gleiche Reichweite wie die Texte eines normalen Redakteurs. Aber auch die 30-50 Robotexte, die wöchentlich bei „Welt“ veröffentlicht werden, finden ihre Leser und sind für das Unternehmen ein willkommener Showcase. Auch Buhr ist sich sicher, dass kreative Köpfe in Zukunft nicht von Maschinen verdrängt werden.

Quelle: welt.de

Die KI kennt sich nicht überall aus

Der Robojournalismus ist heute sehr stark themenfokussiert. Für einen Bereich, zum Beispiel Fußball, müssen alle möglichen Assoziationen mit Textmustern versehen werden. Der Algorithmus ist also hochkomplex. Das bedeutet aber noch lange nicht, dass die KI dahinter in der Lage ist, genauso komplex zu denken. „Die Maschine kann über ein Fußballspiel berichten. Sie weiß dabei aber nicht, was ein Stadion ist, oder was es mit dem Flugzeug auf sich hat, welches über das Stadion fliegt“, so Peter Buhr. Momentan sei jede KI noch auf ihr eigenes Spezialgebiet beschränkt. Um dies zu ändern, müsste die Software noch einen gewaltigen Schritt nach vorne machen.

Außerhalb der automatisierten Texterstellung gibt es aber bereits Anwendungen, die in der Lage sind, Verbindungen zwischen unterschiedlichen Themengebieten herzustellen. Dies geschieht zum Beispiel bei der Suchfunktion von Google mithilfe eines sogenannten Knowledge Graph. Beim Knowledge Graph handelt es sich um eine Wissens-Datenbank, in der Informationen in Form eines Netzes sortiert sind (siehe Video). Die einzelnen Gegenstände und Personen werden als Knoten dargestellt. Diese wiederum sind über dünne Fäden, genannt Kanten, verbunden und stehen miteinander in Beziehung.

Quelle: Youtube

Durch den eigenen Knowledge Graph, der sich unter anderem aus Daten von Goolge+, Wikipedia und dem CIA World Factbook speist, ist Google in der Lage, Suchergebnisse nochmals zu optimieren. Dadurch erscheint beispielsweise ein Infokasten neben den herkömmlichen Suchergebnissen mit weiterführenden Links zum jeweiligen Themenkomplex. Außerdem werden dem Nutzer typische Fragen beantwortet, die im Zusammenhang mit seinem Suchbegriff stehen könnten. Google ist damit schon jetzt in der Lage „um die Ecke zu denken“. Der Texterstellungssoftware steht genau diese Entwicklung womöglich noch bevor.

Quelle: pexels.com

Ein selbstlernender Algorithmus

Eine weitere Entwicklung, die im Bereich der Texterstellung wichtiger werden könnte, ist das sogenannte „Deep Learning“, eine Form des maschinellen Lernens. Mithilfe von künstlichen neuronalen Netzen sollen Algorithmen in die Lage versetzt werden, bestimmte Muster zu erkennen. Eingesetzt wird dies schon jetzt für Zwecke der Bilderkennung. Die KI wird dabei beispielsweise mit zahlreichen Bildern von Hunden gefüttert, bis sie in der Lage ist, diese von anderen Tieren präzise zu unterscheiden. Anders als beim menschlichen Gehirn ist der Wissenserwerb der Maschinen aber noch auf eine genau definierte Problemstellung beschränkt. Auch bei Spracherkennungssoftware wie Amazons Alexa und Übersetzungsassistenten kommen Deep-Learning-Prozesse zum Einsatz.

Noch einen Schritt weiter geht da der Textgenerator GPT2. Dieser wurde von der Nonprofit-Organisation OpenAI entwickelt und ist in der Lage, auf der Grundlage von wenigen vorgegebenen Sätzen längere, in sich stimmige Texte zu erzeugen. Der KI-Experte Peter Buhr zeigt sich von den Fähigkeiten des Algorithmus beeindruckt: „Sie können beispielsweise die ersten beiden Sätze eines „New York Times“-Artikels eingeben. GPT2 schreibt Ihnen den Rest des Artikels. Das können Sie im Zweifel nicht vom Originalartikel unterscheiden.“

Darüber hinaus ist das Programm in der Lage, Artikel zusammenzufassen, Quizfragen zu beantworten und Texte zu übersetzen. Grundlage für diese Fähigkeiten sind die Daten von rund acht Millionen Websites, mit denen GTP2 trainiert wurde. Die Entwickler nutzen dabei nicht die herkömmlichen Methoden des maschinellen Lernens, sondern ließen den Algorithmus bewusst unüberwacht lernen. Beim sogenannten unüberwachten Lernen weiß das System nicht von vornherein, was es erkennen soll, sondern teilt die erhaltenen Daten selbstständig in Cluster und Kategorien auf. Es erkennt also tatsächlich selbstständig Sinnzusammenhänge.
Auch wenn der Textgenerator noch längst nicht fehlerfrei agiert, zeigt er doch, was in diesem Bereich theoretisch möglich ist. Als Schreibassistent wird GTP2 jedoch auf absehbare Zeit nicht zum Einsatz kommen. Denn den Entwicklern von OpenAI wurde ihre Erfindung wohl mit der Zeit etwas unheimlich. 2019 entschieden sie sich entgegen vorheriger Ankündigungen, das System nicht in seiner finalen Version zu veröffentlichen. Der Grund: Es gibt Bedenken, dass Kriminelle sich die Software zunutze machen könnten, sei es zur Erzeugung von Spam-Mails und Phishing-Seiten, zur Vortäuschung einer falschen Identität oder zur Verbreitung von Fake News. Die Möglichkeiten zum Missbrauch sind vielfältig. Aktuell können Interessierte lediglich eine Demo-Version des Programms namens Talk to Transformer ausprobieren und diese mit kleinen Textbausteinen füttern (siehe Video).

Quelle: talktotransformer.com

Für die aktuelle Textsoftware, die im Journalismus zum Einsatz kommt, ist unüberwachtes, selbstständiges Lernen noch in keiner Weise denkbar. Sie agiert für die Redakteure als Helfer und Unterstützer, kann aber nicht mit der gleichen sprachlichen oder inhaltlichen Originalität aufwarten. „Insgesamt werden wir mehr Werkzeuge sehen, die den Redakteur bei der Texterstellung und Recherche unterstützen“, glaubt Peter Buhr. Anders als im E-Commerce-Bereich ist auch der Einfluss auf den Umsatz der Verlage noch begrenzt. Vielleicht auch ein ganz beruhigender Gedanke für eine Branche im Umbruch: Den Verlust des eigenen Arbeitsplatzes müssen kreative Köpfe noch nicht fürchten. Zumindest nicht aufgrund von KI-Textrobotern.

Von Kai Gies

  • Weiß YouTube Icon
  • Weiß Instagram Icon

Studiengänge:

Journalismus

Medienmanagement

Kommunikationsdesign

©2019 by DEKRA Hochschule für Medien, Berlin. Proudly created with Wix.com. All rights reserved.