Automaten schreiben inzwischen nicht mehr nur einfache Meldungen, sondern erstellen komplette Nachrichtenportale. Durch sie gehen Jobs verloren, aber es entstehen zugleich Inhalte, die es ohne sie nie gegeben hätte. Das ist eine so faszinierende wie unheimliche Entwicklung, die uns in den nächsten Jahren noch sehr beschäftigen wird.
Inhaltsverzeichnis
Vorgeschichte: Wenn Bots über Beben berichten
Am Montag, 17. März 2014, 6:25 Uhr Ortszeit weckt ein Erdbeben die Einwohner von Los Angeles. Es richtet zwar glücklicherweise keinen nennenswerten Schaden an, aber nach einer ungewöhnlich langen Phase der Ruhe ist so ein deutlich spürbarer Rüttler natürlich eine Meldung. Die Menschen in Los Angeles wie auch an anderen Orten der Pazifikküste leben schließlich mit dem Damoklesschwert eines Großbebens, das Experten für unvermeidlich halten. Jedes Schwanken der Erde kann somit zugleich Vorbote dieses gefürchteten „Big One“ sein. Es kann jetzt gleich kommen oder übermorgen oder in 100 Jahren. Wann genau, weiß niemand. Aber dass es kommen wird, darüber besteht kein Zweifel.
Schlagartig hellwach ist an jenem frühen Morgen auch Ken Schwencke in seinem Zuhause in Silver Lake, einem der hippen Stadtteile von L.A. Für den Datenbankspezialisten, Programmierer und Reporter der Los Angeles Times ist das Erdbeben aus einem ganz persönlichen Grunde spannend: Er will wissen, ob eines seiner Projekte so funktioniert hat wie erhofft. Er setzt sich an seinen Computer und loggt sich in das Redaktionssystem der Times ein. Befriedigt stellt er fest: Es wartet ein Artikelentwurf auf Freigabe. Thema: das Erdbeben, das sich gerade vor ein paar Minuten ereignet hat. Nicht nur Überschrift und Text sind vorhanden, auch eine Karte ist bereits eingefügt. Ken prüft die Fakten und klickt den „Publish“-Knopf.
Es ist 6.33 Uhr: Knapp acht Minuten nach dem Beben ist der Text online und Ken setzt einen Tweet dazu ab. Die L.A. Times berichtet als eine der ersten Quellen über das Ereignis wie folgt:
A shallow magnitude 4.7 earthquake was reported Monday morning five miles from Westwood, California, according to the U.S. Geological Survey. The temblor occurred at 6:25 a.m. Pacific time at a depth of 5.0 miles.
According to the USGS, the epicenter was six miles from Beverly Hills, California, seven miles from Universal City, California, seven miles from Santa Monica, California and 348 miles from Sacramento, California. In the past ten days, there have been no earthquakes magnitude 3.0 and greater centered nearby.
This information comes from the USGS Earthquake Notification Service and this post was created by an algorithm written by the author.
Zwar wird Ken Schwencke als Autor der Meldung genannt, aber der letzte Satz verrät sein Geheimnis: Ein von ihm erstellter Algorithmus hat den Text geschrieben. Diesen Automaten hatte er sich nach den schweren Erdbeben 2011 in Japan geschaffen. Der greift auf öffentlich zugängliche Informationen der United States Geological Survey (USGS) zurück. Wird dort ein Beben mit mindestens einer Stärke von 3.0 gemeldet, greift sich das Programm die Daten und ergänzt damit eine entsprechende Vorlage. Fertig ist der Artikelentwurf.
„Ich finde es eine großartige Sache. Es nimmt mir viel von der Routinearbeit bei diesen Themen ab“, erklärte Ken Schwencke gegenüber The Wire in einem Interview am selben Tag. Und natürlich ist der Geschwindigkeitsvorteil bei einem solchen Thema durchaus Geld wert: „Wenn man in einer solchen Situation innerhalb von fünf Minuten etwas online hat, das die Leute auf Google finden können… Also, ich habe noch nicht nachgesehen, aber ich glaube, das war ein sehr, sehr, sehr gefragter Post heute auf unserer Website.“
Ken Schwenckes Algorithmus hätte an jenem Morgen sogar noch schneller sein können, wenn er nicht durch seinen Erschaffer ausgebremst worden wäre. Schließlich hatte das USGS bereits zwei Minuten nach dem Erdbeben die Daten veröffentlicht und der automatisch erstellte Artikel wartete seitdem im Redaktionssystem. Dass es sechs weitere Minuten bis zur Veröffentlichung dauerte, ging allein auf die Kappe des menschlichen Faktors. Ein Problem, mit dem der Twitter-Account LA Quake Bot nicht zu kämpfen hat, denn er läuft dank des kurzen Formats vollautomatisch:
Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Fast 3.500 Retweets und 900 Favs – nicht schlecht für eine Maschine.
Gegenwart: Weitere Beispiele
Ken Schwenckes selbstgeschriebener Bot ist aber letztlich ein vergleichsweise simples Beispiel. Hier reicht es schließlich, ein vorgegebenes Format mit den passenden Daten zu füllen. Und Bill Snitzers Quakebot auf Twitter hat es mit den 140 Zeichen sogar noch einfacher.
Es gibt andere Projekte, die komplexere Aufgaben erledigen. Sie erstellen ganze Rubriken, Portale oder Zeitungen – praktisch ohne menschlichen Eingriff.
Nachrichtenportale
Die Stuttgarter Agentur axea hat ein vollautomatisiertes Sportportal angekündigt. Die hauseigene Software „Ax“ hat dabei u.a. gezeigt, dass sie aus den Daten eines Basketballspiels einen leidlich lesenswerten Bericht erstellen kann. Der fasst dabei nicht etwa nur alle Daten mehr oder weniger zusammenhanglos in einem Text zusammen, sondern ermittelt beispielsweise darüber hinaus den besten Spieler des Matches und stellt Vergleiche an. Für jede Art von Nachrichten sei dafür ein passendes Regelwerk entwickelt worden, berichtet Meedia.
Ein Vorteil der Maschine: Sie soll die Berichte anhand der Daten in bis zu acht verschiedenen Sprachen verfassen. Zudem sollen sich Nutzer ihre Berichte offenbar passend zu eigenen Interessen erstellen lassen können. Wer Fan von Philipp Lahm ist, bekommt demnach einen maßgeschneiderten Artikel genau zu diesem Fußballspieler.
Gegenüber Meedia erklärte Geschäftsführer Salim Alkan, dass ihre Rechenkapazität aktuell für 3,6 Millionen Artikel pro Tag ausreicht.
Ein ähnliches Projekte aus dem Sportbereich ist Statsheet vom Unternehmen Automated Insights. Hier finden Fans von Sportteams automatisch erstellte Nachrichtenportale zu ihrer Mannschaft. In einer weiteren Demo zeigt die Firma, wie sie die Daten zu einem laufenden Baseball-Spiel automatisch in einen schriftlichen Liveticker verwandelt. Das Unternehmen kann nach eigenen Angaben solche Dienste nicht nur für Sport, sondern auch für weitere Themen anbieten und vermarktet das als „personalized content“. Nach ihren Worten ist es überholt, Beiträge zu schreiben, die Millionen Leser erreichen. Stattdessen solle man jedem der Millionen Leser einen maßgeschneiderten Artikel liefern.
Konkurrent Narrative Science hat in diesem Bereich schon namhafte Kunden gewonnen. Dazu gehört das Wirtschaftsmagazin Forbes, das diesen Bereich seiner Website automatisiert erstellen lässt.
Zeitungen
Die angesehene britische Zeitung The Guardian wagt ein robotisches Experiment in den USA: die monatlich erscheinende Zeitung #Open001. Ihre Inhalte werden nicht von der Redaktion bestimmt, sondern von einem Algorithmus. Unter anderem wird hier einbezogen, wie gut die Beiträge in Social Networks wie Facebook und Twitter angekommen sind. Das experimentelle Blatt soll in zunächst kleiner Auflage von 5.000 Stück gedruckt und in US-Werbeagenturen verteilt werden. Es ist nicht das erste Mal, dass der Guardian ein neues Produkt ohne menschliches Zutun erstellt: In London erscheint „The Long Good Read“, das derselbe Algorithmus zusammenstellt. Zu haben ist das nur im hauseigenen „Guardian Cafe“ in London.
In beiden Fällen ist offenbar nicht einmal mehr das Layout menschengemacht oder zumindest kaum noch: Der Service Newspaper Club übernimmt das für den Guardian. Laut Engadget arbeitet dieses Unternehmen darauf hin, dass eine einzelne Person eine komplette Zeitung in weniger als einer Stunde erstellen kann.
Das Experiment kommt einem dabei durchaus bekannt vor. So versuchte das deutsche Startup niiu beispielsweise, eine individuell gedruckte Tageszeitung zu etablieren, ist allerdings letztlich gescheitert und inzwischen als iPad-App wiederauferstanden (die ich persönlich nicht besonders gelungen finde). Oder auch an myheimat, bei dem Bürgerreporter online aus ihrer Region berichten und ein Algorithmus aus den gefragtesten Artikeln regelmäßig eine gedruckte Beilage für Lokalzeitungen erstellt.
Analyse von Statistiken
Ein weiteres Feld: Zahlenkolonnen in leicht lesbare Texte zu verwandeln. Die Unternehmen argumentieren meist damit, dass Grafiken als Visualisierungen zwar besser geeignet seien als die puren Zahlen, aber nichts über einen geschriebenen Report gehe. So wirbt beispielsweise Automated Insights für ihr Produkt Wordsmith for Marketing. Mit ihm sollen Agenturen ihre Erfolgsberichte an die Kunden automatisch erstellen lassen: Sie geben die Zahlen an Automated Insights, deren Algorithmus findet dann die interessanten Punkte darin und verwandelt das alles in einen Text – so jedenfalls das Versprechen. Ebenso soll das für viele weitere Bereiche funktionieren: Unternehmensinformationen, Finanzberichte, Webstatistiken oder auch die eigenen Fitnessdaten.
Narrative Science wiederum hat kürzlich den Webdienst Quill Engage vorgestellt: Er nimmt Daten von Google Analytics und soll die wesentlichen Erkenntnisse daraus in natürliche Sprache umwandeln können. Man kann das Angebot kostenlos nutzen und sich wöchentliche sowie monatliche Reports zuschicken lassen. Das ist natürlich nichts anderes als eine Werbeaktion, aber immerhin kann man sich auf diese Weise selbst ein Bild von den Möglichkeiten der Technik machen. In einem Testdurchlauf fand ich den automatisch generierten Report jedenfalls durchaus lesenswert und angenehmer zu konsumieren als die Grafiken von Google Analytics selbst.
Auch Narrative Science bietet seine Dienste für diverse Branchen an.
Ausblick: Chancen, Grenzen und Gefahren
Natürlich führt diese Technik unweigerlich zu einem Diskussionsthema, das uns nach meinem Dafürhalten in den nächsten 10 bis 20 Jahren noch sehr oft begegnen wird: Welche Jobs werden künftig durch Roboter und Computer erledigt?
Anthony De Rosa hatte dazu eine interessante Auflistung verbreitet. Redakteure können sich demnach relativ sicher fühlen: Bei ihnen gibt es nur eine Wahrscheinlichkeit von 0,06, dass sie in den nächsten 20 Jahren ihre Arbeit durch die Computerisierung der Wirtschaft verlieren. Technische Redakteure hingegen sollten sich nach neuen Möglichkeiten umschauen: Bei ihnen wird ein Wert von 0,89 angegeben. Die Skala reicht von 0,0 (unmöglich) bis 1,0 (sicher).
Aus meiner Sicht darf man sich keinen Illusionen hingeben: Ja, es werden Aufgaben wegfallen, weil Automaten den Job manchmal schneller, verlässlicher und bei alldem auch noch billiger machen können. Gelegentlich wird das sogar eine Erlösung sein. Denn schaut man auf die positive Seite der Medaille, dann entfallen Tätigkeiten, die sowieso niemand gern tut. Immer wieder dieselben Inhalte zu erstellen, ist eben keine Erfüllung für einen Homo Sapiens Sapiens. Auf der anderen Seite dieser Medaille bedeutet das aber nun einmal Einsparungen, denn mancher hat neben diesen ermüdenden Routinearbeiten auch andere Dinge zu tun bekommen und wird erleben, dass sein Job mit dem einiger Kollegen zu einer einzigen Stelle zusammengefasst wird.
Ein weiterer Gedanke dazu: Es werden Inhalte entstehen, die es ohne Automaten gar nicht gegeben hätte. Wie man in den Beispielen oben auch sieht, lassen sich Daten massenhaft in Texte verwandeln und das wäre mit menschlichen Mitarbeitern in dieser Form schlichtweg gar nicht bezahlbar. Insofern wird es Momente geben, in denen jemand vorrechnet, wie viele Arbeitsplätze für Menschen hier theoretisch verloren gegangen sind. Ich sehe hier Gewerkschafter ganz vorn. Aber Automaten werden Texte erstellen, die es ohne Automaten nicht gegeben hätte – und zwar sehr, sehr viele.
Zudem bewegt sich die Technik heute und auf absehbare Zeit in entscheidenden Grenzen. Es ist noch immer umstritten, ob, wann und wie wir so etwas wie eine wahre künstliche Intelligenz schaffen werden. Und damit meine ich nicht einen Computer, der den Turing-Test besteht und für einen Menschen gehalten wird. Sondern ich meine den Moment, in dem von Automaten geschaffene Werke allgemein anerkannt auf einer Ebene mit den Werken von Menschen stehen. Denn sicherlich könnte man beispielsweise einen Automaten entwickeln, der Reportagen schreibt. Man muss ihn mit den notwendigen Daten, dem mehr oder weniger standardisierten Aufbau eines solchen Textes sowie den üblichen sprachlichen Tricks und Kniffen der Profis füttern. Das könnte durchaus einen verblüffend echt wirkenden Text ergeben. Der Technikchef von Narrative Science, Kristian Hammond, meint gar, ein automatisch erstellter Text könne 2017 den Pulitzer-Preis gewinnen – was man allerdings als Marketinggetöse in eigener Sache ansehen könnte. Aber selbst wenn das gelänge: Sobald den Lesern mitgeteilt würde, dass es eine Simulation ist, wäre das Werk entwertet. Und das zu Recht.
Tools, Tipps, News zu KI für Kreative
Der kostenlose Smart Content Report liefert dir alle 14 Tage:
- eine Anleitung mit Tipps aus der Praxis
- aktuelle News rund um neue Tools, Angebote und Entwicklungen
- Links auf lesenswerte Artikel
Kein Spam! 100% nützlich. Schon über 200 Leser:innen sind dabei.
Aktuell können wir bereits künstliche Intelligenzen erschaffen, die echt wirken. Wir sind aber weit davon entfernt, ihnen tatsächlich eigenständige Intelligenz zuzubilligen, die über ihre Programmierung hinausgeht. Anders gesagt: Sie äffen nach, erfinden aber nicht selbst. Und solange das der Fall ist, gibt es genug Arbeit auch für Redakteure – sofern sich ihre Arbeitsergebnisse denn stark genug von dem unterscheiden, was ein Automat abliefern würde…
Ein Beispiel dazu ist die eingangs erwähnte Meldung über das Beben in L.A. Der Text begann als automatisch erstellte Meldung und damit war die Zeitung dem ersten Informationsbedürfnis der Leser nachgekommen. Letztlich aber waren es die Redakteure aus Fleisch und Blut, die die kargen ersten Zeilen zu einer vollumfänglichen Aufmacher-Geschichte erweiterten.
Aber natürlich sollen die Gefahren solcher Entwicklungen trotzdem nicht verschwiegen werden. In der Session „Algorithms, Journalism and Democracy“ im Rahmen der SXSW 2014 wurde beispielsweise über einen wichtigen Punkt gesprochen: scheinbare Objektivität. Denn auf der einen Seite ist klar, dass Journalisten nach klassischer Schule zwar versuchen, objektiv zu sein, das aber letztlich nie sein können. Aber sind deshalb auf der anderen Seite digitale Redakteure in Form von Algorithmen gefeit vor Beeinflussung? Genau das sei eben nicht der Fall, wie Kelly McBride vom Poynter Institute und Gilad Lotan von betaworks in ihrer Präsentation darstellten. Zwar sei ein Algorithmus an sich unbestechlich, aber Menschen entscheiden darüber, welche Daten als Kriterien herangezogen werden und welche Gewichtung sie bekommen. Insofern seien automatisch erstellte Inhalte ebenfalls zwangsläufig subjektiv.
Als ein Beispiel führten sie dabei die Liste der angesagten Themen bei Twitter auf. Hier wurden 2013 Stimmen laut, Twitter würde die zahlreichen Tweets zu „Occupy Wall Street“ aktiv ignorieren. Das Wort „Zensur“ wurde wie so oft in solchen Situationen herumgereicht. Eine Analyse der Zahlen aber zeigt: Mehrere andere Themen haben im gleichen Zeitraum punktuell eine erheblich höhere Aufmerksamkeit bekommen. Und da Twitter solche Spitzen höher bewertet als einen lange anhalten Strom von Tweets zu einem Thema, tauchte Occupy nicht in der Hitliste auf. Somit war es keine aktive Zensur von Twitter, dass Occupy nicht in den Trending Topics auftauchte. Es war der Subjektivität des Algorithmus geschuldet. Mehr dazu in diesem Beitrag von Kelly McBride.
Wenn ein Computer die Berichterstattung übernimmt, ist er also deshalb nicht unbestechlich. Dessen sollte man sich bewusst sein. Auf der anderen Seite können Computer Arbeiten abnehmen, die menschliche Redakteure nur von dem abhalten, was sie an sich gut können oder zumindest gut können sollten: Zusammenhänge erkennen, Hintergründe verstehen und alles das auf eine Weise aufbereiten, dass es den Leserinnen und Lesern verständlich wird. Auf eine menschliche Weise subjektiv zu sein, wird im Zusammenhang damit sehr wahrscheinlich noch mehr zur Tugend.
Insofern verspricht die Zukunft den Schreiberlingen dieser Welt weniger nervtötende Routinejobs. Und unter dieser Bedingung heiße ich unsere Roboter-Herrscher aus vollem Herzen willkommen.
Aber auch nur dann.
- Tipp zum Weiterlesen: Can an Algorithm Write a Better News Story Than a Human Reporter? – Wired Magazine
Dieser Artikel gehört zu: UPLOAD Magazin 10
Die Themen: Gastautorin Svea Raßmus gewährt einen Blick hinter die Kulissen der Social-Media-Aktivitäten der Deutschen Bahn. Was mit einem mittleren Desaster begann, hat heute Vorbildcharakter. Zweites Beispiel ist Liebherr International: Sie zeigen, dass Facebook, Twitter, YouTube & Co. auch für B2B-Unternehmen spannend sind. Außerdem zeigen wir, wie wir selbst das Tool Buffer benutzen und geben einen Ausblick auf die spannende Zukunft der automatisch verfassten Texte.
- Weitere Artikel aus dieser Ausgabe kostenlos auf der Website lesen ...
- Bleib auf dem Laufenden über neue Inhalte mit dem „Update am Montag“ …
Schon gewusst? Mit einem Zugang zu UPLOAD Magazin Plus oder zur Content Academy lädst du Ausgaben als PDF und E-Book herunter und hast viele weitere Vorteile!
Jan hat mehr als 20 Jahre Berufserfahrung als Online-Journalist und Digitalpublizist. 2006 hat er das UPLOAD Magazin aus der Taufe gehoben. Seit 2015 hilft er als CONTENTMEISTER® Unternehmen, mit Inhalten die richtigen Kunden zu begeistern. Und gemeinsam mit Falk Hedemann bietet er bei UPLOAD Publishing Leistungen entlang der gesamten Content-Marketing-Prozesskette an. Der gebürtige Hamburger lebt in Santa Fe, New Mexico.
A N Z E I G E
1 Gedanke zu „Robotergeschichten – Wenn Automaten Texte schreiben“
Kommentare sind geschlossen.