Robots vs. Robots

Peter Wagenhuber schreibt über Textroboter, Informationsblasen und computerisierte Autopoesis; und gibt auch sonst einen Überblick über den Status Quo der Automaten.

Aus der heutigen Arbeitswelt sind Maschinen, Roboter und Computer als Werkzeuge zur Automatisierung der Arbeit kaum noch wegzudenken. Die Idee der Automatisierung zur Erleichterung der Arbeit ist jedoch gar nicht so neu. Bereits Aristoteles schrieb in seinem Werk »Die politischen Dinge«: »Wenn jedes Werkzeug auf Geheiß, oder auch vorausahnend, das ihm zukommende Werk verrichten könnte, wie des Dädalus Kunstwerke sich von selbst bewegten oder die Dreifüße des Hephaistos aus eignem Antrieb an die heilige Arbeit gingen, wenn so die Weberschiffe von selbst webten, so bedarf es weder für den Werkmeister der Gehilfen noch für die Herren der Sklaven.« Im Lauf der Geschichte wurden nun einige dieser Werkzeuge, die »auf Geheiß, oder auch vorausahnend, das ihm zukommende Werk verrichten« können, entwickelt und seit der Erfindung des Computers läuft diese Entwicklung fortwährend beschleunigt ab.

Mittlerweile gibt es kaum noch große Lager und Logistikunternehmen, deren Hallen und Transportsysteme nicht mindestens (teil-)automatisiert betrieben werden. Auch die Planung, Bestellung, Erstellung von Routen-plänen und so weiter werden von Software erledigt. In Zukunft könnte sogar das Verbringen der Güter an ihren Bestimmungsort vollautomatisiert mit selbstfahrenden LKW erledigt werden. Auch die Lebensmittelerzeugung ist bereits zu einem Großteil durchautomatisiert, wie Konstanze Kurz und Frank Rieger in ihrem Buch »Arbeitsfrei - Eine Entdeckungsreise zu den Maschinen, die uns ersetzen« eindrucksvoll darlegen.

Die Automatisierung schreitet jedoch nicht nur in der uns bekannten Arbeitswelt voran, sondern auch in der Kriegsführung. Naja, ein Großteil der Entwicklungen rund um Computer, Roboter und Automatisierung wurde ohnehin von militärischer Seite zumindest mitfinanziert. Wir hören immer wieder von den sog. Kampfdrohnen, die bereits in einigen Krisengebieten zur Kriegsführung eingesetzt werden. Dabei wird der Eindruck erweckt, dass da immer noch ein Mensch am anderen Ende der Welt am Steuer sitzt und den Befehl zum Töten gibt. Dem ist aber nur zum Teil so. Da die Verbindung rund um den halben Erdball zu lange dauert, können solche Kampfdrohnen durchaus »selbständig« Entscheidungen fällen. Außerdem wird von diesen Drohnen per Computeralgorithmus zwischen »normalem« und »verdächtigem« Verhalten unterschieden und dem »Piloten« an der Tastatur im Rechenzentrum entsprechend Ziele zur Tötung vorgeschlagen. Die Auseinandersetzung mit dieser kriegerischen Form der Automatisierung und deren Konsequenzen würde in diesem Artikel aber zu weit führen. Es soll hier nur exemplarisch darstellen, was in welcher Form schon »automatisch« erledigt werden kann.
Auch das Gebiet der Medizin profitiert von der Automatisierung. Nicht nur dass es mittlerweile schon Operationsroboter gibt, die die Chirurg_in in ihrer Arbeit unterstützen, es gibt auch schon seit längerem Programme, die Ärzt_innen bei der Diagnose unterstützen, z.B.: bei CT, Blutproben, aber auch bei psychologischen Fragestellungen.

Die Leistungsfähigkeit der Computer nimmt in einem immer schnelleren Masse zu, sodass es mittlerweile auch schon möglich wird, mit dem Computer auf »menschlichere« Weise als per Tastatur und Maus zu interagieren. Es gibt zum Beispiel für die meisten Betriebssysteme schon Sprachsteuerungen wie »Google Now«, Apples »Siri« oder Microsofts »Cortana«. Es ist mittlerweile sogar schon ansatzweise möglich, sich mit einem Computer per Chat zu »unterhalten« – ohne den Computer sofort als solchen zu enttarnen. Eine Software namens »Cleverbot« schaffte es am Techniche Festival 2011 am indischen Institut IIT Guwahati, 59.3% der Menschen von seiner »Menschlichkeit« zu überzeugen. Zwar hat noch keine Software den sogenannten »Turing Test«[1], benannt nach dem britischen Informatiker Alan Turing, der den Test erdacht hat, zu bestehen, allerdings dürfte das nicht mehr allzu lange dauern.

Nun sind die Fähigkeiten von Computern soweit fortgeschritten, sodass auch die Interpretation und die Generierung von menschlicher Sprache möglich werden. Somit ist es auch möglich, Computer selbst Texte verfassen zu lassen oder andererseits die schier unglaublich große Menge an geschriebenem Text im Internet automatisiert zu durchforsten und zu analysieren. In den letzten beiden Jahren gab es einen regelrechten Hype um den sogenannten »Roboterjournalismus«. Das bedeutet, dass eine Software das Verfassen von Zeitungsartikeln übernimmt. Den Hype gab es wahrscheinlich auch gerade deshalb, weil angesichts der eingangs bereits erwähnten allgegenwärtigen Automatisierung sich nun die Schreiberlinge und Journalisten der Bedrohung gegenüber sahen, nun durch Programme »wegrationalisiert« zu werden. Gleich mal vorneweg; ganz so schlimm ist‘s aber doch (noch) nicht gekommen. Wobei ich, nebenbei bemerkt, kein grundsätzliches Problem damit habe, wenn uns Maschinen die Arbeit abnehmen (Es ist glühend heiß und ich sitz nicht im Freibad, sondern schreib an diesem Text, den auch ein Computer schreiben könnte!). Es muss halt auf lange Sicht eine andere Art des wirtschaftlichen Zusammenlebens gefunden werden, wenn es nicht mehr notwendig ist, seine Arbeitskraft zu verkaufen. Aber auch das ist eine Diskussion, die ich an dieser Stelle nicht führen möchte.

Die Bezeichnung Roboterjournalismus ist ein wenig irreführend und hochtrabend, denn unter Journalist_innen stellt man sich meist investigative Journalist_innen vor, die lange nach Fakten recherchieren, was schließlich in der Veröffentlichung in Print, Rundfunk oder Onlinemedien mündet.
Gerade die Nachforschungen und die Recherche sind aber Gebiete, die sich noch nicht automatisieren lassen. Es gibt allerdings einige journalistische Routineaufgaben, die sich durchaus automatisieren lassen. Vor allem, wenn die Grundlage für einen Text bereits strukturierte Daten sind, so wie sie zum Beispiel bei Wetterberichten, Sport oder Finanzberichterstattung vorliegen, können Computeralgorithmen ihre Stärke ausspielen. Saim Alkan, Chef der Firma Aexea[2], einer der noch wenigen Anbieter von textgenerierender Software in Deutschland, bezeichnet in einem Vortrag am »Frankfurter Tag des Online-Journalismus«[3] seine Software als »den besten Volontär, den sie sich vorstellen können«, da sich gerade eben die Aufgaben, die oft Volontär_innen zukommen, bestens automatisieren lassen. Die Software dieser Firma kann pro Tag 90 Millionen Texte in 10 verschiedenen Sprachen produzieren. Selbst für die anwesenden Journalist_innen bei diesem Vortrag war es schwer auszumachen, welche Texte von einem Programm und welche von einem Menschen geschrieben wurden. Die präsentierten Texte können unter[4] eingesehen werden. Beim Sport wird vor allem zuerst die regionale und »unterklassige« Fußballberichterstattung automatisiert. Da selbst für untere Ligen genaue Zahlen, wie wer wann ein Tor schießt, gelbe/rote Karten, Zuschauerzahlen, etc. erhoben werden, kann daraus von einer Software ein Spielbericht erstellt werden, der dann meist wenige Sekunden nach Abpfiff schon online zu finden ist. Damit werden mehr Onlineinhalte generiert, was zu mehr Klicks und somit auch vermehrten Werbeeinnahmen führen soll. Laut Berichten diverser Medien (NDR, meedia.de, sportplatz-media.com) setzen die FussiFreunde von Radio Hamburg[5] eine Software der Firma Retresco[6] ein, um die Spielvorberichte der Kreisliga 6 generieren zu lassen. Ich selbst konnte allerdings auf deren Website keine automatisch generierten Vorberichte entdecken. Sport und dabei gerade Fußballberichterstattung eignet sich nicht nur wegen der massig vorhandenen Daten als Pionierfeld für Maschinentexte, sondern auch wegen der oftmals verwendeten Phrasen wie »ein Spiel auf Messers Schneide« oder »eine vernichtende Niederlage«, etc.

Weitere Einsatzgebiete von maschinell erzeugten Texten sind Produktbeschreibungen für Webshops, um höhere Absätze zu generieren, Wetterberichte, »Society News« und Finanzberichte. Das Wirtschaftsmagazin Forbes unterhält auf seiner Website sogar einen Blog, der nur aus dem Computer stammt[7]. Die Texte in diesem Blog stammen »aus der Feder« einer Software des US-Marktführers für Roboterjournalismus Narrative Science[8]. Roberterjournalismus ist in Verbindung mit Onlinemedien in der Lage, auch die Texte »on the fly«, sprich erst beim Ansurfen zu generieren, und dabei auch noch die Daten, die der/die Leser_in mitbringt, im einfachsten Fall anhand der IP Adresse den Standort, in den generierten Text einfließen lassen. So kann zum Beispiel der Wetterbericht auf die jeweilige Region angepasst werden. Wir hinterlassen aber eine Menge mehr Daten im Netz. Gerade Webshops und auch Suchmaschinen sind auch an unsren Vorlieben interessiert, um uns mit Produktempfehlungen zu versorgen oder passende Suchergebnisse zu präsentieren.
Das Phänomen der personalisierten Suchergebnisse ist als »Google Bubble« oder »Filterblase« bekannt. Das bedeutet zum Beispiel, dass ein User, der des Öfteren Urlaub in Griechenland macht und dabei nach Hotels über eine personalisierende Suchmaschine sucht, in Zukunft, wenn er nach Griechenland sucht, eher Hotels findet als griechische Geschichte oder Politik. Nun lassen sich auch journalistische Erzeugnisse personalisieren. Ich bin mir nicht sicher, wie toll es ist, auf weniger kontroverse Meinungen zu stoßen, nur weil das Netz weiß, was meine Vorlieben sind und daher mir nur Texte nach diesen Vorlieben generiert. In so einer Informationsblase zu leben erweitert sicherlich weder das Weltbild, noch führt es zu konstruktiven politischen oder gesellschaftlichen Diskursen.

Denkbar ist auch, mithilfe schreibender Computerprogramme Desinformation oder eigene Meinungen zu forcieren. Es passiert jetzt ja schon immer wieder, dass auf Wikipedia oder in diversen Foren sogenannte »Kampfposter« aus Parteizentralen, oder woher auch immer, unterwegs sind und dort versuchen, die Meinungen zu ihren Gunsten zu beeinflussen. So etwas ließe sich nun auch automatisieren, und zwar in zwei Richtungen. Zum einen können die Inhalte generiert und zum anderen auch automatisch gemonitored werden. Das heißt, es gibt ein Computerprogramm, das zum Beispiel ständig einige Wikipedia-Artikel überwacht und analysiert. Passiert dort ein Eintrag, der nicht passend ist, wird er gleich von einem anderen Programm, das den gewünschten Text produziert »korrigiert«. Konsequent weitergedacht würde das auch bedeuten, dass Bots gegen Bots um die Wette korrigieren. Eine irgendwie schauerlich belustigende Vorstellung.
Aber auch im Wirtschaftsbereich sehe ich das Potential einer computerisierten Autopoesis. Einerseits werden, wie erwähnt, Finanzberichte automatisiert erstellt, andererseits werden diese oftmals auch automatisch ausgewertet. So sprechen auch hier Computer mit Computern über den Umweg der menschlichen Sprache. Es werden ja schon seit geraumer Zeit an vielen Börsen der Welt Computerprogramme eingesetzt, die automatisch mit Aktien handeln. Solche Programme berücksichtigen aber nicht nur reine Finanzdaten, sondern oft auch Nachrichten aus der Politik. Gerade Onlinemedien bieten sich hier an, automatisch gelesen zu werden. So war es zum Beispiel möglich, dass im April 2013 die New Yorker Börse um 143 Punkte einbrach, nachdem auf dem gehackten Twitter Account von Associated Press verlautbart wurde, dass es Explosionen im Weißen Haus gab und Präsident Obama verwundet wurde. Dies lässt sich natürlich auch vortrefflich für Manipulationen verwenden.
Nun, da es möglich ist, menschliche Sprache durch Computer generieren zu lassen und sie Computern auch verständlich wird, stellt sich die Frage, wie wir damit umgehen wollen und werden. Ein Zurück in eine vermeintlich bessere Vergangenheit wird es nicht geben, und es hat auch keinen Sinn, Computer per Gesetz soweit in ihrer Leistung zu beschränken, dass Menschen weiterhin »konkurrenzfähig« bleiben. Vielmehr gilt es, Standards für Journalistensoftware einzuführen. Lorenz Matzat schlägt in seinem Blog »Datenjournalist« vor, »ein Zertifikat oder eine Clearingstelle für Roboterjournalismus-Software, die ihr ein journalistisches Verfahren bescheinigt«[9] einzuführen, eine Art Presseausweis für Computerprogramme. Und meint weiters, der »Presse-Kodex könnte Maßstab für die Modellierung der Algorithmen sein, die unmittelbar für das Erstellen und Anreichern von Texten zuständig sind«.

Zurück zur Ausgabe: 
#107
8

& Drupal

Versorgerin 2011

rss