Bot or Not? Die Zukunft der Meinungsmache
Software-Roboter oder kurz Bots existieren, seit es Computer gibt. Den ersten Bot, der einer Unterhaltung folgen konnte, entwarf der britische Computerwissenschaftler und Mathematiker Alan Turing in den 1950iger Jahren. Sein bahnbrechendes Papier »Computing Machinery and Intelli-gence«1 bildet bis heute die Grundlage für die Entwicklung künstlicher Intelligenz. Turing arbeitete sich daran erstmals an der Frage ab, ob Maschinen denken können, und kam zu dem Schluß, dass man eher der Frage nachgehen sollte, ob »die Maschine« ein Spiel gewinnen kann, weil die Begriffe »Denken« und »Maschine« zu missverständlich wären. Er umgeht die Frage »Can machines think?«, indem er ein sogenanntes Imitationsspiel vorschlägt, an dem drei Personen beteiligt sind. Eine Beobachter_in soll anhand von ausgetauschten Textnachrichten das Geschlecht der beteiligten Personen zuordnen – einem Mann und einer Frau. Aufgabe der beiden Spieler ist es die Beobachter_in zu täuschen. Turings Idee, bekannt als der »Turing-Test«, knüpft an dieses Spiel an und ersetzt eine der Spieler_innen durch eine Maschine. Wenn die Beobachter_in der textbasierten Unterhaltung am Computer nicht feststellen kann, wer von den beiden Spieler_innen Mensch, wer Maschine ist, hat die Maschine gewonnen.
1966 entwickelt der deutsch-US-amerikanische Informatiker Joseph Weizenbaum ELIZA, ein Computerprogramm, das Gespräche in natürlicher Sprache nachahmen soll. Eliza gilt als der erste Chatbot, auch wenn ihre Möglichkeiten noch sehr eingeschränkt waren. Heutige Chatbots, wie etwa Mitsuku von Steve Worswick, der 2016 den Loebner-Preis gewann, agieren sehr viel überzeugender. Der Preis wurde 1991 ins Leben gerufen und wird jährlich verliehen. Die Goldmedaille – die noch nicht verliehen wurde – soll an den Chatbot gehen, der nicht von einem Menschen zu unterscheiden ist. Im jährlichen Wettbewerb werden Bronzemedaillen an den menschenähnlichsten Bot des Jahrgangs verliehen.
Bots sind in der digitalen Welt überall um uns: Sie suchen für uns bei Google, sie schreiben bei Twitter, sie schreiben Artikel zu Aktienkursen und Sportergebnissen. Forscher schätzen, dass im US-Wahlkampf ein Viertel der Tweets von Bots stammen. Dabei sollen die automatischen Nachrichten Stimmungen der Wähler verstärken.
Schon bei Weizenbaums Programm ELIZA, das über Skripte verschiedene Gesprächspartner simulieren konnte und wie eine Psychotherapeutin antwortete, öffneten sich die menschlichen Gesprächspartner und erzählten intimste Geheimnisse, was den Entwickler in Erstaunen versetzte. Das geschah, obwohl es offensichtlich war, dass Eliza kein Mensch, sondern ein eher einfach gestricktes Programm war. Es scheint, dass viele Menschen die Kommunikation mit Bots als unterhaltend und manchmal sogar poetisch empfinden. Agieren die Bots zu menschlich, kann das sogar kontraproduktiv wirken: Laut einer Microsoft-Studie von 2016 über Online-Aktivismus in Lateinamerika2, reagierten Anti-Korruptions-Aktivist_innen bei Online-Aktivitäten auf Twitter weniger motiviert, wenn die eingesetzten Twitter-Bots3 (Botivisten) zu menschlich wurden und etwa ihre Solidarität mit den Aktivist_innen teilten, während der Aufruf von Bots zum Widerstand gegen Korruption viel mehr Zuspruch fand und motivierend wirkte.
Wir sehen uns heute mit dem Problem konfrontiert, dass es immer schwieriger wird, festzustellen, wer oder was uns warum welche Antworten ausliefert, egal ob es sich um Ergebnisse aus einer Suchanfrage handelt oder darum, welche Nachrichten wir über diverse soziale Kanäle empfangen. Das hat weniger mit dem Fortschritt der Entwicklung der künstlichen Intelligenz zu tun, als mit der Möglichkeit unvorstellbare Mengen an Daten zu sammeln, diese auf bestimmte Weise automatisiert nach Mustern auswerten (Big Data) zu können und diese Auswertung in Algorithmen zu nutzen, die uns subtil in bestimmte Richtungen lenken.
Das geschah zum Beispiel im US-Wahlkampf. Im Artikel »The Rise of the Weaponized AI Propaganda Machine« zeigen die Autor_innen Berit Anderson und Brett Horvath, wie zugeschnittenes »direkt marketing« und der Einsatz von Bots dazu beigetragen haben, wie sich Wähler_innen im US-Wahlkampf 2016 verhalten haben.4 Jonathan Albright, Professor und Datenforscher an der Elon Universität in North Carolina/USA, stellt darin fest, dass Fake-News beim Sammeln von Daten über Nutzer_innen eine wichtige Rolle gespielt haben. Seinen Untersuchungen nach hat die Firma Cambridge Analytica durch Nutzertracking die verschiedenen Verhaltensweisen von Nutzern nachverfolgt und durch Algorithmen verstärkt. Wer bei Facebook Seiten in einem bestimmten Meinungsspektrum liked und bestimmte Fake-News-Seiten anschaut, dem wurden mehr solche durch Algorithmen erzeugte Botschaften und Nachrichten angezeigt, so dass sich die Effekte über die verschiedenen Kanäle verstärkten. Dabei nutzte Cambridge Analytica auch eingekaufte Nutzerprofile etwa von Amazon.
Hinter Cambridge Analytica steht die Familie von Robert Mercer, einem amerikanischen Hedge-Fund-Milliardär. Sie wird von konservativen Alt-Right-Interessen geleitet und ist eng mit dem Trump-Team verbunden (der Chefstratege von Trump Steve Bannon ist Vorstandsmitglied der Firma). Obwohl man nicht hundertprozentig nachweisen kann, dass die Trump-Kampagne von Cambridge Analytica unterstützt wurde, weil die Aufträge über Subfirmen vergeben wurden, so ist doch klar, dass Profilbildung, Social-Media-Marketing und -Targeting eine wichtige Rolle spielte. Damit wurde 2016 eine neue Ära der politischen Meinungsmache eingeleitet, in der Big Data und Mustererkennung gepaart mit Automatisierung neue Formen der politischen Einflussnahme ermöglicht, für die wir bisher keine Handhabe haben.
Der genannte Scout-Artikel stellt eine interessante Parallele fest: Wird in Zukunft öffentliche Meinungsmache ähnlich wie High-Frequency-Trading funktionieren, wo Algorithmen gegeneinander kämpfen und den Kauf und Verkauf von Aktien beeinflussen? Aktienhandel-Algorithmen analysieren Millionen von Tweets und Online-Postings in Echtzeit und steuern so den automatisierten Kauf und Verkauf von Aktien. Allerdings steht hinter jedem Algorithmus ein Mensch, der ihn programmiert und die Regeln festlegt. Die Schuld also ausschließlich den Bots zuzuschieben, führt nicht weiter. Was wir brauchen, sind ethische Kriterien, ob und wie automatisierte Systeme so genutzt werden können, dass sie einem demokratischen Diskurs dienen.
Social Bots sind semi-autonome Akteure, da ihr Verhalten einerseits von den Intentionen der Programmierer und andererseits von vorgegebenen Regelwerken und komplexen Algorithmen bestimmt wird. So definieren es die Internetforscher Samuel Woolley, danah boyd und Meredith Broussard in einem Artikel für Motherboard. Ohne Zweifel stellt das Auftreten von Bots die Gesellschaft vor ethische und politische Herausforderungen. Wir müssen uns um die Verantwortung und Transparenz Gedanken machen – beim Design, der Technik und der Regulierung der semi-autonomen Systeme, die wir selbst aufgebaut haben. Dazu gehören Fragen wie: Müssen Bots als Bots gekennzeichnet werden? Wie gehen wir mit Personalisierung um? Welche datenschutzrechtlichen Regelungen sind notwendig? Wer ist für Bots rechtlich verantwortlich – der Programmierer oder der Betreiber? Welche ethischen Regeln gelten für Bot-Programmierer?
All diese Fragen sind noch nicht beantwortet – manche können vielleicht gar nicht beantwortet werden. Trotzdem müssen wir uns ihnen stellen, vielleicht in Zukunft irgendwann nicht nur untereinander, sondern auch mit Bots.
Das AMRO Research-Labor widment sich 2017 dem Thema »Social Bots«: http://research.radical-openness.org/2017/
In Planung steht ein Symposium Anfang Mai in Kooperation mit der Linzer Kunstuniversität, Abteilung Zeitbasierte Medien.
Autor_innen: Valie Djordjevic & Ushi Reiter
[1] A. M. Turing: Computing Machinery and Intelligence, 1950, http://orium.pw/paper/turingai.pdf
[2] Saiph Savage. Andrés Monroy-Hernández. Tobias Hollerer: Botivist: Calling Volunteers to Action using Online Bots, 1 Feb 2016, https://www.microsoft.com/en-us/research/publication/botivist-calling-volunteers-to-action-using-online-bots/?from=http%3A%2F%2Fresearch.microsoft.com%2Fpubs%2F256068%2Fbotivist_cscw_2016.pdf
[3] Signe Brewster: How Twitter Bots Turn Tweeters into Activists, 18 Dec 2015, https://www.technologyreview.com/s/544851/how-twitter-bots-turn-tweeters-into-activists/
[4] Berit Anderson and Brett Horvath: The Rise of the Weaponized AI Propaganda Machine, Scout https://scout.ai/story/the-rise-of-the-weaponized-ai-propaganda-machine