Jahresthema "Social Bots": I am a Bot?
Wir sprechen mit Autos, Tieren, Geräten und Pflanzen. Wir Menschen neigen schon immer dazu Dinge und Tiere zu vermenschlichen. Heute aber antworten die Dinge. Softwareprogramme nehmen Gestalt an in Form von Personen oder Charakteren und treten in Spielen und in sozialen Medien in unseren Alltag. Nicht immer ist uns das bewusst, wir interagieren mit ihnen wie mit anderen Menschen. Wenn von »Social Bots« die Rede ist, dann sind damit Programme gemeint, die uns digital unterstützen oder als Menschen getarnt in sozialen Netzwerken auftauchen und sich aktiv an unserer Kommunikation beteiligen. Ja, sie sollen auch dafür verantwortlich sein, bestimmte Meinungen oder Tendenzen in den sozialen Medienkanälen zu verstärken. Dabei stellt sich die Frage: Wer sind die eigentlichen Autor_innen? Der Bot oder sein Programmierer? Wie selbstständig muss ein Bot sein, um ihm oder ihr eigenständiges Handeln zuzugestehen?
Mit der Vermenschlichung von Algorithmen tritt aber noch ein anderes Problem in den Vordergrund. Das Design und die Repräsentation von digitalen Hilfsdiensten, Social Bots und humanoide Roboter bergen Gefahren, stereotype gesellschaftliche Rollen zu reproduzieren – nicht zuletzt Geschlechterrollen. Dadurch, dass heute Bots durch Benutzer_innen lernen, ändern sich herrschende patriarchale und gesellschaftliche Verhältnisse und Rollenbilder nicht, sondern es besteht die Gefahr, dass wir in einer Art Loop hängen bleiben.
Mit welchem Namen, welcher Stimme und welchen Antworten Roboter designed werden, hält die Autorin Laurie Penny1 nicht nur für eine abstrakte akademische Frage, sondern sieht eine Verbindung zwischen der Art und Weise, wie Fembots auf der einen und reale Frauen auf der anderen Seite in unserer Gesellschaft behandelt werden. Viele Bots, die auf den Markt kommen und nicht zwingend ein Geschlecht brauchen, werden mit smarten weiblichen Persönlichkeiten ausgestattet. Dazu zählen Microsofts Cortana und Amazons Alexa, wie auch Apples Siri.
Microsoft hat eine klare Entscheidung getroffen und hat den Namen Cortana und ihre Stimme aus dem Microsoft-Videogame Halo2 für seine intelligente Software übernommen. Die Frauenfigur Cortana nimmt wie in vielen Mainstream-Videospielen eine problematische Rolle ein. Einerseits stark, anderseits devot und doch schön – und abhängig von einem Mastermind. Cortanas cleane blaue Platinenhaut kann nicht wirklich davon ablenken, dass diese Figur eigentlich nackt ist, während sich ihre männlichen Kollegen in modernen Roboter-Ritterrüstungen verstecken. Die feuchten Träume spätpubertierender Silicon Valley Programmierer?
Auch wenn die Cortana-App im Gegensatz zur ihrem Vorbild nur noch ein blauer sprechender Punkt mit Persönlichkeit ist, bleiben die Funktionen und möglichen sprachlichen Interaktionen dieser und ähnlicher Apps oft Stereotypen der weiblichen Unterwerfung. Auch im digitalen Raum scheinen ausgediente Ideen von Geschlechterrollen überhand zu nehmen auf Kosten möglicher Diversität.
Und im Forschungsfeld der künstlichen Intelligenz gibt es ein Problem. In dem Interview »Inside the surprisingly sexist world of artificial intelligence«3 sagt Marie desJardins, Professorin für Computerwissenschaft an der Maryland Universität: »Since men have come to dominate AI, research has become very narrowly focused on solving technical problems and not on the big questions.«
Die meisten Bots mit Persönlichkeit und natürlich klingenden weiblichen Stimmen erinnern, helfen, notieren, suchen, sind brav, funktionieren – und sprechen nicht unaufgefordert zurück. Sagen nicht nein. Sie bringen ihre »progressiven« Elterngesellschaften aber auch in eine moralische Situation. Die Praxis im Umgang mit persönlichen virtuellen Assistenten ist es, diese sprachlich herauszufordern und auch gewisse Grenzen auszuloten.
Das hat sich auch Leah Fessler, eine Redakteurin des Magazins Quarz4, vorgenommen, um herauszufinden, wie Bots auf sexuelle Belästigung reagieren und was die ethischen Implikationen ihrer vorprogrammierten Reaktionen sind. Sie erhob umfangreiche Daten. Das Ergebnis ist alarmierend: Anstatt gegen Missbrauch zu kämpfen, hilft jeder Bot mit, sexistische Verhaltensweise durch seine Passivität zu verstärken und sogar hervorzurufen. Sie twittere:
I spent weeks sexually harassing bots like Siri and Alexa – their responses are, frankly, horrific. It’s time tech giants do something. 5
Unternehmen erlauben den mündlichen Missbrauch von (Fem)Bots durch Benutzer_innen ohne Begrenzung und unterstützen so, dass Verhaltensstereotypen fortbestehen und vielleicht sogar verstärkt werden. Die missbrauchenden Nutzer können so ihre Handlungen als normal oder sogar akzeptabel verstehen.
Unterwürfig und dienstfertig
Gerne argumentieren Unternehmen damit, dass weibliche Stimmen besser zu verstehen sein und sie ihren digitalen Assistenten deshalb weibliche Stimmen geben. Selbst die geschichtliche Tradition, dass Frauen die Verbindungen von Telefonaten herstellten und so eine wichtige Rolle in der Geschichte der Technologie einnahmen, hält sich als Argument dafür, dass es doch positiv sei, Bots einen weiblichen Charakter zu geben.6 Kleine Lautsprecher könnten tiefe Töne nicht so gut wiedergeben, dient ebenso als Rechtfertigung für den bevorzugten Einsatz der weiblichen Stimme. Alles Mythen erklärt ein Artikel von Sarah Zhang7: Studien und technische Untersuchungen zeigen, dass das nicht der Fall ist.
Beim aus dem Winterschlaf erwachten Hype um künstliche Intelligenz könnte man denken, alleine durch »Deep Learning« seien Roboter und Bots tatsächlich bereits selbständig handelnde Entitäten. Dabei sind derzeit Algorithmen mehr als abhängig von menschlichen Trainern und Designern.
Bots in der Fiktion
Interessant ist, dass in dem tschechischen Science-Fiction-Theaterstück R.U.R.8 aus 1920 das Wort »Roboter« erstmals verwendet wurde. Es leitet sich sprachlich von »Sklave und Knechtschaft« ab. Die Roboter in dem Stück waren nicht mechanisch, sie waren menschenähnlich und dafür geschaffen, Arbeiten zu erledigen. Bis zum dem Zeitpunkt, wo sie beginnen, sich als ausgebeutete Klasse gegen ihre Herren zu wehren. Auch die künstliche Frau ist von der Antike bis in die Moderne die Vorstellung der perfekten Frau. Und das ist in der modernen Science Fiction bis heute so – neue Filme und Serien weichen kaum von historischen Einschreibungen über die Vorstellung von Frauen ab.
Auch in der neuen HBO-Serie Westworld, die 2016 erschienen ist, werden weibliche Roboter von Männern geschaffen, kontrolliert, benutzt und missbraucht. Westworld basiert auf dem Roman bzw. dem gleichnamigen Film Westworld aus dem Jahre 1973 von Michael Crichton. In einem Themenpark, der den Wilden Westen nachstellt, kommen menschenähnliche Roboter (Hosts) den, wie scheint, zutiefst menschlichen Bedürfnissen ihrer Gäste nach. Immer wieder kommt das Animalische und Abgründige des Menschen selbst vor.
Ein Abenteuer zu erleben, bedeutet in Westworld Dinge zu tun, die außerhalb dieser künstlichen Welt nicht ungehemmt möglich sind. Dazu gehört unter anderem auch sexuelle Gewalt. Die weiblichen Charaktere unterscheiden sich stark von den weiblichen Killer-Sex-Robotern aus den Austin-Powers-Filmen, die zwar witzig gemeint sind, aber doch geschmacklos bleiben und mit ihren aufgeblasenen Brüsten durch die Gegend ballern. Das wachsende Bewusstsein der Westworld-Fembots trägt aber wenigstens dazu bei, dass die liebenswerte, unschuldige Frau (die Figur Dolores) oder die kompetente Chefin eines Bordells (die Figur Maeve) im Verlauf der Serie ihre Schöpfer in Frage stellen und sich gegen sie zu wehren beginnen. Stereotype weibliche Rollen der Serie werden durch intelligente Dialoge aufgebrochen und regen jedenfalls zum Denken an.
Fembots in Filmen und TV-Serien behandeln oft Dynamiken von Macht, Sexualität und unsere Beziehung zu Technologie. Was aber ist mit den Bots, denen wir mehr und mehr in unserem Alltag begegnen werden? Der Trend geht offensichtlich in die Richtung, dass uns die Maschine in Zukunft möglichst menschlich und »feminin« begegnen soll. Der wahre Grund, dass Siri, Alexa, Cortana und Google Home weibliche Stimmen haben ist, weil sie so mehr Geld einbringen und bewährte Bedürfnisse von Kunden erfüllen sollen.
Abgesehen davon, dass wir der Frage nachgehen müssen, wie unsere Beziehung zu Maschinen anders aussehen könnte und ob es dazu nicht notwendig wäre, diese eben nicht zu vermenschlichen, wäre es doch auch befriedigend sich vorzustellen, dass jede übergriffige Belästigung oder anmaßende Frage an eine digitale Assistentin zu einem Systemabsturz führt oder vielleicht noch besser für Wutanfälle sorgen, die mit Zitaten aus feministischen Manifesten untermauert werden.
Genau hier eröffnet sich jedenfalls ein Feld für das Experiment und die Kunst, die abseits einer Marktlogik auf diese Entwicklungen eine wichtige andere Perspektive einbringen kann.
Us(c)hi Reiter, servus.at
Die in der Stadtwerkstatt arbeitende Netzkulturinitiative servus.at widmet sich in ihrem Jahresthema den »Social Bots«. In dieser Versorgerin sind noch zwei weitere Texte zum Thema abgedruckt:
[1] http://www.newstatesman.com/politics/feminism/2016/04/why-do-we-give-robots-femalenames-because-we-dont-want-consider-their
[2] https://www.youtube.com/watch?v=ACvIxGpzGs8
[3] https://qz.com/531257/inside-the-surprisingly-sexist-world-of-artificial-intelligence/
[4] https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/
[5] https://t.co/z5FGBruxWU — Leah Fessler (@LeahFessler) February 22, 2017
[6] https://www.youtube.com/watch?v=njW70pofZsg
[7] http://gizmodo.com/no-siri-is-not-female-because-womens-voices-are-easier-1683901643
[8] http://www.todayifoundout.com/index.php/2012/05/where-does-the-word-robot-come-from/
The Beneficial AI 2017 Conference. The Vision of the future? Something wrong in this image?