Content

Kapitel 4: Verwendungsweisen Digitaler Kommunikation in:

Lukas Lehning

Digitale Kommunikation aus der Perspektive des Sozialbehaviorismus, page 117 - 150

Eine Untersuchung digital vermittelter Selbst-Wahrnehmung nach George Herbert Mead

1. Edition 2020, ISBN print: 978-3-8288-4430-8, ISBN online: 978-3-8288-7442-8, https://doi.org/10.5771/9783828874428-117

Series: Wissenschaftliche Beiträge aus dem Tectum Verlag: Sozialwissenschaften, vol. 92

Tectum, Baden-Baden
Bibliographic information
Verwendungsweisen Digitaler Kommunikation Um herausfinden zu können, wie sich die Nutzung digitaler Kommunikationskanäle auf das Verhältnis eines Menschen zu anderen Menschen und zu der von ihm verwendeten Technik auswirkt, werde ich – analog zum dritten Kapitel – die Kommunikation über Instant Messenger, die Kommunikation in sozialen Netzwerken und die Kommunikation mit digitalen Agenten bzw. Social Bots in den Blick nehmen.71 Basis meiner Überlegungen bilden Befragungen, die sich entweder an die gesamte deutschsprachige Bevölkerung ab 14 Jahren oder an die Gruppe deutschsprachiger Internetnutzerinnen und -nutzer zwischen 14 und 24 Jahren richten. Medienhandeln – zweiter Teil Digitale Technologie hat innerhalb kürzester Zeit unseren Alltag dramatisch verändert. Wir gestatten Zugang zu unserer Privatsphäre in einem Ausmaß, der vor zwanzig Jahren noch unvorstellbar gewesen wäre. Dabei gäbe es gute Gründe für einen sensiblen Umgang mit unseren Daten. Doch trotz der seit 2017 gehäuft bekannt gewordenen Datenschutzverstöße wird die digitale Technik als positiv empfunden (vgl. Borgstedt, 2016: 107). Einschränkend ist zu bemerken, dass sich vor allem die euphorische Haltung junger Nutzerinnen und Nutzer in den letzten Jahren relativiert hat. So sind die Anmeldungen in digitalen sozialen Netzwerken in Deutschland rückläufig und 86 % der Befragten zwischen 14 und 24 Jahren messen dem persönlichen Gespräch weiterhin große Bedeutung zu (vgl. Otternberg, M. S., Joanna, 2018: 61). Kapitel 4: 4.1 71 Zur Begründung für diese Auswahl, siehe Kapitel drei. 117 In der deutschsprachigen Bevölkerung ab 14 Jahren ist der Anteil der Onliner 2018 in Deutschland erstmals auf über 90 Prozent gestiegen, drei Viertel der Bevölkerung gehen täglich online. Auch die Verweildauer im Internet ist noch einmal angestiegen von 149 Minuten täglich im Jahr 2017 auf 196 Minuten 2018 (Koch & Frees, 2017: 435). 14- bis 24-Jährige sehen primär Verbesserungen und Chancen durch digitale Innovationen, doch sie nehmen zunehmend auch Risiken und große Herausforderungen wahr. Diese drehen sich insbesondere um drei Gefahrenkomplexe: Identitätsgefährdung, d.h. der Angriff auf die persönliche Unversehrtheit durch Beleidigung, Mobbing oder das Veröffentlichen intimer Informationen: Es geht ihnen dabei insbesondere um die Verknüpfung persönlicher und personenbezogener Daten mit konkreten Einstellungen und Aktivitäten. Sie haben Angst um ihre Reputation und damit um ihre künftigen beruflichen und sozialen Chancen. Unterscheidung von Wahr und Falsch im Internet: Das Thema „Fake“ ist mitten ins Bewusstsein gerückt und bringt das grundsätzliche Vertrauen in das Medium stark ins Wanken, auch wenn man im Alltag meint oder hofft, die richtige Information ausgewählt zu haben. Unsicherheit, ob und wovon man eigentlich betroffen ist: Auch, wenn einige im Hintergrund laufende Prozesse durchaus bekannt sind (Tracking, Cookies) oder man zumindest theoretisch schon mal davon gehört hat, dass Online-Aktivitäten nachverfolgbar sind – was genau andere über einen wissen und damit anfangen können, ist unklar und schafft diffuses Unbehagen. Das Internet wird als Blackbox erlebt, denn man tappt zumeist im Dunkeln, weiß nicht genau, was im Hintergrund geschieht, worauf man sich verlassen kann und welche Sicherheitsmaßnahmen sinnvoll sind. (Otternberg, M. S., Joanna, 2018: 104) Es sind vor allem Instant Messenger, deren Verwendung zunimmt, während die Nutzung von digitalen sozialen Netzwerken vor allem unter den jüngeren Nutzerinnen und Nutzern in den letzten Jahren zurückgeht (vgl. Otternberg, M. S., Joanna, 2018: 63). Auffällig ist, dass nicht viele soziale Netzwerke nebeneinander existieren, sondern wenige, gemessen an ihren Nutzerzahlen große Netzwerke. Kapitel 4: Verwendungsweisen Digitaler Kommunikation 118 So waren 2017 drei Viertel der Befragten, die in einem digitalen sozialen Netzwerk angemeldet waren, bei „Facebook“ (vgl. SocialMediaMonitorQ4, 2017: 5).72 Die Nutzung von Messenger Diensten steigt hingegen. Laut „Media Activity Guide“ 2017 liegt die Nutzungsdauer von Messengern im Durchschnitt bei 30 Minuten pro Tag und steigt immer weiter an (Media, 2018: 1).73 Nutzung von Instant Messengern in Zahlen Laut aktuellen Zahlen nutzen derzeit 27,7 Millionen Menschen in Deutschland Instant Messenger. Abgeleitet aus der dynamischen Nutzungssteigerung der vergangenen Jahre könnten es im Jahr 2020 bereits 30,3 Millionen Menschen sein (vgl. Dossier-InstantMessenger, 2017: 7). Regelmäßige Nutzerinnen und Nutzern finden sich vor allem in der Altersgruppe bis 50 Jahre. Die größte Anzahl gehört zur Altersgruppe der 18–29-Jährigen (Dossier-InstantMessenger, 2017: 9).74 Genutzt werden die Instant Messenger vor allem für das Versenden kurzer Textnachrichten. Bilder und Videos werden als Angebote weniger wahrgenommen (vgl. GfdS 2018c: 1). Verbreitet sind auch sogenannte Emoticons, also schriftbildliche Symbole. Mit ihnen kann einem Gefühl Ausdruck verliehen werden, sie helfen bei der Interpretation von Geschriebenem, erlauben – zumindest in Maßen – unterschiedliche Konnotationen oder ersetzen zur Zeitersparnis eine Textnachricht. Die beiden Gründe, die die Befragten am häufigsten für die Verwendung der Emoticons angegeben haben, lauten: „um die Konversation aufzulockern“ und „weil damit Gefühle besser ausgedrückt werden können“ (GfdS, 2018a: 1). 4.2 72 Experten rechnen mit einer Konzentration auf wenige große Netzwerke, kleine Netzwerke dagegen werden verschwinden (SocialMediaMonitorQ4, 2017: 33). 73 Bei der Nutzungsdauer von 30 Minuten ist zu beachten, dass sie sich aus dem Durchschnitt der Gesamtbevölkerung ab 14 Jahren bildet und nicht nur aus den Menschen, die über Instant Messenger kommunizieren. 74 Unter den 14–19-Jährigen gaben in Deutschland 98 % an, einen Instant Messenger zu nutzen (Dossier-InstantMessenger, 2017: 57). 4.2 Nutzung von Instant Messengern in Zahlen 119 In der Zielgruppe der Jugendlichen wurde außerdem angegeben, die Kommunikation mache „Spaß“ (GlobalWebIndex, 2018: 1). Diese Aussage scheint die von Flusser prognostizierte zunehmende Relevanz der Verbindung mit anderen Kommunikationsteilnehmerinnen und -teilnehmern zu untermauern. Sie wird als relevanter betrachtet als die über sie vermittelten Informationen. Auch bei den Messenger Diensten verhält es sich wie bei den sozialen Netzwerken: Wenige Anbieter vereinen den Großteil der Nutzerinnen und Nutzer auf sich. Diese Tendenz wird in der Altersgruppe deutschsprachiger Jugendlicher und junger Erwachsener zwischen 14 und 25 besonders deutlich: Als weitgehend unverzichtbar gilt entsprechend der Instant-Messaging- Dienst WhatsApp, der für viele die – in ihrer Wahrnehmung – kostenfreie und zudem funktional überlegene Alternative zu SMS (Short-Messaging- System) geworden ist. (Otternberg, M. S., Joanna, 2018: 63) Nutzung von digitalen sozialen Netzwerken in Zahlen Auch bei den sozialen Netzwerken verteilen sich die Nutzerinnen und Nutzer nicht gleichmäßig auf verschiedene Angebote, sondern es bildet sich ein großes Netzwerk heraus, in welchem der größte Anteil der Nutzerinnen und Nutzer angemeldet ist. Als Begründung für ihre Aktivität in sozialen Netzwerken gaben die Befragten vorrangig an, durch die digitalen sozialen Netzwerke sozial eingebunden zu sein und sich mit „Freunden“ zu vernetzen (42 %). Auch die Antwort „um freie Zeit zu füllen“ wurde häufig gegeben (39 %). Neue Kontakte zu knüpfen, wurde als Motiv weniger genannt (27 %) (Global- WebIndex, 2017: 1). Zieht man die Medialität privater Kommunikation auf Facebook mit ins Kalkül, so lassen sich diese Kommunikationspraktiken nicht nur im Medium der Sprache, sondern auch im Medium des Netzwerks verorten. Und das müssen sie auch, um adäquat beschrieben und verstanden zu werden: Schreibpraktiken sind hier weder einfach „talking in interaction“, noch einfach „writing in interaction“, sie sind vielmehr auch „networking in interaction“. (Barth, 2015: 484) Bis zum Jahr 2017 verzeichnete Facebook stetig steigende Anmeldungen unter den deutschsprachigen Befragten (vgl. Dossier-SozialeNetzwerke, 2017: 13). Derzeit jedoch stagnieren die Anmeldungen mit Blick auf die 4.3 Kapitel 4: Verwendungsweisen Digitaler Kommunikation 120 deutschsprachige Gesamtbevölkerung. Sie nahmen im Vergleich zwischen dem ersten und dem zweiten Quartal 2018 sogar etwas ab (investor.fb.com, 2018: 2). Unter den Befragten sind es vor allem die Jugendlichen und jungen Erwachsenen, die von Social-Media-Angeboten mit Netzwerkcharakter zu Messenger Diensten wechseln. In der U25-Studie 2014 gab es ein Kapitel mit der Überschrift „Internet = Facebook“. Nahezu alles, was für Jugendliche vor ein paar Jahren online relevant war, spielte sich auf dieser Plattform ab. Was ist passiert? Wesentlicher Grund dafür, Facebook nicht (mehr) zu nutzen, ist schlicht, dass das Angebot nicht mehr interessant für die 14- bis 24-Jährigen ist. Auch die Gründe an zweiter und dritter Stelle weisen in diese Richtung: 52 Prozent nutzen andere Angebote und verzichten deshalb; bei 41 Prozent ist ausschlaggebend, dass die Freunde andere Dienste nutzen. (Otternberg, M. S., Joanna, 2018: 63) Innerhalb der Netzwerke ist zu beobachten, dass eine relativ geringe Anzahl aktiver Nutzerinnen und Nutzer – also solcher, die Inhalte in den Netzwerken verbreiten – einer großen Zahl passiver Nutzerinnen und Nutzer gegenübersteht (vgl. Otternberg, M. S., Joanna, 2018: 66). Gefragt nach dem Vertrauen in soziale Netzwerke, gaben 66 % an, nicht zu vertrauen, 15 % zu vertrauen und 19 % hatten keine Meinung. Betrachtet man mehrere Jahre im Verlauf, so hat das Vertrauen beständig abgenommen. Interessanterweise hat das aber nicht zu einem Rückgang der Nutzerzahlen geführt (Dossier-SozialeNetzwerke, 2017: 17). Der Vertrauensverlust lässt sich vermutlich zum einen mit den Skandalen im Zusammenhang mit den sozialen Netzwerken erklären: Datenmissbrauch, Filterblasen, Fake-News, um nur ein paar Stichpunkte zu nennen. Zum anderen sinkt das Vertrauen mit der Angst davor, auf Grundlage von kommunikativem Verhalten in diesen Netzwerken beleidigt und angegriffen zu werden (vgl. Otternberg, M. S., Joanna, 2018 : 67). Zu diesem Vertrauensverlust trägt außerdem die Möglichkeit der rasanten Verbreitung von Falschmeldungen bei. So ließen sich im Jahr 2017 47 % der durch Social Bots verbreiteten Falschmeldungen auf „Facebook“ finden (PwC, 2017: 42). Herauskristallisiert hat sich die Erkenntnis, „[…] dass wir die Wahrheit, Echtheit und Ehrlichkeit der Informationen, persönlicher Selbstdarstellungen, der Beziehungen und 4.3 Nutzung von digitalen sozialen Netzwerken in Zahlen 121 der Kommunikation im Netz nur schwer beurteilen können“ (Emmer et al., 2013: 9). Kommunikation mit digitalen Agenten Betrachten wir nun zunächst die Interaktion von Menschen mit Chatbots, also den digitalen Agenten, die sich nicht als kommunizierende Menschen tarnen. Da Social Bots auf die durch Nutzerinnen und Nutzer zur Verfügung gestellten Daten angewiesen sind, sind sie vor allem in sozialen Netzwerken aktiv. Um hier das Verhalten einer Person erkennen zu können, sind sie in der Lage, das Klickverhalten einer Person zu erfassen. „[…] Das Klickverhalten oder Click-Stream, beschreibt die bewusste Selektion von alternativen Webpages im WWW und damit das sog. Handeln“ (Silberer 2005: 117). Während wir im Internet unterwegs sind, um Informationen zu sammeln, unterhalten zu werden oder soziale Bindungen zu pflegen, uns dabei aber selten absolut zielgerichtet bewegen, sind die Such- und Auswertungsprogramme von Big Data darauf programmiert, noch die kleinsten Datenspuren, die wir im Netz hinterlassen, zu clustern, auszuwerten und in grö- ßere Analyseraster einzuspeisen. (Bussemer, 2017: 35) Die Analyse dieses Verhaltens ermöglich es dem Bot, auf die Person zu reagieren. Damit wird das Klickverhalten einer Person für den Bot zu dem, was kommunikatives Verhalten eines Menschen für einen anderen Menschen darstellt: ein Ausdruck seiner Handlungsabsicht. Auffällig wird ein Bot, wenn er „sinnlose“ oder „übermäßig häufige“ Beiträge produziert (Ballhaus, 2018: 12). The challenge of social bot detection has been framed by various teams in an adversarial setting. One example of this framework is represented by the Facebook Immune System: An adversary may control multiple social bots (often referred to as sibyls in this context) to impersonate different identities and launch an attack or infiltration. (Ferrara et al., 2016: 100) Durch immer präzisere Programmierung lassen sich Social Bots immer schwerer in sozialen Netzwerken erkennen und können sich deshalb immer unbemerkter an Mitglieder herantasten. 4.4 Kapitel 4: Verwendungsweisen Digitaler Kommunikation 122 Examination of ground-truth clickstream data shows that real users spend comparatively more time messaging and looking at other users’ contents (such as photos and videos), whereas Sybil accounts spend their time harvesting profiles and befriending other accounts. (Ferrara et al., 2016: 102) Doch unabhängig davon, ob digitale Agenten sich als solche zu erkennen geben oder nicht, stehen hinter ihnen Menschen als Entscheidungsträger, die konkrete Interessen verfolgen. Diese Interessen sind maßgeblich dafür verantwortlich, ob ein Chatbot als solcher zu erkennen ist oder ob er getarnt agiert. Programme, die dazu dienen, den Service auf Internetseiten zu erweitern, sind in der Regel als solche zu erkennen. Geht es jedoch darum, Entscheidungen, Meinungen und Produktpräferenzen der Nutzerinnen und Nutzer zu analysieren und unter Umständen zu manipulieren, kommen zumeist verdeckt arbeitende Bots zum Einsatz (vgl. Kollerus, 2017: 18). Folgen der Nutzung – Instant Messenger Instant Messenger dienen der Kommunikation von Menschen untereinander und werden fast ausschließlich mobil genutzt. Das erklärt ihre zunehmende Beliebtheit zum Teil. Hierbei wird die Verbindung mit den Kommunikationspartnern, eine schnelle und unkomplizierte Kontaktaufnahme und die Möglichkeit, Bilder und Videos zu versenden, als vorteilhaft angesehen. Anders als in den sozialen Netzwerken bilden sich seltener Strukturen heraus, in denen es aktiv und passiv Beteiligte gibt. Zudem sind, anders als in den sozialen Netzwerken, bei den Instant Messengern Algorithmen nicht an der Distribution von Informationen beteiligt. Die Hierarchien sind eher flach. Auf Flusser bezugnehmend kann davon gesprochen werden, dass hier offensichtlich die Verbindung der Nutzerinnen und Nutzer einer „Verbündelung“ von kommunikativen Machtstrukturen überlegen ist. Auffällig ist, dass das Versenden von Bildern und Videos zunehmend die Funktion der Textnachricht zu verdrängen scheint. Zur Kommunikation mit Hilfe von technisch erzeugten Bildern hatte Flusser bereits vor der Entstehung des World Wide Web Überlegungen angestellt. Ändert sich die Bezugnahme zur Welt von einer durch Schrift vermittelten zu einer 4.5 4.5 Folgen der Nutzung – Instant Messenger 123 durch Bilder vermittelten, ist die Welt nach Flusser nur noch situativ begreifbar (vgl: Flusser, 1997a: 60). In welchem Ausmaß Textnachrichten tatsächlich durch Bilder substituiert werden, ist allerdings noch empirisch zu untersuchen. Dennoch lässt sich bereits jetzt erkennen, dass die Kommunikation über Bilder eine völlig andere Qualität von Kommunikation bedeutet. Nach Flusser hat sie einen erheblichen Einfluss auf die Möglichkeit, unsere Selbst-Wahrnehmung mit anderen Menschen in der kommunikativen Interaktion zu entwickeln. Bilder können keinen Prozess zeigen, sondern halten immer nur Ausschnitte dieses Prozesses fest. Das Bewusstsein, das dem Bild entspricht, nennt man magisches, mystisches Bewusstsein; und das Bewusstsein, das dem linearen Scheiben, der prozesshaften Sichtweise entspricht, nennt man politisches Bewusstsein. (Flusser, 1990a: 106) Eine zweite Charakteristik menschlichen Kommunikationsverhaltens, die Flusser bereits entstehen sah und die sich nun zu bestätigen scheint, besteht darin, dass die Vernetzung als solche wichtiger ist als der durch sie vermittelte Inhalt. Bestätigt wird dies durch die Ergebnisse der Studie „What do they snapchat about? Patterns of use in time-limited instant messaging service” bestätigt: It seems that popularity and patterns of Snapchat use highlighted in our study might be a sign of a new form of digital narrative rising amongst younger population of social media users – a narrative that is achieved by seamless and playful use of smartphones to capture and share contentrich moments that cease to exist a second later. (Piwek & Joinson, 2016: 365) In Kapitel zwei habe ich Flussers Annahme dargestellt, dass wir uns als Menschen durch die Vernetzung in „Knoten“ aus Informationen verwandeln und uns erst durch die Verbindung mit anderen realisieren (Flusser, 1985: 96). Außerdem haben Nutzerinnen und Nutzer durch die unkomplizierte, schnelle und mobile Nutzung dieses Kommunikationskanals vermehrt am Alltag andere Nutzerinnen und Nutzer oder besser gesagt an dem Ausschnitt, der sich durch diesen Kanal vermitteln lässt, teil. In dieser in den Alltag der Nutzerinnen und Nutzer integrierten Kommunikationsform sieht Sherry Turkle (2016) eine erhebliche Ge- Kapitel 4: Verwendungsweisen Digitaler Kommunikation 124 fahr für die Entwicklung des menschlichen Selbst-Bilds. Diese Gefahr wird ihrer Meinung nach durch die mobile Nutzung und die daraus entstehende Omnipräsenz des Kommunikationskanals noch verstärkt. Mit den Begriffen „solitude“ und „loneliness“ bezeichnet sie den Unterschied zwischen einer aus ihrer Sicht von den Menschen als angenehm empfundenen Abgeschiedenheit (als Gefühl des Für-Sich- Seins) im Kontrast zur als Einsamkeit empfundenen Kontaktlosigkeit (loneliness). Nach Turkle haben Menschen durch die zunehmende Durchdringung ihres Alltags durch die digitale Kommunikation immer weniger Zeit für sich selbst (solitude). Daraus schließt sie, der Mensch könne die auf ihn einwirkenden kommunikativen Einflüsse nicht verstehen. Die Folgen seien Überforderung, die wiederum zu einer Verunsicherung im Umgang mit anderen Menschen führe. Trotz ihrer Verunsicherung durch Überforderung ist die Bedingung für Bewusstsein auch für Turkle der Kontakt mit anderen. Die ständige technisch ermöglichte Verbindung mit anderen Menschen führe die Abwesenheit von Kommunikation zu dem Empfinden von Einsamkeit (loneliness) (vgl. Turkle, 2016: 81).75 Ob die Verwendung eines Messenger Dienstes für diese Empfindungen ursächlich ist oder ob es generell eher zu einem Verstärkungseffekt bereits zuvor vorhandener Empfindungen kommt, wie es Nicola Döring nahelegt, gilt es noch zu untersuchen (vgl. Döring, 2014: 264). Dieser in der Literatur auch als „Matthäus-Effekt“ bezeichnete Vorgang beschreibt eine Situation, in der Nutzerinnen und Nutzer Verhaltensweisen, die sie in der face-to-face- Kommunikation zeigen (z.B. Extrovertiertheit) auch online – durch 75 Durch den dauernden Informationsaustausch der Menschen entsteht nach Byung Chul Han eine Art „Transparenzzwang“ (Han, 2015a: 50). Wie Turkle hält auch Han das Moment der Privatheit für erforderlich, damit eine Person ein Selbst-Bild ausbilden kann. Dieses Moment der Privatheit sieht Han sowohl durch den scheinbaren Zwang zur Transparenz als auch durch den Überfluss an Informationen gefährdet. Durch den Zwang zur Teilnahme an einer Kommunikationsform geht der Mensch nach Han seines inneren und unangetasteten Kerns verlustig. Als Konsequenz sieht er ähnlich wie Turkle eine Verkümmerung der personalen Identität (Han, 2015b: 61). Han differenziert allerdings nicht zwischen personaler Identität, die sich in der Interaktion mit anderen Personen erst bildet (und damit eine Art Selbst-Bild begründet) und einer vom Subjekt selbst wahrgenommenen inneren Verbundenheit mit diesen Erfahrungen. 4.5 Folgen der Nutzung – Instant Messenger 125 die hier gegebenen Möglichkeiten der Selbst-Darstellung – verstärkt zeigen. Der „Matthäus-Effekt“ widerspricht der Annahme, dass die digitale Kommunikationstechnik die Nutzerinnen und Nutzer zu vollkommen neuen Verhaltensweisen animiere (Marr, 2010: 274). Mead geht von einem wechselseitigen, vernunftgeleiteten Austausch aus, der Selbsterkenntnis quasi impliziert. Vor diesem Hintergrund ist es lohnenswert, sich mit den von Turkle dargestellten Konsequenzen zu befassen: Ein Bedürfnis nach Kommunikation kann digital erzeugt, muss jedoch nicht befriedigt werden. Die technischen Möglichkeiten erlauben zwar eine hohe Anzahl von Kontakten, garantieren jedoch keineswegs deren Qualität. Turkle beschreibt beliebige Kontakte, deren Ziel eher der Selbstdarstellung und Zerstreuung als der Reflexion und Korrektur des Selbst-Bildes dient. Nach Turkle sind Nutzerinnen und Nutzer unsicher darin, die Reaktionen auf ihr kommunikatives Verhalten zu antizipieren. Sie begründet das mit dem Fehlen wichtiger Informationen wie Mimik, Gestik und Wissen über den Kontext, in dem das Gegenüber mit kommunikativem Verhalten konfrontiert ist. Aus dieser Verunsicherung leitet Turkle den Wunsch nach Distanzierung von Interaktionspartnerinnen und -partnern ab. So entstehe die paradoxe Situation, sich einerseits ohne Kontakt zu anderen Menschen einsam zu fühlen, andererseits aber von dieser fast pausenlosen Verbindung derartig überfordert zu sein, dass sich Nutzerinnen und Nutzer in eine digital erzeugte Distanz flüchten (vgl. Turkle, 2012: 177). Digitale Distanz meint hier, dass Menschen, verbunden über einen digitalen Kommunikationskanal, nicht mit dem vollen Spektrum menschlicher Reaktionen auf ihr Verhalten konfrontiert sind, sich Reaktionen leichter entziehen können und sich weniger unmittelbar verhalten müssen als in einer face-to-face-Kommunikationssituation. Dieses Nähe-Distanz-Verhältnis beschreibt Turkle mit dem Begriff „Goldilocks effect“.76 We can’t get enough of each other if we can have each other at a digital distance – not too close, not too far, just right. (Turkle, 2016: 29) 76 In Anlehnung an das Märchen „Goldilocks and the Three Bears” beschreibt der Effekt den Zustand perfekter Distanz. Das Märchen wurde von R. Southey 1837 ver- öffentlicht. Kapitel 4: Verwendungsweisen Digitaler Kommunikation 126 Einmal abgesehen davon, dass Nähe-Distanz-Probleme nicht nur in der digitalen Welt existieren, ist an Turkles Ansatz problematisch, dass die Beschreibung der Effekte digitaler Kommunikation gleichzeitig mit der Beschreibung dieser Kommunikationskanäle erst begründet wird. Unbeachtet bleibt, ob die Nutzerinnen und Nutzer bereits zuvor daran interessiert waren, Distanz zu ihren Kommunikationspartnerinnen und -partnern zu wahren und deshalb einen digitalen Kommunikationsweg gewählt haben, oder ob sich dieses Bedürfnis erst auf diesem Wege eingestellt hat. Die bereits in Kapitel drei angesprochene räumliche und zeitliche Entgrenzung der Kommunikationssituation spielt in diesem Zusammenhang eine Doppelrolle. Auf der einen Seite ermöglicht sie es den Nutzerinnen und Nutzern, sich vom Gegenüber der Kommunikation zu distanzieren, auf der anderen Seite trägt sie dazu bei, dass Nutzerinnen und Nutzer von Instant Messengern einer höheren Anzahl kommunikativer Einflüsse ausgesetzt sind, da sie mit mehreren Personen nahezu zeitgleich kommunizieren können. Vermutungen darüber, dass die Mitteilung von Emotionen in Instant Messengern Einschränkungen unterliegt, erscheinen zwar zunächst eingängig (vgl. Bak, 2015: 79), sie sind aber – vor allem mit Hinblick auf die Möglichkeit der Verwendung von Emoticons – empirisch zu prüfen. Dass Mitteilungen von Instant Messengern sich darin von anderen textbasierten Nachrichtendiensten unterscheiden, darf bezweifelt werden. Zu bedenken ist hier, dass eine wesentliche Funktion, nämlich der Vorteil der Geschwindigkeit von Senden und Empfangen kurzer Nachrichten, nicht vorsieht, differenzierte Gefühlszustände mitzuteilen, diese jedoch auch nicht verhindert. Nonverbale Signale wie Mimik, Gestik und Betonung können kaum substituiert werden. Die Verwendung von Emoticons könnte ein Hinweis darauf sein, dass diese Ebene vermisst wird und Emoticons als Hilfsmittel zur Äu- ßerung einer Gefühlslage dienen. Erste Studien, die Ansätze aus der Psychologie und der Kommunikationswissenschaft miteinander verbinden, geben hier Anhaltspunkte:77 77 Die Begriffe Emoticon und Emoji werden in der Literatur häufig synonym verwendet. Dennoch bestehen Unterschiede. Emoticons, gebildet aus Buchstaben, Satzund Sonderzeichen, sind die Vorgänger der Emojis. Diese haben sich zwar aus den Emoticons entwickelt, bestehen jedoch aus kleinen Symbolbildern. Da vor allem 4.5 Folgen der Nutzung – Instant Messenger 127 By simulating […] situation[s] in which advisors provided advice containing emoticons, we confirmed that emoticons are important for advice provided online. Further, given that people are increasingly distracted and multi-tasking online, they may be less able or motivated to process information centrally when receiving a message through instant messaging. (Duan, Xia & Van Swol, 2018: 57) Emoticons ermöglichen dem Menschen zwar, Emotionen darzustellen, bedeuten jedoch einen technischen Eingriff in menschliche Kommunikation. Durch die schriftbildliche Codierung tragen sie zu einer Standardisierung des Spektrums menschlicher Emotionen bei. Hier ist an Flussers visionäre Gedanken zur Ablösung schriftlicher Kommunikation durch eine in technischen Bildern (oder hier Symbolen) erzeugten Vermittlung von Kommunikation zu erinnern. Der Ausdruck von Emotionen wird in Einzelelemente zerlegt. Es entsteht eine Hierarchie von Bildern, in der das isolierte Bild größere Bedeutung erhält als der Kontext, in dem es verankert war. Wie das Alphabet ursprünglich gegen die Piktogramme, so gehen gegenwärtig die digitalen Codes gegen die Buchstaben vor, um sie zu überholen. Wie ursprünglich das sich aufs Alphabet stützende Denken gegen Magie und Mythos (gegen Bilderdenken) engagiert war, so ist das sich auf digitale Codes stützende gegen prozessuelle, „fortschrittliche“ Ideologien engagiert, um sie durch strukturelle, systemanalytische, kybernetische Denkweisen zu ersetzen. (Flusser, 2002: 141) Auch hier scheint sich das visionäre Denken Flussers zu bewahrheiten. Schließlich ist das „Bilderdenken“ mittlerweile derartig weit fortgeschritten, dass Mitteilungen zwischen Personen zum Teil nur noch in Form von Emoticons erfolgen – die Verwendung von Text also durch den Austausch von Bildsymbolen ersetzt wurde. So geben derzeit 47 Prozent der Befragten zwischen 14 und 60 Jahren an, in Textnachrichten meistens Emojis zu verwenden (GfdS, 2018b: 1). Messenger Dienste entsprechende Zeichenkombinationen automatisch in Emojis verwandeln, werde ich die Begriffe in dieser Arbeit ebenfalls synonym verwenden. Kapitel 4: Verwendungsweisen Digitaler Kommunikation 128 Folgen der Nutzung – Soziale Netzwerke Die Selbst-Darstellungen in sozialen Netzwerken sind durch Vorgaben der Netzwerke standardisiert. Anmeldungen durch ein Profil erfassen soziodemographische Daten wie Alter und Geschlecht und die E-Mail- Adresse. Es wird erwartet, dass das Mitglied persönliche Daten bekanntgibt. Durch die Zustimmung zu den allgemeinen Nutzungsbedingungen tritt es erhebliche Rechte ab, die erlauben, seine Daten zu speichern, zu verwerten und in andere Zusammenhänge zu stellen. Profile sind also weit mehr als Selbstpräsentationen. Man könnte ein Profil mit einem Eisberg vergleichen. Der kleinere Teil an der Oberfläche ist für Menschen sichtbar, der größere verbirgt sich vor dem Blick der Menschen und ist nur für Algorithmen erkennbar.78 Der obere Teil ist – im Rahmen der Möglichkeiten, die das Netzwerk zur Verfügung stellt – aktiv vom Mitglied gestaltbar und hier können Eigenschaften an anderen wahrgenommen werden, ohne dass diese handeln müssen. Der obere Teil wird durch das Verhalten der Mitglieder in sichtbarer Weise, der untere in unsichtbarer Weise geformt. Im unteren Teil, auf den die Mitglieder keinen Einfluss haben, werten Algorithmen die Daten des oberen Teils aus, vernetzen sich mit anderen Datenbanken, bestimmen die Regeln, nach denen sich die Nutzerinnen und Nutzer zu verhalten haben. Die technischen Codes determinieren das kommunikative Verhalten, indem sie es normieren. Sie bestimmen Verhalten, indem sie erlauben, begünstigen, auffordern, verhindern und verbieten. Die Annahme, ein soziales Netzwerk stelle eine technische Infrastruktur bereit, für deren Nutzung mit der Preisgabe von Daten zu bezahlen sei, erfasst nur einen Aspekt der Beziehung zwischen Netzwerk und Mitgliedern. Algorithmen lernen auf Basis von Daten, wahrscheinliches Verhalten zu errechnen und Empfehlungen zu geben. 4.6 78 Was diese hier sehen können, werden wir im Folgenden noch genauer betrachten. An dieser Stelle ist zunächst zu bemerken, dass dieser Teil des Eisbergs mit jedem Klick, den sein Besitzer oder seine Besitzerin macht, automatisch wächst. 4.6 Folgen der Nutzung – Soziale Netzwerke 129 Die Informatikerin Katharina Zweig antwortet auf die Frage, ob „Empfehlungsalgorithmen“ unsere Entscheidungsfreiheit beeinträchtigen: Ich will hoffen, dass wir noch entscheidungsfrei sind, aber es scheint ziemlich viele Nebenbedingungen zu geben. Unter Stress sind wir weniger entscheidungsfrei als im entspannten Zustand. Wenn wir den ganzen Tag schon entschieden haben, sind wir nicht so frei in unserer Entscheidung, wie wir es sind, wenn wir gerade frisch aufgestanden sind. Unter dieser Vorbedingung setzen uns Spiele und Algorithmen noch mehr unter Druck, sie geben uns noch weniger Freiraum. Auch dadurch, dass sie uns Gruppen zuordnen. (Zweig, 2018: 59) In den letzten Monaten ist ein Unbehagen gegenüber digitalen Technologien entstanden, das durch Studien nachgewiesen wurde. Auswirkungen zeigen die schon erwähnten Datenskandale. Der Umgang mit sensiblen Informationen wird in der Öffentlichkeit diskutiert und trägt zu einem Bewusstseinswandel bei. Dies könnte als Grund für die stagnierenden und bei Jugendlichen und jungen Erwachsenen sogar rückläufigen Anmeldezahlen in diesen Netzwerken gewertet werden. So gibt jeder vierte Befragte zwischen 14 und 24 Jahren an, Angst davor zu haben, sein Privatleben auf Facebook offenzulegen (Otternberg, M. S., Joanna, 2018: 65). Der Medienwissenschaftler Geert Lovink kommentiert die Gesprächskultur in den sozialen Netzwerken so: Small Talk wäre der falsche Begriff dafür. Was hier vorgeführt wird, ist der verzweifelte Versuch, gehört zu werden, irgendwie Einfluss zu nehmen und eine Markierung zu hinterlassen. Diskussionsbeiträge dienen nicht mehr dazu, den Autoren zu »korrigieren«, […] sie sollen Wirkung zeigen. (Lovink, 2014: 72) Pauschalurteile sind angesichts der Diversität innerhalb der Netzwerke unangebracht. Dennoch muss unter Berücksichtigung aktueller Umfrageergebnisse der Diskussionskultur innerhalb sozialer Netzwerke besondere Aufmerksamkeit geschenkt werden. Schließlich geben mehr als ein Drittel der Befragten zwischen 14 und 24 Jahren an, vor der „Beleidigungskultur“ in sozialen Netzwerken zurückzuschrecken (Otternberg, M. S., Joanna, 2018: 66). Verglichen mit Umfragen aus dem Jahr 2014 hat sich die Situation in sozialen Netzwerken nach Aussage der Befragten zwischen 14 und 24 negativ entwickelt: Kapitel 4: Verwendungsweisen Digitaler Kommunikation 130 Die Angst vor Veröffentlichung peinlicher oder intimer Posts (ist) gestiegen (um 18 Prozentpunkte), ebenso die vor Fake-Profilen, also der Täuschung durch gefälschte Nutzerprofile (um 16 Prozentpunkte). (Otternberg, M. S., Joanna, 2018: 76) Grundsätzlich bewegt sich auch hier das Nutzungsverhalten der Mitglieder im Spannungsverhältnis zwischen Datensicherheit auf der einen und der als schnell und komfortabel empfundenen Nutzungsmöglichkeit auf der anderen Seite (vgl. Graudenz, 2017: 80). Es ist einerseits festzuhalten, dass die Mitglieder von Netzwerken mit ihren Daten sorglos umgehen und umgegangen sind. Daraus abzuleiten, dass ihnen der Schutz ihrer Daten gleichgültig ist, halte ich nur zum Teil für zutreffend. Vielmehr fehlt es an Kompetenz und vielleicht auch an Phantasie, sich vorzustellen, was mit den Daten geschieht. Die Netzwerke tragen zur Aufklärung nichts bei, im Gegenteil, sie legen ihre Algorithmen nicht offen. Datenskandale führen nicht zu einer generellen Technikfeindlichkeit, leisten aber einem generellen Skeptizismus Vorschub (vgl. Borgstedt, 2016 : 110). Zunehmend wird der Ruf nach staatlichen Eingriffen zum Schutz personenbezogener Daten laut (vgl. Otternberg, M., 2017: 21). Staatliche Eingriffe sind zunächst einmal mit Vorbehalt zu sehen. Wer entscheidet darüber, welche Daten schützenswert sind und welche nicht? Außerdem ist der Staat als Akteur nicht frei von Interessen. Dennoch besteht angesichts der Tatsache, dass persönliche Daten zu einem Wirtschaftsgut geworden sind, mit denen internationale Konzerne Profit erwirtschaften, Handlungsbedarf (vgl. Jöns, 2016: 84). Doch ist es nicht nur die Verwendung personenbezogener Daten vieler aus ökonomischen Interessen Einzelner, die Grund gibt, sich kritisch mit sozialen Netzwerken auseinanderzusetzen. Auch das zunehmend unausgewogene Verhältnis zwischen aktiven und passiven Nutzerinnen und Nutzern unter Teilhabegesichtspunkten ist problematisch. Erinnern wir uns an die Anfangszeiten des Internets: Sie waren mit der Hoffnung verknüpft, ein freies, offenes Medium zur Verfügung zu haben, das Austausch ermöglicht, Debattenkultur fördert, basisdemokratischen Gedanken eine Plattform bereitet. Die idealistischen Vorstellungen der Internetaktivistinnen und -aktivisten mussten einer Ernüchterung Platz machen. 4.6 Folgen der Nutzung – Soziale Netzwerke 131 Die Sozialen Netzwerke haben durch die Glaubwürdigkeitskrise nicht nur Mitglieder verloren, die Anzahl der passiven Nutzerinnen und Nutzer steigt, die der Aktiven nimmt entsprechend ab. Das schlägt nicht selten in Resignation der Teilnehmerinnen und Teilnehmer um (vgl. Otternberg, M. S., Joanna, 2018: 87). Noch ist es zu früh, zu beurteilen, ob die Vertrauenskrise der einzige Grund ist oder ob auch die Informationsüberflutung, genauer der Überfluss an widersprüchlichen Informationen, den Mitgliedern so zusetzt, dass sie sich abwenden. Die Undurchschaubarkeit der Technologie und das Bedürfnis, die Privatsphäre zu schützen, lassen soziale Netzwerke zunehmend als unsichere Orte erscheinen. Befeuert wird das Misstrauen von Internetpionieren wie Lanier, der medienwirksam dazu aufruft, die eigenen Accounts zu löschen, denn Social Media mache unglücklich, stumpfe ab, verhindere politische Debatten. Dies legt er in seinem im Jahr 2018 erschienenen Buch: „Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst“ wortreich dar. Kommunikative Reichweite im Netzwerk hat die durch sozioökonomische Faktoren geprägten Hierarchien aus der analogen Welt ersetzt. Aufmerksamkeit erhält, wer am geschicktesten auf sich aufmerksam macht. Dass dies nach der Logik des Netzwerks zu geschehen hat, ist selbstverständlich. Schmidt beschreibt die Verteilung von Aufmerksamkeit in sozialen Netzwerken. Seine Wortwahl lässt an die von Flusser beschriebene „Verbündelung“ denken: Nur wenige Knoten weisen eine hohe Anzahl von Verknüpfungen auf, die Mehrzahl dagegen liegt im so genannten „long-tail“ und besitzt vergleichsweise wenige Verlinkungen. (Schmidt, 2011: 59)79 Die Datenskandale zwangen Facebook, zu reagieren. In unterschiedlichen Medien wurde für den Schutz der Privatsphäre durch Einstellungen im Account geworben, die wiederum durch das Netzwerk selbst bestimmt werden. Das Kalkül, dass die Reduzierung von automatisch zugänglichen Informationen eine längere Verweildauer bei relevanten Inhalten erzeugt, mag dabei eine Rolle gespielt haben. Relevant sind im Sinne der Netzwerklogik Inhalte, die auf der Basis der Datenanaly- 79 Siehe auch hierzu: “From niches to riches: Anatomy of the long tail“ Brynjolfsson, Hu & Smith, 2006 Kapitel 4: Verwendungsweisen Digitaler Kommunikation 132 se als interessant für das Mitglied ermittelt wurden. Parisers Konzept wirkt zunächst eingängig. In der Praxis hielt es einer Validierung jedoch nicht stand: Theoretical concepts such as Pariser’s (2011) filter-bubble hypothesis suggest that, instead of ensuring diversity, algorithms aim at maximizing economic gain by increasing media consumption. According to this rationale, algorithms filter out information that is assumed to be of little interest to individual users while presenting more content that users are more likely to consume. For example, users who have a history of consuming a lot of sports news will receive even more sports news, presumably at the cost of other topics (e.g., political news). The present study empirically tests this rationale for the case of the news aggregator Google News. While personalization also affects news diversity in other digital news environments (e.g., social network sites, search engines), news aggregators solely focus on the distribution of news. (Haim, Graefe & Brosius, 2018: 2) In den folgenden Jahren machten sich zahlreiche Wissenschaftlerinnen und Wissenschaftler zur Aufgabe, die Existenz dieser Filterblasen nachzuweisen und sodann ihre Wirkung auf die Meinungsbildung der Nutzerinnen und Nutzer zu erforschen (vgl. Nguyen, Hui, Harper, Terveen & Konstan, 2014: 685). Die Ergebnisse waren jedoch weit weniger dramatisch, als Pariser sie vorhersagte: Empirical evidence on the existence of filter-bubble effects, especially in the context of news, is limited. One study found small effects in that Facebook users see more than average posts from politically like-minded users (…). (Haim et al., 2018: 4) Hier wird es also auch für zukünftige Forschung wichtig sein, zwischen der theoretischen Möglichkeit von Phänomen und der tatsächlichen Existenz zu differenzieren. Folgen der Nutzung – Digitale Agenten Interagiert ein Mensch mit einem künstlichen kommunizierenden System statt mit einem anderen Menschen, verbringt er seine Zeit mit einer Maschine. Diese zunächst trivial anmutende Tatsache könnte weitreichende Konsequenzen für sein Selbst-Bild haben, kann der Mensch sich doch der Wirkungen seiner Handlungen nur dann bewusst werden, wenn er sich mit einem anderen Menschen konfrontiert 4.7 4.7 Folgen der Nutzung – Digitale Agenten 133 sieht. Doch zunächst ist zu klären, warum Menschen nicht nur fähig sind, mit künstlichen kommunizierenden Systemen zu interagieren – wie an ELIZA gezeigt und wie in allen auf Turing basierenden Tests –, sondern warum sie dies zum Teil auch offensichtlich bereitwillig akzeptieren. Akzeptanz ist allerdings nur dann gefragt, wenn sie mit digitalen Agenten interagieren, die sie als solche erkennen. Turkle gibt hierzu folgenden Denkanstoß: Because face-to-face, people ask for things that computers never would do. With people, things go best if you pay close attention and know how to put yourself in someone else´s shoes. Real people demand responses to what they are feeling. And not just response. (Turkle, 2016: 7)80 Der von Turkle benannte Grund der sozialen Anstrengung, die Computer nicht einfordern, ist nur ein Argument. Ein Computer widerspricht nicht, wie Weizenbaum eindrucksvoll nachgewiesen hat. Die Reaktionsmuster von Computern sind seit ELIZA enorm verfeinert worden. Tatsächlich sind Social Bots heute in der Lage, menschliche Kommunikation immer perfekter zu simulieren. Stammen sie wie die App „Replika“ aus dem Bereich der „sozialen KI“, zielen also darauf ab, sich als Freund anzubieten, verzichten sie anders als menschliche Freunde darauf, zu kritisieren. Es entfällt also die Möglichkeit sozialer Korrektur. Replika [is] an app that lets users create a digital avatar with the name or gender of their choosing. The more they talk to it, the more it learns about them. The bot comes across as part therapist, part nurturing friend. (Olson, 2018: 1) Welche Auswirkungen dies sowohl auf unsere Selbst-Wahrnehmung als auch auf unsere Vorstellung davon hat, was eine Freundin oder einen Freund im Sinne eines Gesprächspartners auszeichnet, werde ich in Kapitel fünf diskutieren. 80 Was Turkle hier mit den Worten „in someone else´s shoes“ beschreibt, kann nach Han jedoch nicht durch das Zählen von Eigenschaften erreicht werden, da sich auf diese Weise nicht der Sinn menschlicher Handlungen vermitteln lässt. „Das Wort ‚digital‘ verweist auf den Finger (digitus), der vor allem zählt. Die digitale Kultur beruht auf dem zählenden Finger. Geschichte ist aber Erzählung. Sie zählt nicht. Zählen ist eine posthistorische Kategorie. Weder Tweets noch Informationen fügen sich zu einer Erzählung zusammen. Auch die Timeline erzählt keine Lebensgeschichte, keine Biografie. Sie ist additiv und nicht narrativ“ (Han, 2015a: 50). Kapitel 4: Verwendungsweisen Digitaler Kommunikation 134 Vor dem Hintergrund des bis jetzt Erörterten gehe ich davon aus, dass die verändernde Kraft nicht, wie Turkle beschreibt, die Angst vor der Unberechenbarkeit anderer Menschen ist, sondern die zunehmende Gewöhnung der Menschen an kommunikative Handlungen künstlicher Intelligenzen. Wurde Menschen bisher abverlangt, sich auf digitale Technologie einzustellen und sie zu lernen, hat die sogenannte künstliche Intelligenz intelligente Assistenten hervorgebracht, die eine neue Qualität aufweisen. Mittels Mikrophon und Lautsprecher findet die Mensch- Maschine-Kommunikation in natürlicher Sprache statt. Durch die Vermittlung des persönlichen Kontextes können die Antworten des Programms individualisiert werden. Das verstärkt den Eindruck von menschlicher Kommunikation. Schließlich – und dies belegen die bereits zitierten Studien zur Identifizierung von Social Bots in sozialen Netzwerken – passen sich künstliche kommunizierende Systeme immer weiter an das menschliche Kommunikationsverhalten an (vgl. Bak, 2015: 91), während Menschen sich gleichzeitig, bedingt durch die technischen Möglichkeiten (kurze Textnachrichten, Emotionsvermittlung durch Emoticons, Zustimmung codiert durch das Drücken eines „Like-Buttons“) in ihren Möglichkeiten zu kommunizieren sich dem Verhalten der künstlichen Systeme annähern (vgl. Lanier et al., 2014: 253). Doch welche Auswirkungen hat dies nun darauf, wie Menschen ihr Selbst-Bild wahrnehmen? Mit Mead entsteht ein Selbst-Bild aus situationsgebundenen Erfahrungen verschiedener Kommunikationssituationen, die zu einem kohärenten Bild über die Wirkung eigener Handlungen in der sozialen Interaktion zusammengesetzt werden. Das führt uns zu der Frage, ob künstliche Intelligenz menschliche Kommunikation ersetzen kann. Auch den differenziertesten Programmen fehlt, was Menschen ausmacht: Erfahrungen, die im Umgang mit anderen Menschen gemacht und bewertet wurden. Diese Interaktion ist konstituierend für Selbst-Wahrnehmung und Entstehung von Selbst-Bewusstsein. Der Andere, der mich spiegelt, muss daher zwangsläufig ein von Erfahrungen geformter Mensch sein. Das schließt Emotion ebenso ein wie Verständnis von Bedeutung und Sinn; eine Fähigkeit, die Maschinen ausschließt. In der Kommunikation mit künstlicher Intelligenz können Menschen nur die Wirkung von Handlungen erfahren, zu de- 4.7 Folgen der Nutzung – Digitale Agenten 135 ren Verständnis das System erschaffen wurde. Rückmeldung, die Menschen auf ihr Verhalten erhalten, wird durch die technischen Möglichkeiten selektiert. Ein Chatbot ist fähig, eine bestimmte Aufgabe zu erfüllen, jedoch nicht einen anderen Menschen auf Grundlage eigener Erfahrungen zu spiegeln. Turkle beschreibt eine Effizienzsteigerung durch den Einsatz von Technologie. Ob Menschen dieser Rückmeldung durch Chatbots Gewicht geben, wie sie annimmt, bleibt zu untersuchen: Now, there is the hope that self-reflection could perhaps be made more efficient by technological intervention. The list of candidate technologies is already long: a computer programmed to behave in the manner of a therapist; devices that help you track your physiology for patterns that will help you understand your psychology; programs that analyze the words in your diary and come up with a diagnosis of your mental state. These last are certified as the “real you” because they are based on what is measurable about your behavior, your “output”. They are served up as your quantified or algorithmic self. […] But they can’t do it alone. Apps can give you a number; only people can provide a narrative. Technology can expose mechanism; people have to find meaning. (Turkle, 2016: 81) Zu ergänzen ist die oft angenommene größere Objektivität der von Computern generierten datenbasierten Ergebnisse. Tatsächlich wird jedoch außer Acht gelassen, dass Algorithmen Daten heranziehen, deren Ursprung Menschen weder nachvollziehen noch kontrollieren können. Doch auch wenn Menschen wissentlich mit einer künstlichen Intelligenz interagieren und sich über die Einschränkungen, die sie in dieser Interaktion einzubeziehen haben, bewusst sind, verändert sich menschliche Selbst-Wahrnehmung vor allem dadurch, dass Zeit und Aufmerksamkeit begrenzte Ressourcen sind. Denn immer dann, wenn ein Mensch nicht mit einem anderen Menschen, sondern mit einem künstlich kommunizierenden System kommuniziert, hat er ein Gegen- über, das zum einen nicht selbst über Ziele und Wünsche verfügt und zum anderen auf der Grundlage von zuvor implementierten Regeln funktioniert. Auch wenn diese Reaktionen durch menschliches Verhalten ausgelöst sind, beziehen sie sich doch nicht in der gleichen Weise persönlich auf dieses Verhalten, sind also standardisierte Reaktionen. Kapitel 4: Verwendungsweisen Digitaler Kommunikation 136 Der Grad der Standardisierung hängt allerdings davon ab, wie intelligent das jeweilige künstliche kommunizierende System ist. So können differenziertere Systeme besser eine individuelle Reaktion auf das Verhalten einer Person simulieren als einfachere. Eine Simulation bleibt es – wie gezeigt – dennoch, da sie nicht das Resultat von Erfahrungen ist. Ob und in welchem Maße sich das Kommunikationsverhalten von Menschen, die mit künstlichen kommunizierenden Intelligenzen interagieren, in der Praxis tatsächlich den Möglichkeiten dieser Systeme anpasst und ob Elemente, deren Verständnis nur auf Grundlage menschlicher Erfahrungen möglich ist, systematisch aus diesen kommunikativen Interaktionen ausgeschlossen werden, bleibt in der Zukunft zu untersuchen. Fest steht an dieser Stelle meines Erachtens allerdings dreierlei: Zunächst, dass der Einfluss künstlicher kommunizierender Systeme auf das Verhalten und damit auf das Selbst-Bild der Menschen von der Häufigkeit der Interaktionen abhängt. Zum zweiten hängt er ab vom Entwicklungsstand, also wie gut die Qualität der Nachahmung menschlichen Verhaltens ist. Zum dritten hängt er von der Voraussetzung ab, dass Personen KI als Interaktionspartner akzeptieren. Eine weitere Einflussnahme auf das Selbst-Bild geschieht, wie bereits gezeigt, beim sogenannten Self-Tracking. Hier findet zwar nicht unbedingt eine Konversation mit einem künstlichen kommunizierenden System statt, diese Programme zur Selbst-Vermessung nehmen jedoch dennoch starken Einfluss auf das Selbst-Bild einer Person und zwar vor allem über deren Körper, da sie diesen nach zuvor festgelegten Normierungen vermessen und die Messergebnisse präsentieren (vgl. Meidert, Scheermesser & Prieur, 2018: 161). Roberto Simanowski bemerkt: Hier produziert der Körper des Selbst unabhängig von dessen Bewusstsein (wenn auch mit dessen ursprünglicher Einwilligung) Daten, die Aussagen über das Selbst vorbei an dessen Selbst-Verständnis und verinnerlichten Selbstkonstruktionswerten ermöglichen. (Simanowski, 2016: 73) Doch hieraus erwächst nicht nur ein digitaler Blick auf den eigenen Körper. Indem diese Programme den einzelnen Menschen nicht nur vermessen, sondern seine Daten auch in einem – zumeist von ihm selbst aktiv angelegten Profil – speichern und mit anderen Nutzerinnen und Nutzern dieses Programms vergleichen, fordern sie zur 4.7 Folgen der Nutzung – Digitale Agenten 137 Selbstoptimierung auf. So könnte unter dem zunächst harmlos anmutenden Motto „Sharing is Caring“ (Reichert, 2017: 180) eine neue Form sozialen Drucks entstehen, wenn es darum geht, Messergebisse über den eigenen Körper – wenn auch nur in einem gewissen Rahmen – zu veröffentlichen und sich im Vergleich mit anderen Nutzerinnen und Nutzern zu verbessern. Als Medien der körperlichen Übung sind sie daher mit diversen Funktionen des Feedbacks ausgestattet, die ein dichtes Netz der Verdatung [sic!] und der Kontrolle des Körpers etablieren. Dieses digitale Geflecht aus technischer Kontrolle, Selbstkontrolle und sozialer Kontrolle zielt darauf ab, beim Benutzer Fähigkeiten der Selbstthematisierung und der Selbstführung [sic!] zu entwickeln. (Reichert, 2017: 177) Die digitale Selbst-Vermessung kann als Kontrollinstrument missbraucht werden, solange die datenbasierte Erkenntnisgewinnung ohne öffentliche Kontrolle stattfindet. Die Lesbarkeit des Menschen durch Algorithmen kann – wie dargestellt – nur einen Teil seines Wesens erfassen. Künstlicher Intelligenz fehlt die Fähigkeit, sinnvolle, mit Bedeutung versehene Kontextualisierungen hervorzubringen und noch so große Datenmengen werden diesen Mangel nicht ausgleichen können. Zwischen Dystopie und Euphorie: Aktuelle Theorien zur Digitalisierung In jüngerer Zeit wird in der Literatur auf das Spannungsfeld Digitalisierung und Gesellschaft reagiert. Hierbei reicht die Bandbreite von euphorischen Gedankenexperimenten über moderat warnende Stimmen vor Überwachung und totaler Kontrolle bis zu dystopischen Zukunftsszenarien mit verdummten Individuen, die von einer entfesselten künstlichen Intelligenz beherrscht werden. Beide Extreme sind in der Öffentlichkeit prominent vertreten. Jaron Lanier erhielt 2014 für sein Werk „Wem gehört die Zukunft“ (Lanier et al., 2014) den Friedenspreis des Deutschen Buchhandels. In seinem Buch verurteilt er zwar den Machtzuwachs großer Internetkonzerne, das beirrt ihn jedoch nicht in einer grundlegend optimistischen Haltung. Zwar setzt er sich kritisch mit immaterieller Arbeit auseinander, die die Mitglieder 4.8 Kapitel 4: Verwendungsweisen Digitaler Kommunikation 138 von Netzwerken kostenlos leisten, stellt aber den Handel mit Daten unter der Voraussetzung einer gerechteren Verteilung des Profits nicht grundsätzlich in Frage, wenn er schreibt: Die rohen Informationen über sich selbst würden einem Menschen auch selbst gehören. So etwas wie ein perfektes System gibt es nicht, aber meine Hypothese lautet, dass dieses System demokratischer wäre als die billige Illusion »kostenloser« Informationen. (Lanier et al., 2014: 277) Seine Vision halte ich nicht nur für sehr optimistisch, sondern auch für gefährlich. Die Zustimmung zu einem Handel mit Informationen, die das Selbst-Bild einer Person betreffen, ist grundsätzlich in Frage zu stellen, denn es gilt, je intimer die Daten, desto attraktiver die Handelsware. Das bedeutet nichts weniger als die Ausbeutung komplexer Selbstdarstellung und Selbst-Wahrnehmung, die so nicht mehr zu einem kohärenten Bild synthetisiert werden können. Der Datenschutz, der in der Vision Laniers kein schutzwürdiges Gut darstellt, würde komplett preisgegeben. Nimmt Lanier eine noch immer stark im Erfolgsdenken des Silicon Valley verhaftete, übermäßig optimistische Position ein, bezieht der verstorbene Mitherausgeber der Frankfurter Allgemeinen Zeitung Frank Schirrmacher in seinem 2009 veröffentlichten Buch „Payback“ die entgegengesetzte Position. Er warnt nicht nur vor dem Einfluss der Digitalisierung auf den gesellschaftlichen Zusammenhalt, sondern auch auf das Denken jedes einzelnen Menschen, den er grundsätzlich für digital überfordert hält. Denn mit den Informationen, die der technische Apparat speichert, wächst das Vergessen unserer biologischen Gedächtniszentren. Aufmerksamkeitsverlust und Blackouts kennt mittlerweile jeder. Die nächste Verschärfungsstufe ist der Erinnerungsverlust. (Schirrmacher, 2009: 44) Schirrmacher bleibt die Belege schuldig. Solange seine Aussagen und die vieler anderer Kritiker wie Manfred Spitzer, die er in seinem Buch „Digitale Demenz: Wie wir uns und unsere Kinder um den Verstand bringen“, (Spitzer, 2014) formuliert, nicht verifiziert sind, handelt es sich wohl eher um die Wiederholung eines jahrtausendealten Arguments, das sich nicht selten aus einer diffusen Angst vor Neuem speist. So finden sich gegenüber neuen Möglichkeiten der Informationsspeicherung und dem damit angeblich einhergehenden Verlust von menschlichem Wissen skeptische Äußerungen bereits in Platons Dia- 4.8 Zwischen Dystopie und Euphorie: Aktuelle Theorien zur Digitalisierung 139 log „Phaidros“, in dem Platon Sokrates über die Gefahren der Schrift diskutieren lässt (Platon, 1958: 274 d-e). Schirrmacher und Lanier wurden hier kurz vorgestellt, obwohl beide keinen wissenschaftlichen Ansatz verfolgen. Ihre Publikationen sind allerdings ungeheuer populär und prägen die öffentliche Debatte. Im Folgenden werde ich Auszüge aus in den letzten vier Jahren erschienenen wissenschaftlichen Theorien zur Digitalisierung kritisch würdigen. Meine Auswahl folgt der Überlegung, dass sich an ihnen exemplarisch die drei häufigsten Schwächen aktueller Theorien aufzeigen lassen: Unschärfe in der Verwendung zentraler Begriffe, Alarmismus gegenüber aktuellen Entwicklungen im Bereich der Digitalisierung sowie eine Fehlinterpretation bereits existierender Theorien. Beginnen wir mit der Theorie des italienischen Philosophen und Informationsethikers Luciano Floridi. In seinem Buch „Die 4. Revolution“ (2015) setzt er sich kritisch mit den Folgen der Digitalisierung für die Gesellschaft und ihre Mitglieder auseinander. Er konstatiert eine dramatische Veränderung durch die Durchdringung des Alltags durch digitale Kommunikationstechnik. Er beschreibt das mit dem Begriff der „Infosphäre“. Dabei geht es ihm neben einer geschichtlichen Einordnung der Digitalisierung vor allem darum, auf die Abhängigkeit der Wirtschaft und Gesellschaft von digitaler Kommunikationstechnologie aufmerksam zu machen. Im Bestreben, nicht dem Versuch zu erliegen, mit Konzepten von gestern Entwicklungen von heute und morgen zu deuten, fährt Floridi eine ganze Reihe von Neologismen auf. So wird das Leben zum „Onlife“, das sowohl online als auch offline stattfindet. Der handelnde Mensch wird zum „Inforg“, stellt er für Floridi doch vor allem eine Schnittstelle zwischen den verschiedenen informationsverarbeitenden Geräten dar. Diese zahlreichen Wortneuschöpfungen wären nicht notwendig, hätte Floridi sich auf bereits existierende Gedanken zu diesem Thema gestützt, wie sie schon Jahrzehnte zuvor von Flusser im Zusammenhang der „technischen“ Bilder formuliert wurden. Die Zerstreuung der hergebrachten Gesellschaftsgruppen durch technische Bilder […] sieht, von der Vergangenheit her gesehen, wie Dekadenz aus. […] Sieht man jedoch diese Zerstreuung unideologisch, nämlich „phänomenologisch“, dann wird man […] erkennen, daß es sich nicht um „a-soziale“, sondern um ungewöhnlich stark sozialisierte, wenn auch in einem neuen Sinn sozialisierte Menschen handelt. (Flusser, 1985: 71) Kapitel 4: Verwendungsweisen Digitaler Kommunikation 140 Gemeinsam ist beiden Theoretikern, dass sie vom Menschen ausgehen. Flussers Überlegungen finden jedoch keinen Eingang in die Theorie Floridis. Auch seine Ausführungen dazu, wie die Beschreibung der Welt in zunehmendem Maße die Beschreibenden von dieser distanziert hat, bis der Mensch schließlich Modelle entwickeln konnte, die nicht mehr zwangsläufig einen Bezug zu real existierenden Dingen haben, werden von Floridi nicht beachtet. Dabei wären sie für Floridis Argumentation von Relevanz, weil Flussers Überlegungen einen differenzierten Blick auf Voraussetzungen und Potential einer Kommunikationsgesellschaft erlauben und hierbei die Freiheit des handelnden Menschen in den Fokus nehmen. Floridi wählt einen anderen Ansatz. Er verbindet seine Überlegungen mit dem von Freud 1917 geprägten Begriff der drei Kränkungen und kommt so zum Titel seines Werks „Die 4. Revolution“, denn er sieht nun in der digitalen Revolution genau die vierte Kränkung eingelöst. Der Mensch erfahre durch die Technologie, dass sein Alleinstellungsmerkmal, durch Sprache zu kommunizieren, nicht länger die ihn auszeichnende Qualität ist.81 Unabhängig davon, ob dieser Argumentation zugestimmt werden kann, ist zu bemerken, dass Floridi die Auswirkungen, die diese Entwicklung seiner Meinung nach auf die menschliche Selbst-Wahrnehmung hat, nur anschneiden kann, da er keine differenzierte Darstellung zwischen Selbst-Bild, Identität und Person, die in einer Gemeinschaft aus Personen interagiert, vornimmt. Ändern Sie das soziale Umfeld, in dem Sie leben, modifizieren sie das Beziehungsgeflecht und die Informationsflüsse, mit denen Sie sich wohlfühlen, verändern Sie Art und Umfang der Dinge, von denen Sie sich in Ihrem Verhalten zur Welt und indirekt sich selbst gegenüber beschränken und anregen lassen, und Ihr soziales Selbst könnte ein grundlegendes Update erfahren, mit entsprechen den Rückkopplungen auf Ihr Selbst-Bild, das schließlich Ihre Identität als Person prägend beeinflusst. (Floridi, 2015: 89) Zwar erkennt Floridi einen Unterschied zwischen einer handelnden Person und ihrem sozialen Selbst, das in einem Abhängigkeitsverhält- 81 Ob sich diese Annahme im Vorhinein nicht ohnehin schon durch Forschungen zum Thema „Tierkommunikation“ widerlegen ließe, kann an dieser Stelle nicht weiter diskutiert werden. 4.8 Zwischen Dystopie und Euphorie: Aktuelle Theorien zur Digitalisierung 141 nis zum umgebenden sozialen Umfeld steht. Was er jedoch unter einem „grundlegenden Update“ eines sozialen Selbst versteht, bleibt vage. Der Begriff Update verweist auf das Spannungsfeld zwischen Individuum und Digitalisierung. Die Schwäche dieser Wortwahl liegt darin, dass er die Notwendigkeit der „Aktualisierung“ – schon die Bedeutung des Begriffs Update ist meines Erachtens unzureichend, um die komplexen Veränderungen zu erfassen – einseitig auf Seiten des Menschen verortet. Der Begriff Update negiert die Tatsache, dass wir Menschen uns durch Emotionen, Erfahrungen, Vorlieben und Abneigungen sowie Begabungen auszeichnen. All das ist Maschinen nicht gegeben. Sie können diese Charakteristika bestenfalls simulieren. Verschwommen bleibt auch, wie Floridi das Verhältnis zwischen dem sozialen Selbst, das ein Update erfährt, und dem Selbst-Bild, das die Identität einer Person prägt, bestimmt. Er weist allerdings auf einen wesentlichen Punkt hin: Die Digitalisierung und die mit ihr einhergehenden kommunikativen Veränderungen stellen Menschen des digitalen Zeitalters vor die verschärfte Herausforderung, ein kohärentes Selbst-Bild zu entwickeln (Floridi, 2015: 105). Ein weiterer Autor, der die aktuelle Debatte bereichert, ist der Schweizer Kultur- und Medienwissenschaftler Felix Stalder. In seinem Band „Kultur der Digitalität“ entwickelt er einen Begriff von Kultur, der diesen nicht als Überbau oder „symbolisches Beiwerk“ begreift, sondern als handlungsleitende und formende Bedingung, unter der die Menschen leben (Stalder, 2016: 16). Daraus leitet er ab, dass sich die Handlungen der Menschen in Abhängigkeit zur Kultur, in der sie leben, verändern – eine These, die in ähnlicher Weise bereits von Mead vertreten wurde. Um die (neue) zentrale Rolle der digitalen Technik innerhalb dieses Prozesses zu veranschaulichen, verwendet er den Begriff „Digitalität“. Mit ihm nähert er sich der Frage, wie sich menschliches Handeln durch die Digitalisierbarkeit und die aus ihr entstehende Möglichkeit der Neukombination verschiedenster Elemente verändert: »Digitalität« verweist […] auf die historisch neue Möglichkeit der Konstitution und der Verknüpfung der unterschiedlichsten menschlichen und nichtmenschlichen Akteure. Der Begriff ist mithin nicht auf digitale Medien begrenzt, sondern taucht als relationales Muster überall auf und ver- ändert den Raum der Möglichkeiten vieler Materialien und Akteure. (Stalder, 2016: 18) Kapitel 4: Verwendungsweisen Digitaler Kommunikation 142 Wie Weizenbaum geht er davon aus, dass die Digitalisierung zwar grundlegende Veränderungen der Lebenswelt des Menschen bewirkt, die aber an bereits existierende Strukturen anknüpft (Stalder, 2016: 145). Weizenbaum wird allerdings nicht explizit erwähnt. Weiter beschreibt Stalder, dass sich neue, stillere Zwänge durch die massenhafte Verbindung der Menschen untereinander etablieren. Stalder konstatiert, dass Menschen in westlichen Gesellschaften […] ihre Identität immer weniger über die Familie, den Arbeitsplatz oder andere stabile Kollektive definieren, sondern zunehmend über ihre persönlichen sozialen Netzwerke, also über die gemeinschaftlichen Formationen, in denen sie als Einzelne aktiv sind und in denen sie als singuläre Personen wahrgenommen werden. (Stalder, 2016: 144) Zutreffend beschreibt Stalder Aufmerksamkeit als zentrale Ressource in sozialen Netzwerken. Dass der Einzelne sich »freiwillig« dieser Macht unterordnet, ist typisch für die Netzwerkmacht, die keine Anweisungen gibt, sondern Voraussetzungen konstituiert. Aber es ist im Eigeninteresse (fast) jedes Informationsproduzenten, im Index der Suchmaschinen optimal verzeichnet zu sein, und entsprechend besteht ein starker Anreiz, die Voraussetzungen zu akzeptieren. (Stalder, 2016: 195) Jedoch präzisiert er nicht, wie sich die Voraussetzungen, die seiner Meinung nach jeder, der Aufmerksamkeit erregen möchte, erfüllen muss, genauer auf die Handlungspraxis der Nutzerinnen und Nutzer auswirken. Er führt aus, dass die Welt durch digitale Strukturen vorformatiert werde (vgl. Stalder, 2016: 195). Diese Vorformatierung ist nach Stalder jedoch ohne Nutzung der digitalen Strukturen durch Menschen gar nicht möglich (vgl. Stalder, 2016: 199). Ich gehe davon aus, dass es neben der Logik der Aufmerksamkeitsgewinnung weitere Aspekte gibt, die die Nutzerinnen und Nutzer digitaler Kommunikation motivieren, sich zu beteiligen. Hierzu zählt die Omnipräsenz der Möglichkeit, mit anderen Menschen in Kontakt zu stehen und die Möglichkeit, nicht mehr mit anderen Menschen, sondern mit künstlichen kommunizierenden Systemen zu interagieren. Hinzugezogen werden hier noch die Überlegungen Byung-Chul Hans, der enorm populär ist. Unter anderem hat er sich mit den Ver- 4.8 Zwischen Dystopie und Euphorie: Aktuelle Theorien zur Digitalisierung 143 änderungen beschäftigt, die Gesellschaft, Wertesystem und Selbst-Bild jedes Menschen durch die Digitalisierung erfahren. In seinem Buch „Im Schwarm – Ansichten des Digitalen“ analysiert und beklagt Han das Phänomen der Schwarmintelligenz. Diese sei flüchtig und letztlich durch ihren mangelnden Zusammenhalt nicht handlungsfähig. Er behauptet, die Zerstreuung als Lebenseinstellung habe ein „Wir“ vernichtet. Auch konstruiert Han zur Unterstützung seiner Behauptung einen Gegensatz zwischen Vergangenheit (in der es diesen Zusammenhalt gegeben hätte) und Gegenwart, für den er jeden Beleg schuldig bleibt. Die Gegenwart ist ihm eindeutig verdächtig und er führt viele Beispiele an, doch Differenzierung ist seine Sache nicht. Auf die Vielzahl der Angriffe, die Han im Laufe seines Buches gegen Skype, Facebook und Co. führt, werde ich hier nicht im Einzelnen eingehen, arbeitet er doch bei allem mit dem oben beschriebenen Muster eines Vergangenheit- Gegenwart-Vergleichs. Er bleibt jedoch auch vage darin, zu beschreiben, worin genau die Vergangenheit der Gegenwart überlegen war. Befassen wir uns stattdessen mit seinem Bild des handelnden Menschen. Er bezieht sich explizit auf Flusser, der nach seiner Interpretation den Menschen durch die Digitalisierung vom Stadium des arbeitenden zum spielenden Menschen übergehen sieht: Das Spiel selbst unterwirft sich dem Leistungszwang. Auf die Atrophie der Hände folgt die digitale Arthrose der Finger. Flussers Utopien des Spiels und der Muße erweisen sich als Dystopie der Leistung und Ausbeutung. (Han, 2015a: 48) Dies halte ich für eine Fehlinterpretation des Flusserschen Spielbegriffs. Es ist zwar richtig, dass Flusser das Spiel der Arbeit entgegenstellt, wenn er schreibt: Der neue Mensch wird nichts mehr tun und haben wollen; er wird genie- ßen wollen, was auf dem Programm steht. Nicht Arbeit und nicht Praxis, sondern Betrachtung und Theorie werden sein konkretes Leben charakterisieren. (Flusser, 1997b: 188) Allerdings setzt Flusser das Spiel nicht wie Han mit Muße gleich. Der Mensch ist für Flusser vor allem durch die Apparate zum Spieler geworden, denn diese ermöglichen, neue Informationen aus bisherigen Informationen zu synthetisieren. Damit ist er als aktiver Spieler im Kapitel 4: Verwendungsweisen Digitaler Kommunikation 144 Weltgeschehen nicht mehr auf den Zufall angewiesen, um neue, bis dahin nicht dagewesene Situationen zu erzeugen. Informationen sind Synthese vorangegangener Informationen. Das gilt nicht nur für die Informationen in der Welt, sondern auch für jene, die von Menschen hergestellt werden. Menschen sind nicht Schöpfer, sondern Spieler mit vorangegangenen Informationen, nur daß sie, im Unterschied zur Welt, absichtlich spielen, um Informationen herzustellen. Diesen Unterschied, diese Absichtlichkeit, merkt man daran, daß die menschlichen Informationen weit schneller als die sogenannten natürlichen Informationen aus den vorangegangenen synthetisiert werden. (Flusser, 1985: 76) Damit beschreibt Flusser den „spielenden Menschen“ nicht, wie Han unterstellt, als Müßiggänger, sondern als einen, der mit Hilfe der informationsverarbeitenden Technik in der Lage ist, geleitet durch die Methode der gegenseitigen Vernetzung (Dialog) Informationen neu zusammenzufügen (vgl. Flusser, 1985: 76). Winkler kommentiert das richtig, wenn sie schreibt: Flussers Spieltheorie, […] beschreibe die Notwendigkeit des Regelfolgens und der entgegengesetzten Freiheit zur Ausgestaltung eines Spielraums mithilfe der Informationstheorie und einer Skala zwischen maximaler Redundanz und maximaler Information; ein Übermaß an Redundanz führe zu Starrheit, eines an Information zu Chaos und Zerstörung (Winkler, 2015: 10) Es geht Flusser also nicht darum, ein durch die digitale Technik von jeder Arbeit befreites Leben zu prophezeien, sondern darum, klar darauf hinzuweisen, dass der Mensch weiterhin der Beeinflusser oder eben Spieler innerhalb der von ihm und für ihn geschaffenen Technik sein kann und, sofern er weiterhin frei handeln möchte, auch sein und bleiben muss (vgl. Haarmann, 2015: 27). Flusser sieht in der – seinerzeit erst aufkommenden – Vernetzung also zum einen die Möglichkeit, dass Menschen in der kommunikativen Interaktion miteinander neue Informationen aus alten Informationen synthetisieren, um auf diese Weise dem Zerfall von Informationen entgegenzuwirken, und zum anderen die Gefahr, dass sich innerhalb dieses Netzes totalitäre Machtstrukturen etablieren, von denen aus Menschen zentral mit Informationen versorgt und so vom gegenseitigen Dialog ferngehalten werden (vgl. Flusser, 1996a: 299). Hierbei betont er jedoch stets, dass es darum geht, dass der Mensch weiterhin ak- 4.8 Zwischen Dystopie und Euphorie: Aktuelle Theorien zur Digitalisierung 145 tiver Spieler innerhalb dieses Netzes ist. Es geht ihm damit keinesfalls darum, den Menschen als durch die Technik von Eigenverantwortung entbundenes und dem ziellosen Spiel verfallenes Wesen zu beschreiben. Die von Han vorgenommene Fehlinterpretation des Flusserschen Spielbegriffs enthebt den Menschen jedoch zugunsten der Unterordnung unter eine nicht weiter beschriebene Macht jeder Eigenverantwortung für sein Verhalten in der digital vermittelten Interaktion mit anderen Menschen. Mit dieser Ansicht verkürzt Han die Flussersche Überlegung nicht nur dramatisch, seine Fehlinterpretation legt auch nah, Flusser habe die Gefahren, die aus der weltumspannenden Vernetzung resultieren könnten, nicht antizipiert. Dies ist mit Blick auf Flussers Gesamtwerks als falsch zu bewerten. Eine wirkliche Gefahr, die von der digitalen Technik ausgehen kann, wird willentlich oder unwillentlich von Han ausgeblendet, nämlich dass mit ihrer Hilfe wenige Menschen viele beeinflussen und kontrollieren können. Es ist und bleibt immer der aktiv handelnde Mensch, der, Technik als Vergrößerung seines Handlungsspielraums nutzend, andere Menschen kontrolliert – schließlich verfolgen künstliche Intelligenzen keine eigenen Interessen – auch wenn manche ihrer Entscheidungen so anmuten. Ein gesellschaftlicher Diskurs über informationsethisches Handeln ist dringend geboten. Empirische Studien lassen darauf schließen, dass Nutzerinnen und Nutzer sich selten darüber bewusst sind, wie viel sie von sich im Internet preisgeben. So untersuchen Johannes Buchmann und seine Kollegen und Kolleginnen Aspekte der Privatsphäre im Internet und kommen zu folgendem Schluss: Während die Praktiken der Nutzer für viele Betreiber äußerst genau zu beobachten sind, gilt das Gegenteil keineswegs. Die Nutzer wissen weder, welche ihrer persönlichen Informationen wo und wie lange gespeichert, noch wie diese weiterverarbeitet und ob und an wen sie weitergegeben werden (Buchmann, 2013: 53) Wesentlich differenzierter als Hans Blick ist der Rafael Capurros, der sich seit vielen Jahren fundiert mit dem Thema Informationsethik auseinandersetzt. Er unterteilt seinen Begriff von Technik in Anlehnung an Foucault in drei Kategorien: Technologie, die zur Produktion und Umformung von Dingen dient, Technologie, die zur Manipulation von Zeichen und Symbolen dient, und Technologie, die zur Beeinflussung Kapitel 4: Verwendungsweisen Digitaler Kommunikation 146 menschlichen Verhaltens dient (Capurro, 1995: 24). Betrachten wir die bisherigen Ausführungen, lässt sich konstatieren, dass durch die digitale Kommunikationstechnik, die nicht mehr ausschließlich als Infrastruktur für kommunikatives Verhalten von Menschen dient, sondern als Kommunikationspartnerin auftritt, die Technologie zur Manipulation von Zeichen und Symbolen mit der Technologie zur Beeinflussung menschlichen Verhaltens verschmilzt. Voraussetzung ist jedoch, dass der Mensch die Technik auch als Interaktionspartnerin akzeptiert beziehungsweise anerkennt. Diese Anerkennung scheint – dem werde ich im Folgenden noch nachgehen – vor allem dadurch möglich, dass Menschen ihre Ansprüche an Kommunikation reduzieren (vgl. Turkle, 2012: 6). Mit Blick auf die unterschiedlichen Anwendungsgebiete für Bots schreiben Tetyana Lokot und Nicholas Diakopoulos: The proposed design space highlights the limits of news bots (e.g., automated commentary and opinion, algorithmic transparency and accountability), notable lacunas and opportunities for designing solutions (factchecking and verification bots, question-asking and reporting bots, interactive news), and areas where news bots may enable innovation, such as niche and geo-specific news and information. (Lokot 2016: 15) Die Kommunikationstechnik erfährt durch Bots eine Statusveränderung, sie übermittelt nicht mehr ausschließlich Informationen, sondern wird selbst zur Produzentin. Sie gibt den Rahmen vor – wie am Beispiel der sozialen Netzwerke gezeigt –, in dem Menschen sich präsentieren können. Dieser Rahmen schafft eine Vergleichbarkeit der Selbstdarstellungen in den Profilen. Durch ihre Orientierung an ein Publikum ist sie zwangsläufig außengeleitet. Formen der Selbstpräsentation sind allerdings nicht erst in der digitalen Welt aufgetreten. Schon immer waren Menschen bestrebt, sich von ihrer besten Seite zu zeigen, sich an sozial erwünschtem Verhalten zu orientieren. Die Präsentationsmöglichkeiten haben durch soziale Netzwerke nur massiv zugenommen und damit unter Umständen auch den Präsentationsdruck erhöht. Die Präsentationsmöglichkeiten in der digitalen Welt unterscheiden sich von der analogen Welt durch die Zielgerichtetheit, die Menge der Adressaten und auch durch die Adressierung an ein unbekanntes Gegenüber. Zudem ist das digital vermittelte Selbst-Bild von Bedingungen und Strukturen beeinflusst, die das Netzwerkmitglied nicht erkennen kann. 4.8 Zwischen Dystopie und Euphorie: Aktuelle Theorien zur Digitalisierung 147 Zwischenfazit Die bisherigen Ausführungen lassen erkennen, dass die digitale Kommunikationstechnik nicht mehr ausschließlich als Infrastruktur für kommunikatives Verhalten dient, sondern Menschen als Kommunikationspartnerin gegenübertritt. Als solche wird sie zunehmend akzeptiert. Diese Anerkennung scheint – dem werde ich im Folgenden noch nachgehen – vor allem dadurch möglich, dass Menschen ihre Ansprüche an Kommunikation senken. Nutzerinnen und Nutzer werden immer häufiger mit einer Standardisierung von kommunikativem Verhalten konfrontiert – ob zur direkten Informationsvermittlung oder zur Präsentation persönlicher Eigenschaften – und akzeptieren dies. News Bots wird zugeschrieben, Nachrichten im Sinne von kurzen Artikeln zu schreiben, doch die Innovation scheint zunächst größer, als bei genauerem Hinsehen offensichtlich wird. Bots können zwar zum Beispiel aus Spieltabellen und Wetterdaten kurze Berichte generieren, das ist jedoch keine Leistung, die auf Sprachverständnis und schöpferischen Fähigkeiten beruht. Bots sind lediglich in der Lage, nach Regeln und Wahrscheinlichkeiten Muster in Daten zu erkennen und diese in Worten zu präsentieren. Diese Präsentation gelingt ihnen durch den Rückgriff auf Textbausteine, die vom Menschen formuliert wurden. Mitglieder sozialer Netzwerke unterliegen dem Zwang, sich in Profilen zu präsentieren. Die technischen Bedingungen des Netzwerks standardisiert ihre Selbst-Darstellung. Der Mensch wird durch die von ihm geschaffene Technik in den Blick genommen. Dabei stehen grundsätzlich andere Aspekte im Fokus als beim menschlichen Blick. Fassen wir hier also zusammen, auf welche Weisen die digitale Kommunikation die Möglichkeit, die Wirkungen der eigenen kommunikativen Handlungen wahrzunehmen und so ein Selbst-Bild in der kommunikativen Interaktion mit anderen Menschen auszubilden, beeinflusst. Hierfür sehe ich folgende vier Anhaltspunkte: Erstens werden nicht mehr alle Informationen, die ein Selbst-Bild konstituieren, transportiert, da nicht alle quantifizierbar bzw. digitalisierbar sind. Digitale Kommunikation erzeugt eine Vorstellung von Kommunikation, die zwangsläufig zu einer Veränderung der prozesshaften Tätigkeit menschlicher Selbst-Wahrnehmung führt. 4.9 Kapitel 4: Verwendungsweisen Digitaler Kommunikation 148 Zweitens bedeutet die Informationsüberflutung immer weniger Ruhe für einen selbst. Der Druck, sich zu präsentieren, wächst. Ebenso wächst der Druck, Details seines Lebens preiszugeben. Die Vorstellung von Privatheit wandelt sich, die Grenzen zwischen privat und öffentlich verschwimmen. Vormals private Inhalte werden publiziert, Teilhabe an den privaten Inhalten anderer, teils auch Unbekannter, ist möglich, ohne sich erkennen zu geben. Drittens ermöglicht die dauerhafte Speicherung persönlicher Daten eine Distanzierung von eigenen ausgesendeten Informationen. Von ihnen ausgehende Handlungen können nicht mehr ins Selbst-Bild integriert werden. Viertens vermitteln auf Berechnungen beruhende Reaktionen auf menschliches Handeln die Vorstellung, menschliches Verhalten sei (auch in Hinblick auf seine Motive) mit technischen Prozessen vergleichbar oder auch nur durch sie abbildbar.82 Das trifft für die KI- Entwicklerinnen und -Entwickler zu. Für die Anwenderinnen und Anwender könnte ein Gewöhnungsprozess an Reaktionen von künstlicher Intelligenz zu einer Verzerrung der Wahrnehmung menschlicher Kommunikation führen. Im folgenden Kapitel werde ich weiter darauf eingehen, wie die derzeitige Verwendung digitaler Kommunikation dazu führt, dass sich die Vorstellung davon, was Kommunikation ausmacht und wozu sie dient, ändert und dass dies ein entscheidender, bisher meiner Meinung nach zu wenig bearbeiteter Faktor der Digitalisierung ist, der sich auf die Veränderung unserer Selbst-Wahrnehmung auswirkt. 82 Weizenbaum attestiert diese Fehleinschätzung jedoch nicht nur den Entwicklerinnen und Entwicklern von Computerprogrammen, sondern generell der Herangehensweise der Naturwissenschaften, wenn er schreibt: „Die geistigen Kosmologien, die die moderne Naturwissenschaft hervorgebracht hat, [sind] allesamt mit dem Bazillus der logischen Notwendigkeit behaftet“ (Weizenbaum, 1990: 27). 4.9 Zwischenfazit 149

Chapter Preview

References

Zusammenfassung

Das Internet kombiniert als Hybridmedium bereits existierende Möglichkeiten der Interpersonellen- und der Massenkommunikation mit neuen Formen der Vernetzung und Datenübertragung. Um die Folgen dieser Entwicklung zu beschreiben, schlägt der Autor eine Brücke zwischen Kommunikationswissenschaft und Identitätsphilosophie. Auf diesem Weg entsteht eine Interaktionstheorie, die erklärt, wie Kommunikationsphänomene wie Hate-Speech, Identitätsverlust und der Drang nach Selbstinszenierung durch die Spezifika der digitalen Kommunikation vorangetrieben werden. Er stützt sich hierbei auf Denker wie G. H. Mead, V. Flusser, J. Butler und J. Weizenbaum und erklärt so, was der Mensch über sich selbst erfährt, wenn er digital vermittelt mit anderen in Kontakt tritt und was, wenn er statt mit einem anderen Menschen mit künstlicher Intelligenz kommuniziert. So trägt Lukas Lehning auf dem Gebiet der Identitätsphilosophie und der Kommunikationswissenschaft zur Grundlagenforschung bei.