Content

Kapitel 2: Die Digitalisierung menschlicher Kommunikation in:

Lukas Lehning

Digitale Kommunikation aus der Perspektive des Sozialbehaviorismus, page 53 - 94

Eine Untersuchung digital vermittelter Selbst-Wahrnehmung nach George Herbert Mead

1. Edition 2020, ISBN print: 978-3-8288-4430-8, ISBN online: 978-3-8288-7442-8, https://doi.org/10.5771/9783828874428-53

Series: Wissenschaftliche Beiträge aus dem Tectum Verlag: Sozialwissenschaften, vol. 92

Tectum, Baden-Baden
Bibliographic information
Die Digitalisierung menschlicher Kommunikation Indem wir im ersten Kapitel den Prozess der Identitätsentstehung und seine Rahmenbedingungen nach Mead dargestellt und die Zumessung von Sprache als konstitutiver Bestandteil des Prozesses der Selbst- Wahrnehmung mit verschiedenen Autorinnen und Autoren beleuchtet haben, ist eine These für die weiteren Ausführungen geschaffen: Menschen erkennen einander, indem sie als sprachliche Wesen auftreten, und Sprache versetzt in die Lage, sich als Mitglied einer Gemeinschaft wahrzunehmen. Gingen Mead, Butler und auch Flusser stets von einer Kommunikation zwischen Menschen aus, eröffnet die Digitalisierung weitere Optionen. Digitale Agenten – Neue Kommunikationspartner Durch die fortschreitende Entwicklung künstlicher kommunizierender Systeme interagieren Menschen innerhalb digitaler Kommunikation nicht mehr ausschließlich mit anderen Menschen, sondern zunehmend mit künstlichen Intelligenzen. Diese bezeichne ich im Folgenden als digitale Agenten, da sie im Rahmen ihrer Ausstattung in der Lage sind, Entscheidungen in Bezug auf ihr kommunikatives Verhalten zu treffen. Ruth Ayaß charakterisiert sie zutreffend: Agenten sind lernfähig, sind nicht fertige, nicht-abgeschlossene Technik, und sie sollen, zumindest gemäß der Intention ihrer „Schöpfer“, eine gewisse autonome Selbstständigkeit gegenüber ihrem eigenen Ursprungsprogramm entwickeln (Ayaß, 2005: 43) Digitale Agenten lassen sich nach zwei Auftrittsweisen differenzieren. Erstens gibt es Agenten, die sich als künstliche kommunizierende Systeme zu erkennen geben. Hierzu zählen sowohl Chatbots, denen Nutzerinnen und Nutzer auf Internetseiten begegnen und die auf bestimm- Kapitel 2: 2.1 53 te Keywords programmiert sind. Sie sind unschwer als Programme zu erkennen.25 Zunehmend Verwendung finden zweitens Bots, die immer perfekter Kommunikation simulieren können. Die Kombination eines neuronalen Netzwerks und regelbasierter Spracherkennung gewährleistet sinnvolle sprachliche Reaktionen auf Fragen bzw. zu einer Reihe von Themen. Sie sind fähig, mit der Zeit die Kommunikationsmuster eines menschlichen Chat-Partners nachzuahmen. Diese zweite Gruppe, die darauf programmiert ist, sich dem Menschen möglichst nicht als künstliche kommunizierende Intelligenz erkennen zu geben, wird uns in dieser Arbeit interessieren. Diese Bots werden allgemeinhin als Social Bots bezeichnet, weil ihnen zugeschrieben wird, sich – im Rahmen der digitalen Möglichkeiten – sozial zu verhalten. Gemeinsam ist Social Bots – und das soll sie im Folgenden als „Intelligenz“ kennzeichnen –, dass sie innerhalb eines vordefinierten Rahmens Entscheidungen treffen können. Indem diese Entscheidungen zunehmend komplexer werden, muten sie zunehmend menschlicher an. Entscheidungen treffen sie jedoch ausschließlich auf Grundlage von Daten, da sie nicht über menschliche, im Prozess der Sozialisation erworbene Erfahrungen verfügen. Mead spricht von Erfahrungen, die sich jederzeit mit Identität identifizieren lassen: Ich glaube, daß wir zwischen bestimmten Erfahrungen, die wir als subjektiv bezeichnen, weil wir allein Zugang zu ihnen haben, und der Erfahrung, die wir reflektiv nennen, unterscheiden können. (Mead, 1995: 209) Aus diesem Zitat wird zweierlei deutlich. Erstens ist Identität kein im jungen Erwachsenenalter abgeschlossener Prozess und zweitens wird der Stellenwert von Erfahrung betont, der sich eben auch im prüfenden Nachdenken manifestiert. 25 Auch wenn Siri und Alexa den Anschein einer sinnvollen Kommunikation zu erwecken versuchen, lässt ihr eingeschränktes Repertoire doch nur vorgefertigte Antworten zu, ähnlich wie Weizenbaums ELIZA. Kapitel 2: Die Digitalisierung menschlicher Kommunikation 54 The wealth of new data, in turn, accelerates advances in computing — a virtuous circle of Big Data. Machine-learning algorithms, for example, learn on data, and the more data, the more the machines learn. Take Siri, the talking, question-answering application in iPhones […] Its origins go back to a Pentagon research project that was then spun off as a Silicon Valley start-up. Apple bought Siri in 2010, and kept feeding it more data. Now, with people supplying millions of questions, Siri is becoming an increasingly adept personal assistant, offering reminders, weather reports, restaurant suggestions and answers to an expanding universe of questions. (Lohr, 2012: 2) Kommunikation wurde mit Mead als soziale Aktion definiert, in der sich Menschen auf gemeinsame Bedeutungen von – vor allem sprachlichen – Handlungen verständigen. In der Interaktion mit einem künstlichen System richtet sich die kommunikative Erwartung, Bedeutungen zu verstehen, nun an ein System, das zwangsläufig die Kenntnis von Bedeutung nicht im Prozess der Sozialisation erworben hat. Daraus ergibt sich ein erster Anhaltspunkt für die Differenz von Interaktion zwischen Menschen und zwischen Mensch und Maschine. ML [machine learning] ist ein Teilaspekt der KI und beinhaltet technische (künstliche) Konzepte, aus bereits vorhandenem Wissen (Erfahrung) neues Wissen zu generieren. Ausgehend von Daten bzw. Beispielen wird dazu ein künstliches System (ML-Modell) trainiert, um Muster oder Gesetzmäßigkeiten zu erkennen, diese dann für eine Analyse neuer, bisher unbekannter Daten zu verwenden und daraus die richtigen Schlussfolgerungen zu ziehen. (Hartmann, 2018 : 323) Auch Mark Hartmann bestätigt die grundlegend unterschiedliche Informationsverarbeitung von Mensch und künstlicher Intelligenz. Sie ist derart fundamental, dass sie nur durch die Simulation menschlicher Reaktionen durch die künstlichen kommunizierenden Systeme überbrückt werden kann (vgl. Conrad, 2017: 742). Evgeny Morozov merkt an, dass Menschen den künstlichen kommunizierenden Systemen ungleich weiter entgegenkommen, da sie in ihren Reaktionen weiterhin wesentlich flexibler sind als die auf feste Programmierung angewiesenen künstlichen Systeme (vgl. Morozov, 2013: 575). Die Anpassung von Menschen an Systeme wird dadurch vorangetrieben, dass digitale Agenten in immer mehr Bereichen eingesetzt werden, denn sie ermöglichen uns Zugang zu jeglicher Art von digitalisierter Information. 2.1 Digitale Agenten – Neue Kommunikationspartner 55 Beim sogenannten Self-Tracking, der digitalen Selbstvermessung, werden die aufgezeichneten Daten über unsere Verhaltensweisen und Zustände sichtbar gemacht. Algorithmen verknüpfen diese Daten und geben uns vermeintlich objektive Informationen über uns. Diese Form der empirischen Selbstvermessung zum Nutzen der Selbstoptimierung trägt zu einer Instrumentalisierung des Körpers bei. Michel Foucault spricht von der sorgfältigen Verwaltung der Körper und der rechnerischen Planung des Lebens. Der von ihm geprägte Begriff Biomacht beschreibt die im 18. Jahrhundert beginnende Ära, in der „[…] verschiedenste Techniken zur Unterwerfung der Körper und zur Kontrolle der Bevölkerungen […]“ zur Anwendung kommen (Foucault, 1977: 167). In der digitalen Gesellschaft verändert sich nicht nur das Verhältnis zwischen den Menschen durch die von ihnen verwendete Kommunikationstechnik, sondern auch ihr Verhältnis zu ihrem eigenen durch eine digitale Brille betrachteten Körper (vgl. Floridi, 2015: 75).26 Self- Tracking-Programme haben zwar einerseits den menschlichen Körper im Blick, sie betrachten diesen allerdings ausschließlich durch ihre digitale Sichtweise. Quantifizierung und Objektivität, die den algorithmisch erzeugten Daten zugemessen wird, führen nicht nur zu digital vermitteltem Wissen über uns selbst, sondern in letzter Konsequenz auch zu einer Neukonfiguration des Ich. Körper sind in der digitalen Welt nicht als singulär zu begreifen, da sie und unser Wissen über sie aus Vernetzung entstehen. Aus der Korrelation der Daten entstehen normative Größen. Es entwickelt sich ein Netzwerk aus Selbstkontrolle, technischer Kontrolle und als weiteren resultierenden Effekt soziale Kontrolle. Das Argument, Computer könnten auf Grund ihrer Rechenleistung ungleich objektivere Ergebnisse liefern, verkennt die Unterschiede zwischen Menschen und erhebt Objektivität zur Norm. Die folgenden Überlegungen sind in vier Abschnitte gegliedert. Im ersten Teil geht es um die Möglichkeiten, die sich aus der Verwendung der digitalen Informationsverarbeitung ergeben. Der zweite Abschnitt wird zeigen, wie sich die digitale Informationsverarbeitung vom menschlichen 26 Mit diesem Befund ist Luciano Floridi nicht alleine. Seine Forschung wird hier nur exemplarisch angeführt. Zu nennen wären u. A. Felix Stalder (2016), Jaron Lanier (2014), Mercedes Bunz (2012), Sherry Turkle (2017). Kapitel 2: Die Digitalisierung menschlicher Kommunikation 56 Informationsverständnis unterscheiden lässt.27 Im dritten Teil wird die Frage gestellt, ob sich menschliches Bewusstsein künstlich erzeugen lässt. Dazu werden die Theorien Thomas Metzingers herangezogen, um schließlich auf dieser Grundlage im vierten Schritt mit Dennett darzustellen, welche Annahmen Interaktion mit künstlicher Intelligenz erbringen muss. Die Auswahl der genannten Autoren verfolgt zwei Ziele: Zunächst soll mit Weizenbaum als Ahnherrn der künstlichen Intelligenzentwicklung und mit Flusser als für seine Zeit visionärer Denker zum Verhältnis von Mensch und Kommunikationstechnik eine Basis geschaffen werden. Anschließend werden Metzingers Überlegungen zur Entwicklung künstlichen Bewusstseins durch Algorithmen der künstlichen Intelligenz eingeordnet und Dennetts Beitrag zum Verhältnis von Bewusstsein und intentionalen Systemen wird einer Prüfung unterzogen. Ich habe bewusst nicht nur Ansätze aus den Sozialwissenschaften und der Sozialpsychologie gewählt, sondern auch naturwissenschaftliche Ansätze einbezogen, um mich der Frage nach Identität und Bewusstsein zu nähern und das Thema von verschiedenen Seiten zu beleuchten. Vilém Flusser: Realitätskonstruktion durch Kommunikation Von der Annahme ausgehend, dass die Welt, in der die Menschen leben, nicht in einer von ihnen unabhängigen Weise existiert, sondern sich erst aus dem Verhältnis und durch die Handlungen der Menschen untereinander konstruiert, kann Flusser die Geschichte des Menschen als eine der Abhängigkeiten vom jeweilig dominanten Medium beschreiben. So zeichnet er drei Menschenbilder. Die Grenzen dieser Bilder sind über die Epochen fließend. Das erste beschreibt den Menschen als 2.2 27 Aus diesem Unterschied soll im Verlauf der Arbeit der Unterschied zwischen zwei verschiedenen Arten von Kommunikation erklärt werden. Es handelt sich zum einen um Kommunikation, in der die digitale Kommunikationstechnik den Status des Vermittlers einnimmt, und zum anderen um die Situation, in der eine Person direkt mit der digitalen Kommunikationstechnik interagiert, wie es bei der Kommunikation mit digitalen Agenten der Fall ist. 2.2 Vilém Flusser: Realitätskonstruktion durch Kommunikation 57 einen von den ihn umgebenden Objekten abhängigen, das zweite als einen, der diese Objekte mit Schriftsprache beschreibt, und das dritte den, der diese Beschreibungen wiederum in technische Bilder überführt. Kommunikation erfüllt für Flusser zwei grundlegende Zwecke. Zunächst konstruiert sie die Identität der kommunizierenden Menschen. Diese können im Rahmen der Flusserschen Theorie als Verbindungen verschiedener Informationsflüsse begriffen werden. Zum zweiten ermöglicht Kommunikation dem Menschen, mit dem Wissen um seine eigene Sterblichkeit umzugehen, da er sich anderen Menschen mitteilen, in Erinnerung bleiben und so der Vergänglichkeit entgegenwirken kann. Im Versuch, die Welt nicht nur zu beschreiben, sondern durch den Umgang mit Informationen aktiv zu verändern, hat sich der Mensch schrittweise von ihr distanziert, da seine Beschreibungen mit zunehmender Präzision immer abstrakter wurden. In dieser Loslösung sieht Flusser einen wichtigen Schritt zur Freiheit des handelnden Menschen. Seine Theorie zum Umgang des Menschen mit Kommunikationstechnik lässt sich als Theorie zur Überwindung bisheriger Grenzen menschlichen Handelns lesen. Für das Weltverständnis eines Menschen, der sich von Objekten umgeben sieht, ist es nach Flusser charakteristisch, diesen ihren Platz in einer Art göttlichen oder magischen Ordnung zuzugestehen und diese Ordnung nicht in Frage zu stellen. Grundlegend sind Wiederholung und die feste Abfolge (vgl. Flusser, 2009: 227). Eine Emanzipation von dieser unveränderbaren Ordnung findet erst mit der Erfindung der linearen Schrift statt. Diese überführt die zirkuläre Ordnung des ersten Mensch-Welt-Verhältnisses in ein Verständnis aus Ursache und Wirkung. Aus dieser Ursache-Wirkung-Beziehung, also aus dem Gedanken der Kausalität, entsteht die Vorstellung, zwischen verschiedenen Handlungen wählen zu können. Der Freiheitsbegriff dieses Weltbildes ist die Entscheidungsfreiheit. Sie hat einen dramatischen Charakter, da jeder Moment in seinem Bedingungsgefüge einzigartig ist. Verpasst man einen Augenblick, verliert man bestimmte Entscheidungsmöglichkeiten unwiderruflich. Der Freiheit wird hier ein hoher Stellenwert zugesprochen. Sie ist der Wert, auf den sich alle anderen begründen. (Köppl, 2013: 3) Kapitel 2: Die Digitalisierung menschlicher Kommunikation 58 Doch je mehr Wissen der Mensch durch dieses Ursache-Wirkung- Denken über die Welt erwirbt, desto mehr kann er sich von den Zwängen dieser Welt lösen. Notwendigkeiten werden zu Möglichkeiten und Bedingungen zu veränderbaren Voraussetzungen. Mit zunehmendem Wissen gerät der Mensch in eine neue Sphäre der Freiheit. Sie besteht darin, die Welt nicht mehr lediglich zu beschreiben, um sie zu begreifen, sondern sie zu entwerfen – sie sich also insofern untertan zu machen. Das Entwerfen dieser Modelle ist dem Menschen – so Flusser – möglich, da er den linearen Verlauf der Schrift in ein mathematischkalkulatorisches Denken überführt hat, um die Grenzen, die ihm die lineare Beschreibung gesetzt hatte, hinter sich lassen zu können. Köppl beschreibt diesen Prozess mit den Worten Zufall, Absicht, Komputation (vgl. Köppl, 2013: 5). Die stetige Motivation der Menschen, ihre weltbeschreibenden und schließlich weltkonstruierenden Techniken weiterzuentwickeln, sieht Flusser in dem Bedürfnis, dem Zerfall von Information entgegenwirken. Damit soll der Absurdität, zu wissen, dass das Leben endlich ist, entronnen werden. Informationen werden deshalb konserviert, verteilt und an nachfolgende Generationen weitergegeben (vgl. Winkler, 2013: 138). Rainer Guldin führt die Bedeutung der dialogischen Kommunikation für Flusser aus, wenn er schreibt: Wir kommunizieren nicht so sehr, um Informationen zwischen einem Sender und einem Empfänger auszutauschen, die durch einen Kanal verbunden sind, sondern um zusammen mit anderen einen Grund für das Leben zu finden. Die menschliche Kommunikation ist ein künstlicher, intentionaler, dialogischer kollektiver Akt der Freiheit, der die Absicht verfolgt, Codes zu erschaffen, die uns helfen, die Unvermeidlichkeit unseres Todes zu vergessen sowie die grundlegende Sinnlosigkeit unserer absurden Existenz. (Guldin, 2009: 73) Trotz der Tatsache, dass Sprache in ihren verschiedenen Ausformungen nicht nur für Verständigung zwischen Menschen, sondern auch für Barrieren in der Kommunikation sorgt, sieht Flusser sie als wichtiges Mittel bei der Weitergabe von Informationen (vgl. Flusser, 1997b: 55). 2.2 Vilém Flusser: Realitätskonstruktion durch Kommunikation 59 Mit dem Erlernen einer Sprache setzt sich auf unsere biologische eine kulturelle Bedingung. Das ist ein ambivalenter Vorgang allein schon deshalb, weil er uns zwar über unsere biologische Bedeutung hinweghebt, uns aber auch vom Großteil der anders sprechenden Menschheit trennt, und zwar weit stärker, als alle übrigen kulturellen Codes (etwa das Malen, das Singen oder das Rechnen) dies tun. Trotz dieses gewaltigen Nachteils des Sprechens, dessen wir uns immer bewußt sein sollten, hebt uns die Sprache in einen für uns unüberschaubaren Strom von erworbenen Informationen – von Erkenntnissen, Erlebnissen und Werten, die ungezählte Generationen erworben und der Sprache anvertraut haben, und dies nicht nur in dem, was die Sprache sagt, sondern auch darin, wie sie dies aussagt. (Flusser, 1997b: 54f) Der für Flusser bedeutsamste Aspekt in diesem Prozess liegt jedoch nicht in der gedanklichen Anstrengung, Dinge und Situationen der Umwelt zu beschreiben und zu begreifen, sondern in der mit der zunehmenden Präzisierung dieser Beschreibung einhergehenden Distanzierung. Diese vollzieht sich, da jede Präzisierung einer Beschreibung das Beschriebene in immer kleinere Einheiten zerlegen muss (vgl. Flusser, 1998: 21). Am Punkt der Zerlegung der Welt in Punktelemente habe der Mensch, so Flusser, sich gänzlich von der gegenständlichen Welt entfernt, wodurch er in die Lage geraten sei, nicht mehr nur Beschreibungen der Welt anzufertigen, sondern diese Beschreibungen mit seinen Vorstellungen so anzureichern, dass sie zu Imaginationen würden (vgl. Flusser, 1988: 37). Die theoretische Möglichkeit der Berechnung der Welt versetze den Menschen in die Lage, sich von der ihn umgebenden Welt zu distanzieren und sich ihr gegenüber frei zu verhalten in dem Sinn, dass er nicht mehr zwischen gegebenen, zu beschreibenden Optionen auswählt, sondern alternative Handlungsoptionen absichtsvoll erschafft (vgl. Flusser, 1993b: 41). Jede Information muß schließlich zerfallen. Jedes menschliche Gehirn muß schließlich in seine Elemente aufgelöst werden. Die Spezies »Homo Sapiens«, das Leben auf der Erde, die Erde selbst müssen schließlich in diese allgemeine Tendenz der Welt zur Desinformation hin tauchen und aufgelöst werden. […]. Und dieser Informationszerfall ist grundlegender als die Informationserzeugung, weil nämlich Informationen durch unwahrscheinliche und Informationszerfall durch wahrscheinliche Zufälle entsteht. (Flusser, 1985: 75) Kapitel 2: Die Digitalisierung menschlicher Kommunikation 60 Diese Freiheit verdeutlicht Flusser am Beispiel technisch erzeugter Bilder. Sie befähigen Menschen, die Welt nicht mehr als gegebene wahrzunehmen, sondern sich eine Vorstellung von der Welt selbst zu erschaffen. Die Beschreibung ist also nicht mehr zwingend eine Beschreibung von etwas, das existiert (vgl. Flusser, 1998: 16). Freiheit ohne Absicht hat doch keinen großen Sinn. Ich habe den starken Verdacht, daß das Wort «Freiheit» außerordentlich überschätzt wird. Es ist nämlich das Synonym von «Sünde». Was im Mittelalter «Sünde» genannt wurde, wurde in der Neuzeit «Freiheit» genannt, nämlich die Möglichkeit, sich gegen das Schicksal zu stemmen. (Flusser, 1996b: 202) Im Laufe des Prozesses zur Erlangung dieser Freiheit haben die Menschen Apparate entwickelt, die es ihnen ermöglichen, die Welt abzubilden und technische Bilder zu machen. Allerdings machen technische Bilder die Welt nach Flusser dem Menschen nur scheinbar zugänglicher. Tatsächlich erzeugen sie nach Meinung Flussers eine weitere Distanzierung in der Beschreibung der Welt, deren Abbildung sie nur simulieren, da sie sich nicht auf das Dargestellte beziehen, sondern auf die Regeln, nach denen sie diese Darstellung kreieren. Er beschreibt, dass die Simulation durch die Veranschaulichung von „numerischen Analysen“, in Form von digital erzeugten Bildern, die auf Sachverhalte in der Welt Bezug nehmen, stattfindet. So sind die Menschen zu Bildern gekommen, die ausschließlich das Produkt dieser Analysen sind und sich nicht mehr auf das beziehen, was sie abbilden. Es hat sich […] gezeigt, daß Computer nicht nur kalkulieren, sondern überraschender Weise auch komputieren [sic!]. Sie zerlegen die Algorithmen nicht nur in Zahlen (in punktartige Bits), sondern sie sammeln diese Bits auch zu Gestalten, zum Beispiel zu Linien, zu Flächen (künftig auch zu Körpern und bewegten Körpern), aber auch zu Tönen. (Flusser, 1997b: 52)28 Aus dieser Perspektive lässt sich ein Blick auf künstliche kommunizierende Systeme werfen. Die Tatsache, dass der Mensch nicht mehr durch die Technik vermittelt auf Sachverhalte in der Welt Bezug 28 Hier lässt sich erkennen, dass Flusser trotz der Titel einiger seiner Werke („Für eine Philosophie der Fotografie“ oder auch „Ins Universum der technischen Bilder“) bei der Kommunikation mit und durch die Digitalisierung nicht ausschließlich von bildbasierter Kommunikation ausgeht, vielmehr nutzt er diese, um den grundlegenden Mechanismus des „Entwerfens“ der Welt zu veranschaulichen. 2.2 Vilém Flusser: Realitätskonstruktion durch Kommunikation 61 nimmt, sondern das, was er wahrnehmen kann, immer stärker selbst gestaltet, ist nach Flusser eine Zäsur in der Verwendung der Kommunikationstechnik. Sie dient nun nicht mehr nur der Vermittlung, sondern auch der Erschaffung von neuen informativen Situationen (vgl. Flusser, 1996a: 15). Überträgt man das von Flusser analysierte Verhältnis von Vermittlung und Erschaffung technisch bedingter informativer Situationen auf die heutige Situation kommunikativer Interaktion mit künstlichen kommunizierenden Systemen, wird die Parallelität deutlich. Wie die technisch erzeugten Bilder Flussers nehmen künstliche kommunizierende Systeme nicht Bezug auf das, was sie darstellen beziehungsweise mitteilen. Ihre Darstellungen und Reaktionen sind nicht Resultat von Erfahrungen, sondern von Berechnungen. Daher bezeichne ich sie von nun an als Simulation von Kommunikation, um sie von der zwischen Menschen unterscheiden zu können. Das sich durch die digitalen Codes ausdrückende und bildermachende Denken ist eine Karikatur des Denkens. Aber es ist geradezu gemeingefährlich, diese neue Denkart deswegen etwa als dumm oder auch nur als einseitig verachten zu wollen. (Flusser, 2002: 140) Die Tatsache, dass künstliche kommunizierende Systeme mit Menschen kommunizieren, als seien sie fähig, deren Sprache und die mit ihr verknüpften Bedeutungen zu verstehen, tatsächlich dieses Verstehen jedoch nur simulieren, weil sie nicht mehr auf der für menschliche Kommunikation entscheidenden Bezugnahme beruhen, bestätigt Flusser in zwei Annahmen: Die Beschreibungen der Welt lösen sich durch die Digitalisierung von dem, was sie zu beschreiben versuchen. Obwohl künstliche Intelligenzen keine Bedeutungen erfassen können, sind sie in der Lage, sie zu produzieren. Sie arbeiten mit einem kalkulatorischen Code statt mit einer linearen Verknüpfung von Ursache und Wirkung. Das Gegenüberstehen dieser beiden Kommunikationsformen ist von neuer Qualität. Die Interaktion mit künstlicher Intelligenz weicht den Subjekt-Objekt-Dualismus, den Flusser durch die Verwendung zunehmend autonom kalkulierender Kommunikations- Kapitel 2: Die Digitalisierung menschlicher Kommunikation 62 systeme in Auflösung begriffen sieht, noch weiter auf (vgl. Alpsancar, 2015: 132).29 Menschen sind in der Lage, mit Systemen – bei Flusser sind es noch Apparate – zu agieren, deren Funktionsweisen sie nicht mehr begreifen. Flusser unterscheidet zwischen struktureller und funktionaler Komplexität. Im Falle künstlicher Systeme sieht sich der Mensch mit einem strukturell extrem komplexen, funktional jedoch vergleichsweise einfachen System konfrontiert. Er ist – fast ausnahmslos – nicht in der Lage, die komplexen Funktionsweisen dieser Systeme zu begreifen, er ist jedoch in der Lage, sie zu bedienen. Indem Flusser den Menschen stets durch das Verhältnis zur ihn umgebenden Welt begreift, wird der Mensch in dieser Situation zum Funktionär einer Maschine (vgl. Flusser, 2014: 171). „Anders gesagt, Funktionäre beherrschen ein Spiel, für das sie nicht kompetent sein können“ (Flusser, 1997a: 22). Ein beeindruckendes Beispiel dafür, wie weit sich Flussers Apparate mittlerweile dem Menschen angenähert haben und ihm zunehmend Kompetenzen streitig machen, die einst nur ihm vorbehalten waren, zeigen die jüngsten Versuche, „digitale Kreativität“ zu erschaffen. Diese einst dem Menschen vorbehaltene Eigenschaft, deren Ursachen für die Psychologie weiterhin nicht vollständig erforscht sind, wird nun maschinell reproduziert. So können beispielsweise künstliche Intelligenzen selbstständig Musikstücke komponieren (Lenzen, 2017: 1). Zweierlei ist hier von Interesse: Die Frage, ob „Kreativität“ eine ausschließlich dem Menschen obliegende Fähigkeit ist, hängt weniger von ihrer Ursache als von ihrer Definition ab. Begreifen wir sie als Zusammenfügen (im Gedächtnis eines Menschen oder im Speicher eines Computers) verborgener Elemente, aus deren Emergenz etwas „Neues“ entsteht, so wäre digitale Kreativität unter bestimmten Voraussetzungen denkbar. Begreifen wir sie jedoch als Ausdruck menschlichen Seins, das auf Erfahrungen im Sozialisationsprozess und der Interaktion beruht, werden künstliche Intelligenzen nicht über Kreativität verfügen können. 29 Weitere Ausführungen zum „Kalkulatorischen Denken“ siehe „Ins Universum der technischen Bilder“ (Flusser, 1985: 76f). 2.2 Vilém Flusser: Realitätskonstruktion durch Kommunikation 63 Auf die Möglichkeit beziehungsweise Unmöglichkeit der Erschaffung künstlichen Selbst-Bewusstseins als Voraussetzung für Kreativität werde ich in Abschnitt 2.4 eingehen. Festzuhalten ist, dass wir Menschen Techniken – bei Flusser bisweilen auch Werkzeug – entwickelt haben, deren verändernde Kraft wir allmählich erst zu erfassen vermögen, wenn wir von ihnen umgeben sind. Die Absicht, mit der ein Werkzeug erfunden wird, geht diesem also voraus; aber wenn das Werkzeug einmal hergestellt ist und sich der Geist in dieser Form objektiviert hat, so entsteht ein Feedback. Zuerst imitiert der Mensch sich in der Welt, und dann imitiert er seine eigenen Imitationen. In diesem Kreis verändert sich der Mensch. Das Werkzeug beginnt, in einer ganz anderen Funktion gesehen zu werden als jener, für die es ursprünglich hergestellt wurde. (Flusser, 1996b: 47) Den Techniken, die wir selbst entwickelt haben, sind wir selbst ausgeliefert. Entkommen können wir ihnen nach Flusser nur, wenn wir zur „Technoimagination“ in der Lage sind. Als Imagination begreift Flusser nicht eine Fähigkeit zur „Einbildung“, sondern die Fähigkeit, sich Bilder von Sachverhalten zu machen, Sachverhalte in Bildern wiederzuerkennen. Einbildung ist für ihn eine Übersetzungsleistung. Zu imaginieren bedeutet für ihn hingegen, sich über die Funktionsweisen von etwas klar zu werden. Laut der hier vorgeschlagenen Definition wird unter Technoimagination die Fähigkeit verstanden, sich Bilder von Begriffen zu machen, und solche Bilder dann als Symbole von Begriffen entziffern. Vor dem tastenden Versuch, diese Welt der Technoimagination zu umreißen, sei an ihre Genese und ihre Funktion erinnert. (Flusser, 1996a: 209) 30 Flussers Denken ist komplex und assoziationsreich. Ich habe in diesem Kapitel den Versuch unternommen, das Wesentliche für das Thema dieser Arbeit zu komprimieren. Wertvoll ist sein Verständnis vom Angewiesensein des Menschen auf das Gegenüber, das Du. Er geht über Mead hinaus, weil er visionär die Risiken und Chancen computervermittelter Kommunikation erkennt und beschreibt. Sein Blick darauf, dass auch Technik den Menschen ins Visier nimmt, ist wegweisend für nachfolgende Überlegungen zur Mensch- Maschine-Kommunikation. So bemerkt Flusser bereits Jahrzehnte be- 30 „Der Ausdruck, den Flusser dafür immer wieder neu zu prägen versucht, variiert von ‚Technoimagination‘ […] zur ‚neuen Einbildungskraft‘“ (Winkler, 2012: 2). Kapitel 2: Die Digitalisierung menschlicher Kommunikation 64 vor künstliche kommunizierende Systeme den Alltag vieler Menschen beeinflussten folgendes: Der Geist wird zum Objekt technischer Manipulation und daher simulierbar. Alle mentalen Funktionen, angefangen von der Wahrnehmung bis zur Entscheidung (»künstliche Intelligenz«), werden von jetzt an objektivierbar, und das heißt vom Menschen auf andere Objekte übertragbar. (Flusser 1998: 19) Indem er menschliche Sprache klar von Computersprache unterscheidet, eröffnet er die Möglichkeit, zu analysieren, wie sich die Mensch- Maschine-Kommunikation auf den Menschen einwirkt. Gezeigt wird, wie Simulation von Kommunikation auf technischer Ebene entsteht und warum sich menschliche von künstlicher Kommunikation in der Bezugnahme der Informationen auf die Welt unterscheidet. Ferner wird analysiert werden, wie der Umgang mit künstlichen kommunizierenden Systemen die Struktur „unserer“ Kommunikationsgesellschaft beeinflusst. Joseph Weizenbaum: Die Digitalisierung menschlicher Kommunikation Bereits in den sechziger Jahren untersuchte Weizenbaum die Kommunikation von Menschen mit informationsverarbeitenden Systemen, die in der Lage waren, eine einfache Konversation zwischen Mensch und Maschine zu simulieren. Dabei beschränkte er seine Rolle nicht auf die des neutralen Beobachters, sondern wies auf Gefahren hin, die heute breit diskutiert werden. […] es (ist) wichtig, daß ich meine Abhandlung über den Einfluß des Computers auf den Menschen und seine Gesellschaft so aufbaue, daß deutlich wird, daß es sich um eine besondere Art der Verschlüsselung eines viel umfassenderen Einflusses handelt, nämlich auf die Rolle des Menschen angesichts von Techniken und Technologien, die er möglicherweise weder verstehen noch kontrollieren kann. (Weizenbaum, 1990: 25) Ähnlich wie Flusser hält Weizenbaum die elektronische Informationsverarbeitung für die Ursache des veränderten Verhältnisses des Menschen zur Technik. Diese Veränderung bezeichnet er als grundlegend. Mit seinem in den sechziger Jahren geschriebenen Computerpro- 2.3 2.3 Joseph Weizenbaum: Die Digitalisierung menschlicher Kommunikation 65 gramm ELIZA gelang ihm erstmals die Simulation einer Konversation zwischen Maschine und Mensch. Versuchspersonen sprachen mit ELIZA wie mit einem anderen Menschen, obwohl sie darüber aufgeklärt waren, dass es sich um ein Computerprogramm handelte. […] machines are made to behave in wondrous ways, often sufficient to dazzle even the most experienced observer. But once a particular program is unmasked, once its inner workings are explained in language sufficiently plain to induce understanding, its magic crumbles away […]. (Weizenbaum, 1966b : 36) Das heißt, schon allein die scheinbare menschliche Anmutung der von ELIZA gegebenen Antworten ließ die Probanden vergessen, dass sie mit einer Maschine kommunizierten. So gaben sie beispielsweise intime Details aus ihrem Leben preis (vgl. Weizenbaum, 1990: 15ff). Hier ein Auszug aus dem 1966 von Weizenbaum in „Communications of the ACM“ veröffentlichten Aufsatz „ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine“: Men are all alike. IN WHAT WAY They're always bugging us about something or other. CAN YOU THINK OF A SPECIFIC EXAMPLE Well, my boyfriend made me come here. YOUR BOYFRIEND MADE YOU COME HERE He says I'm depressed much of the time. I AM SORRY TO HEAR YOU ARE DEPRESSED31 Gemessen an der eingangs vorgestellten Definition von Kommunikation, lässt sich festhalten, dass ELIZA Verstehen nur simulieren kann. Ihre Reaktionen haben für sie keine Bedeutung, denn sie ist nicht fähig, sich in die Lage ihres menschlichen Gegenübers hineinzuversetzen. Weizenbaum leitet aus den Reaktionen auf ELIZA ab, dass das Verhältnis von Menschen zu Technik sich ändert, wenn Technik auf kommunikatives Verhalten reagiert. Denn das berührt ein Gebiet, das bisher dem Menschen überlassen war: die Verknüpfung von Informa- 31 ELIZA ist in dieser Kommunikation durch Großbuchstaben erkennbar. Kapitel 2: Die Digitalisierung menschlicher Kommunikation 66 tionen mit Bedeutungen in Form von Antworten auf vom Menschen gestellte Fragen (vgl. Weizenbaum, 1990: 272).32 Beim Versuch, die Differenz zwischen menschlicher und künstlicher Informationsverarbeitung zu überbrücken, neigen Menschen dazu, Computern menschlichen Eigenschaften zuzuschreiben, da sie keine andere Form der Erklärung finden (vgl. Weizenbaum, 1990: 23). Hier liegt für Weizenbaum die Gefahr, dass die Verarbeitung von Daten mit dem Verständnis von Daten gleichgesetzt werden könnte. „Es ist schwer zu sehen, was es bedeuten könnte, wenn man von den Hoffnungen eines Computers spricht“ (Weizenbaum, 1990: 278).33 Den Aspekt der Anthropomorphisierung des Computers hat Erhardt Tietel gründlich beleuchtet. Er schildert Zuschreibungen menschlicher Eigenschaften von den Anfängen der Computer an bis in die Ära der ersten Personalcomputer: Auch Robert Seeber, ein Ingenieur der Eckert & Mauchly-Rechenmaschinengesellschaft, behauptet, daß seine Automaten menschliche Angewohnheiten hätten: Sie haßten es, morgens früh aufwachen zu müssen. „Man stellt sie an, die Röhren leuchten auf und erhalten die richtige Betriebstemperatur, aber die Maschine ist noch nicht richtig erwacht. Schickt man ein Problem durch den schläfrigen Automaten, kommt man damit nicht weit. Aufleuchtende Lampen melden, daß die Maschine einen Fehler gemacht hat. Man muß es nochmals mit Geduld versuchen. Jetzt denkt die Maschine schon klarer. Schließlich, nach einigen Versuchen erst, ist sie ganz wach und bereit, richtig zu denken.“ (Tietel, 1995 : 14) 32 Information wird im Rahmen dieser Arbeit als Ausdruck von Bedeutung begriffen. Bedeutung wird hier als subjektiver Prozess, in dem Kontextwissen zum Verständnis herangezogen wird, bezeichnet. Eine Information beschreibt damit einen Zustand, der erst durch Wissen um seinen Kontext eine Bedeutung erhält. „Mit anderen Worten, die Bedeutung lässt mehr als die Ausdrucksform zu, und in diesem Sinn muß eine Unterscheidung zwischen Bedeutung und Ausdruck möglich sein“ (Taylor, 1994: 170). 33 Damit betrachtet Weizenbaum die Informationsverarbeitung des Computers als Vorgang der Problemlösung und gelangt so zu der Frage, ob menschliches Handeln mehr als Handeln zur Problemlösung ist. 2.3 Joseph Weizenbaum: Die Digitalisierung menschlicher Kommunikation 67 Weizenbaum thematisiert die fälschliche Verwendung von Begriffen, wenn er schreibt: Der menschliche Gebrauch der Sprache ist eine Manifestation des menschlichen Gedächtnisses. Und das ist etwas ganz anderes als der Speicher des Computers, dem man mit dem Wort „Gedächtnis“ menschliche Eigenschaften zugeschrieben hat. (Weizenbaum, 1990 : 278)34 Die amerikanische Soziologin und Psychologin Sherry Turkle beschreibt diese Zuschreibung mit dem Begriff des robotic-moment. Mit diesem Begriff bezeichnet sie den Moment, in dem ein Mensch sich einem künstlichen kommunizierenden System gegenüber verhält, als habe dies Emotionen (vgl. Turkle, 2012: 47). People expect agents to support features such as sensing capabilities, autonomy, reactive and proactive reasoning, social abilities, and learning. Multiagent systems emphasize social abilities, such as communication, cooperation, conflict resolution, negotiation, argumentation, and emotion. (Ramos, Augusto & Shapiro, 2008: 16) Emotionen zu unterstellen bedeutet, reflexive Intelligenz im Sinne Meads zuzubilligen. Die Auswirkungen auf das Verhältnis zwischen Menschen und künstlichen Kommunikationssystemen könnten darin bestehen, dass technische Informationsverarbeitung und menschliche Intelligenz gleichgesetzt werden (vgl. Lanier, Mallett & Schlatterer, 2014: 253). Diese Gleichsetzung könnte wiederum dazu führen, dass Tätigkeiten wie die Speicherung und die Verteilung von Informationen, worin künstliche Systeme dem Menschen überlegen sind, gegenüber der sinnhaften (Neu-) Verknüpfung von Informationen, in der der Mensch wiederum den künstlichen Systemen überlegen ist, einen höheren Stellenwert gewinnen. Die hieraus möglicherweise resultierende Gefahr haben wir mit Flussers Begriffen „Verbündelung“ und „Vernetzung“ beschrieben. Als weitere Konsequenz könnte der Mensch gezwungen sein, sich in seiner Art, mit Informationen umzugehen, immer stärker den formalen Verfahren maschineller Informationsverarbeitung anzunä- 34 Im Englischen wird der Begriff „Organized Memory“ verwendet statt „Gedächtnis“. Kapitel 2: Die Digitalisierung menschlicher Kommunikation 68 hern.35 Diese Annäherung zwischen Menschen und künstlichen Systemen wird durch die immer exaktere Reaktion künstlicher Intelligenzen zusätzlich begünstigt, da sie immer präziser reagieren. Ermöglicht wird dies durch die von den Nutzerinnen und Nutzern nicht selten freiwillig zur Verfügung gestellte Menge an Daten, auf deren Grundlage immer präzisere Reaktionen generiert werden. Sherry Turkle wechselt die Perspektive, indem sie die Frage nach dem evokatorischen (im Original „evocative“) Charakter von Computern stellt. Für ihre sechs Jahre umfassende Studie hat sie Computernutzerinnen und -nutzer aller Altersgruppen untersucht und festgestellt, dass die Auseinandersetzung mit Computern zu philosophisch anmutenden Auseinandersetzungen mit zentralen Fragen des Lebens führte (vgl. Turkle 1984: 31). Das Thema Anthropomorphisierung soll hier nicht weiter ausgeführt werden, da es vom eigentlichen Untersuchungsgegenstand wegführt. Um beschreiben zu können, wie digitale Systeme mit Informationen umgehen, verwendet Weizenbaum den Begriff des „effektiven Verfahrens“. Darunter versteht er die Verarbeitung von Daten nach so präzise definierten Regeln, dass sich das Ergebnis unmissverständlich ergibt. Wir suchen nach einer einzigen Sprache, in deren Begriffen sich effektive Verfahren ausdrücken lassen, zumindest in dem Sinne, daß wir sämtliche Verfahrenssprachen in dieser Sprache beschreiben können und damit unsere Verfahren eindeutigen Interpretationen zugänglich machen. (Weizenbaum, 1990: 91) Der Unterschied zwischen dem effektiven Verfahren und der menschlichen Sprache besteht nach Weizenbaum in der Abhängigkeit der menschlichen Sprache vom jeweiligen Kontext bei der Vermittlung von Bedeutung. Wenn wir alles beiseitelassen, was mit formal unentscheidbaren Fragen, unendlichen und mangelhaften Verfahren zu tun hat, dann stehen wir zwangsläufig vor der Frage: „Sind alle menschlichen Entscheidungsprozesse auf effektive Verfahren reduzierbar und damit einer maschinellen Berechnung zugänglich?“ (Weizenbaum, 1990: 99) 35 Inwieweit sich diese Entwicklungen vollziehen, werden wir im Laufe dieser Arbeit unter anderem auf Basis der Untersuchungsergebnisse Sherry Turkles noch betrachten. 2.3 Joseph Weizenbaum: Die Digitalisierung menschlicher Kommunikation 69 Weizenbaum verneint dies entschieden. Menschen verfügen über Ziele, Wünsche, Absichten. Maschinen dagegen fehlt diese Intentionalität. Durch das effektive Verfahren wird sie substituiert. Übertragen auf digitale Kommunikation, will ich die Frage Weizenbaums aufgreifen und untersuchen, welche Kommunikationsinhalte noch bestehen können, wenn sie digital transportierbar und digital zu verarbeiten sein müssen. Was von Weizenbaum noch als wissenschaftliches Experiment gedacht war, ist seit ELIZA unendlich weit fortentwickelt worden und hat Einzug in unseren Alltag gehalten. Bestehen bleibt das schon von Weizenbaum skizzierte Risiko, zwischen menschlichen und digitalen Interaktionspartnern nicht mehr unterscheiden zu können. Weizenbaum plädiert für Trennschärfe in der Kompetenzzuweisung. Die Verarbeitung von Daten kann für die verarbeitende Maschine nie zu Informationen mit Bedeutung führen, weil eine Bezugnahme auf Gegebenheiten der Welt ihr nicht möglich ist. Hilary Putnam stellt die Aussagekraft des Turing-Testes in Frage (2010: 438ff.). Entscheidend sei nicht, ob einem Computer auf Basis datengenerierter Antworten Intelligenz zugeschrieben werden kann, sondern ob die Annahme gerechtfertigt sei, der Computer reagiere mit seinen Antworten auf Sachverhalte in der Welt. Was wir hier vor uns haben, sind Apparate zur Erzeugung von Sätzen in Reaktionen auf Sätze. Doch keiner dieser Sätze ist überhaupt mit der wirklichen Welt verbunden. (Putnam, 2010: 448) Bezug auf die Welt zu nehmen, setzt Bewusstsein voraus. Die Korrelation von Daten als Grundlage technisch erzeugter Reaktionen unterscheidet sich davon fundamental.36 Putnam geht wie Weizenbaum davon aus, dass Daten verarbeitet, nicht jedoch verstanden werden. Beide unterscheiden zwischen formaler Beweisbarkeit und Wahrheit.37 36 Damit beschreibt Putnam an dieser Stelle eine Situation, die ich eingangs mit dem Begriff der Simulation von Kommunikation beschrieben habe, die sich mit unseren Erkenntnissen über die Funktion menschlicher Kommunikation aus dem ersten Kapitel deckt. 37 Eine Analyse des Problems von Wahrheit, ihrer Begründbarkeit sowie dem Einfluss von Alltagswahrheiten findet sich in „Wahrheit und Wahrhaftigkeit“ (Williams, 2013: 11–20). Kapitel 2: Die Digitalisierung menschlicher Kommunikation 70 Putnam betrachtet Außen- und Innensicht: Rein logisch ist möglich, dass ein von einem Computer generierter Satz sich nicht von einem menschlichen unterscheidet. Diese Tatsache belege jedoch nicht, dass der Computer über Intentionalität verfüge. Selbst wenn wir, um im Computerjargon zu reden, Programme für Verwendung von Wörtern betrachten, gibt es dennoch keinen feststehenden Bezug, der diesen Wörtern zukommt – es sei denn, diese Programme selbst beziehen sich auf etwas Außersprachliches, sind mehr als bloß Programme zur Hervorbringung von Sprachlichem in Reaktion auf Sprachliches. (Putnam, 2010 44)38 Weizenbaum sieht eine weitere Differenz zwischen Mensch und Maschine, die er mit dem Begriff „Körperlichkeit“ fasst. Körperliche Verbundenheit mit der Welt sei eine Möglichkeit, Erfahrungen zu machen. Diese Idee führt er allerdings nicht an prominenter Stelle aus, sondern sie dient ihm nur als weiteres Argument für die Unterschiede von Mensch und digitalem System (Weizenbaum, 1990: 277). Auch für ihn ist also das Fehlen von Erfahrungen und damit verbunden das Fehlen eines eigenen Willens die entscheidende Differenz zwischen künstlichen kommunizierenden Systemen und vom Menschen ausgehender Kommunikation. Dass die fehlende Körperlichkeit als entscheidend anzusehen ist, möchte ich in Zweifel ziehen. Putnam und Weizenbaum haben uns entscheidende Hinweise für die Differenz von Mensch und Maschine geliefert. Nicht Intelligenz, sondern Bewusstsein sei das Kriterium, um das es gehen müsse. An dieser Stelle möchte ich auf die Parallele zu Meads „reflexiver Intelligenz“ hinweisen. Der Computer verfügt nicht über das, was Mead als „mind“ bezeichnet. Erst wenn ein künstliches System in der Lage ist, sich in Raum und Zeit wahrzunehmen und sich in die Perspektive der von ihm angesprochenen Person hineinzuversetzen, ist die – rein hypothetische – Möglichkeit gegeben, dass Bedeutungsverknüpfungen identisch werden. Die von ihm vorgenommene verbale Handlung hätte dann auf das 38 Als „Außersprachlich“ bezeichnet Putnam Phänomene als Abgrenzungskriterium zu Innersprachlichen Phänomenen. Die sind für sie zum Beispiel „Stereotypen“, die zwar im Sprachgebrauch existieren, nicht jedoch in der außersprachlichen Welt – jedenfalls nicht in der zugespitzten Weise (vgl. Busse, Niehr & Wengeler, 2011: 125). 2.3 Joseph Weizenbaum: Die Digitalisierung menschlicher Kommunikation 71 künstliche System vergleichbare Auswirkungen wie auf die angesprochene Person. Die Fähigkeit, sich selbst als handelnde Person wahrzunehmen, kann sich mit Mead nur dann entwickeln, wenn die Bedeutungen von Begriffen in der Interaktion mit anderen durch die Beobachtung der Reaktion erfahren werden. Die Beobachtung und die Verinnerlichung der erhaltenen Reaktionen sind durch das effektive Verfahren nicht möglich, weil seine Funktionsweise eine völlig andere ist: Es verarbeitet Daten nach formalen Regeln. Auch Systemen, die durch sogenanntes „deep-learning“ in der Lage sind, Strukturen menschlichen Handelns zu lernen, ist es nicht möglich, auf die gleiche Weise die Bedeutungen von Begriffen und Handlungen wahrzunehmen. Deep learning is a form of machine learning that enables computers to learn from experience and understand the world in terms of a hierarchy of concepts. Because the computer gathers knowledge from experience, there is no need for a human computer operator formally to specify all of the knowledge needed by the computer. The hierarchy of concepts allows the computer to learn complicated concepts by building them out of simpler ones; a graph of these hierarchies would be many layers deep. (Goodfellow, Bengio, Courville & Bengio, 2016: 351)39 Auffällig ist hier, dass maschinelle Informationsverarbeitung mit dem Wort „experience“ beschrieben wird. Dieser Begriff kommt dem beschriebenen System bereits weit entgegen, da ein Ausdruck verwendet wird, der menschliches Denken charakterisiert. Der als spektakulär wahrgenommene Sieg des Programms „Alpha- Go“ gegen die bis dato erfolgreichsten menschlichen Spieler des chinesischen Brettspiels „Go“ ist ein Beispiel für „deep learning“. 39 „Deep networks have been successfully applied to unsupervised feature learning for single modalities (e.g., text, images or audio). In this work, we propose a novel application of deep networks to learn features over multiple modalities. We present a series of tasks for multimodal learning and show how to train deep networks that learn features to address these tasks. In particular, we demonstrate cross modality feature learning, where better features for one modality (e.g., video) can be learned if multiple modalities (e.g., audio and video) are present at feature learning time“ (Ngiam et al., 2011). Kapitel 2: Die Digitalisierung menschlicher Kommunikation 72 AlphaGo is probably most powerful at its database, which is the weakest aspect of human capacity compared to computers, not in its evaluation. It’ll be interesting to see what would happen if we removed the database. (Chen, 2016: 7) Den Begriff „learning“ halte ich für irreführend, denn dieses „Lernen“ ist nicht Resultat menschlicher Kompetenz. Es basiert auf vollkommen anderen Strukturen als das menschliche Lernen und setzt keine Erfahrungen im Sinne menschlicher Erfahrungen voraus.40 Künstliche Systeme greifen für „deep-learning“ auf enorme Datenmengen zurück, um simulieren zu können, was sich für Menschen als Erfahrung darstellt. Wir haben bis hierher gesehen, dass zu den zentralen Begriffen in der Differenz von Mensch und Maschine Denkvermögen, Intelligenz und Bewusstsein gehören. Der Frage, ob Maschinen denken können, widmete sich der britische Mathematiker Alan Turing bereits in den 50er Jahren. Mit dem von ihm entwickelten Turing-Test versuchte er herauszufinden, ob es möglich sei, eine Maschine zu bauen, deren Antworten auf vom Menschen gestellte Fragen mit denen eines menschlichen Antwortgebers verwechselt werden könnte. Bei diesem Test führt ein menschlicher Fragesteller eine Unterhaltung mit einem Menschen und einer Maschine, von denen er räumlich getrennt und nur durch elektronischen Kontakt verbunden ist. Der Fragesteller versucht nun herauszufinden, wer von beiden die Maschine und wer der Mensch ist. Wenn der Fragesteller nach dem Testlauf nicht eindeutig sagen kann, welcher von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden. (Dupré, 2010: 37) Putnam hat den Turing-Test für die Verwendung des Terminus Intelligenz kritisiert und darauf hingewiesen, dass vielmehr das Bewusstsein den fundamentalen Unterschied ausmache. Damit stimmt Searle überein. Der Turing-Test prüfe nicht auf Bewusstsein oder Intentionalität (vgl. Putnam, 2010447). Seit Turing hat es immer wieder Versuche gegeben, den Test in diesem Sinne zu präzisieren. Der „Lovelace-Test“ von 2001 schlug als entscheidendes Prüfkriterium Kreativität vor. 40 Einen Einblick in diese Diskussion gewährt die Studie Depth First Learning: Learning to Understand Machine Learning (Oliver, Bhupatiraju, Resnick & Agrawal, 2018). 2.3 Joseph Weizenbaum: Die Digitalisierung menschlicher Kommunikation 73 We call this test the „Lovelace Test“ in honor of Lady Lovelace, who believed that only when computers originate things should they be believed to have minds. (Bringsjord, Bello & Ferrucci, 2003: 217) Ebenfalls 2001 formulierte Metzinger, eine künstliche Intelligenz müsse mit eigenen Argumenten in die Diskussion um künstliche Intelligenz eingreifen und überzeugend für ihre eigene Theorie des Bewusstseins argumentieren (Metzinger, 2001: 87). Mit seinen Thesen werden wir uns im nächsten Kapitel noch genauer befassen. Jüngere KI-Systeme sind zunehmend in der Lage, Simulationen menschlicher Eigenschaften in immer exakterer Weise zu erzeugen, dennoch handelt es sich um eine Simulation. Bei dem seit 1991 ausgeschriebenem Loebner-Preis werden Computerprogramme einem modifizierten Turing-Test unterzogen. Bis heute konnte ihn noch kein Programm gewinnen. Die Simulationen allerdings werden immer leistungsfähiger. Im Mai 2018 stellte Google der Weltöffentlichkeit einen digitalen Telefonassistenten vor, der in der Lage ist, selbstständig Telefonate in alltäglichen Situationen wie Tischbestellung im Restaurant, Termin beim Friseur, durchzuführen. „Duplex“ – so der Name des Programms – ist darauf programmiert, die Angerufenen über die Tatsache zu täuschen, dass sie mit einer Maschine kommunizieren. In sein Sprachprogramm wurden deshalb bewusst Sprechpausen und Füllwörter implementiert. Unabhängig davon, ob Google sein Produkt jemals auf den Markt bringt – es gibt erhebliche ethische Bedenken, ob Menschen im Unklaren gelassen werden dürfen, dass sie mit einer Maschine kommunizieren – zeigt es dennoch, was künstliche Intelligenz in Bezug auf Simulation von menschlichem Kommunikationsverhalten zu leisten vermag.41 Thomas Metzinger: Ist maschinelles Bewusstsein möglich? Einen gänzlich anderen Ansatz als die bisher vorgestellten verfolgt Thomas Metzinger in seinen Reflexionen über das Selbst. Er verbindet 2.4 41 Erste Ergebnisse zu Google Duplex finden sich auf: „https://ai.googleblog.com/ 2018/05/duplex-ai-system-for-natural-conversation.html“ (letzter Stand 18.01.2019) Kapitel 2: Die Digitalisierung menschlicher Kommunikation 74 Erkenntnisse der Kognitionswissenschaft mit Ergebnissen der Neurowissenschaft und kommt so zu einem Verständnis von Ich und Bewusstsein, das für die vorliegende Arbeit fruchtbar gemacht werden soll. Als einer der Pioniere der Neurophilosophie hat er radikal mit der philosophischen Vorstellung gebrochen, es gebe einen inneren Kern in uns, der der Ergründung nicht weiter zugänglich sei. Indem er den Körper-Geist-Dualismus zurückweist, bezweifelt er die Existenz eines Selbst und einer Seele. Um sich der Frage zu nähern, was Bewusstsein ausmache, seien beide Begriffe für die Wissenschaft verzichtbar. Es gebe diesen Kern des Selbst ebenso wenig wie eine abgegrenzte Identität. Vielmehr sei die biologische Form des Bewusstseins, wie die evolutionäre Entwicklung es hervorgebracht habe, ein Ergebnis des Gehirns, genauer ein Ergebnis neuronaler Prozesse. Seine Vorstellungen sind geprägt von den neueren Forschungsergebnissen eines Teilgebiets der Neurowissenschaft, die neuronale Korrelate des Bewusstseins erforschen (engl. neuronal correlates of consciousness). So werden Gehirnaktivitäten bezeichnet, die mit Bewusstseinsprozessen einhergehen. Eine gängige Definition lautet, dass ein neuronales Korrelat des Bewusstseins eine neuronale Struktur ist, die minimal hinreichend für einen Bewusstseinszustand ist. On this definition, there may be more than one NCC for a given conscious state. It may be that there is more than one minimal sufficient system for a given state (or for a given system of states), and both of these will count as a neural correlate of that state. This seems to be the right result. We cannot know a priori that there will be only one NCC for a given state or system of states. Whether there will actually be one or more than one for any given state is something that can be determined only empirically (Chalmers, 2010: 72) Das Empfinden eines Selbst sei ein vom Gehirn erzeugtes hochkomplexes Selbstmodell, das kritische Rationalität, subjektives Erleben und Ich-Gefühl erst ermögliche. 2.4 Thomas Metzinger: Ist maschinelles Bewusstsein möglich? 75 Ein Selbstmodell ist ein in ein internes Modell der Welt eingebundenes Analogrepräsentat des es konstruierenden Systems in seiner Umwelt. Sein Gegenstand ist ein diskretes physikalisches System, und hierbei handelt es sich genau um dasjenige künstliche oder natürliche Repräsentationssystem, welches das Selbstmodell in sich erzeugt. Mental sind diejenigen Partitionen des Selbstmodells, die prinzipiell durch Metarepräsentation zu Inhalten von phänomenalem Bewußtsein werden können. (Metzinger, 1999: 158) Das Gehirn arbeite mit phänomenalen Repräsentationen, die es synchronisiere, dabei entstehe als grundlegende Repräsentation die vom Organismus als Ganzem. Deshalb spricht Metzinger auch vom „phänomenalen Selbstmodell“ (vgl: Metzinger, 1999: 156). Für ihn können Zustände (phänomenale Gehalte von Wahrnehmungen) in unserem Gehirn grundsätzlich unabhängig von auslösenden Reizen entstehen. Es ist nicht der Reiz, der sie direkt auslöst, sondern sie beruhen auf der Aktivierung neuronaler Muster – er nennt sie neuronale Korrelate. Sie können (theoretisch) jedoch auch ohne Reize oder durch andere Reize aktiviert werden. Daraus leitet er ab, dass wir als fühlende und wahrnehmende Menschen keinen direkten Zugang zu dem haben, was wir fühlen und wahrnehmen, sondern nur eine „Repräsentation“ dessen erleben. Diese wird zu unserer Repräsentation, da wir nicht erleben, welche neuronalen Aktivitäten hierzu in uns ablaufen, sondern nur ihr Ergebnis – er nennt es den „phänomenalen Gehalt“ – erhalten. Phänomenaler Gehalt entsteht dann, wenn sich die repräsentationalen Zustände eines informationsverarbeitenden Systems für dieses selbst irgendwie anfühlen, also wenn sie einen introspektiv zugänglichen qualitativen Charakter besitzen. Dass ein beliebiges System sich so verhält, als ob es echte Farben sehen oder wirklichen Schmerz empfinden könnte, ist bei näherem Hinsehen ein genauso unbefriedigendes Kriterium wie die Tatsache, dass es vielleicht auf sprachlicher Ebene behauptet, es hätte tatsächliche bewusste Erlebnisse. (Metzinger, 2001: 87) Dennoch erkennt er an, dass Schichten des Selbstmodells nicht nur von äußeren Einflüssen geprägt, sondern erzeugt würden. Ich-Erfahrung speist sich nicht aus sich selbst. Metzinger nimmt für sich in Anspruch, die Ursache menschlicher Verhaltensweisen rein biologisch erklären zu können. Hierbei stellt er Kapitel 2: Die Digitalisierung menschlicher Kommunikation 76 jedoch nicht in Rechnung, dass sich unser Selbst-Bild immer in der Interaktion mit anderen Menschen konstruiert. Was viele Geisteswissenschaftler häufig noch nicht wissen, ist, dass es mittlerweile erste empirische Studien gibt, die tatsächlich zeigen, wie ein verringerter Glaube an die eigene Willensfreiheit bei Versuchspersonen nachweislich zu einer Abschwächung von Hilfsbereitschaft, zu einer Erhöhung der Bereitschaft zum Betrügen, zu geringerer Selbstkontrolle, einer schwächeren Reaktion auf eigene Fehler und zu einer Verstärkung von Aggressivität führt. Objektive Veränderungen können experimentell sogar bis in die neuronalen Korrelate der unbewussten Vorstufe von Willkürhandlungen nachgewiesen werden. Die Selbstmodell-Theorie kann erklären, warum das so ist; das bewusste, kognitive Selbstmodell ist tief in unserem unbewussten Bild von uns selbst verankert, und deshalb können Verschiebungen im PSM […] direkte und nachhaltig wirksame kausale Folgen für den inneren Zustand des Körpers und unserer äußeres Verhalten haben. (Metzinger, 2014: 201)42 Interessant an dieser Stelle ist, dass Metzinger versucht, eine Brücke zwischen sozialen Einflüssen und neuronalen Veränderungen zu schlagen, ohne dabei zuzugestehen, dass der Mensch als soziales Wesen gänzlich – und so auch in der Wahrnehmung seines biologischen Körpers – von den ihn umgebenden sozialen Strukturen beeinflusst ist. Die Anerkennung eines solchen Einflusses müsste in Widerspruch zu seiner Theorie geraten und wird deshalb von ihm nicht weiter thematisiert. Metzingers Postulat, neuronale Korrelate seien konstituierend für die Vorstellung der Menschen von sich selbst, lässt sich mit seinem Ziel erklären, Bedingungen zu definieren, unter denen möglich ist, nicht nur Menschen, sondern auch „postbiotischen Systemen“, also zum Beispiel Computern, Bewusstsein zusprechen zu müssen. Im Folgenden werden die sechs Voraussetzungen, die zur Ausbildung eines Bewusstseins notwendig sind, betrachtet. Hierbei sei noch einmal angemerkt, dass Metzinger Menschen als biologische und Maschinen als potentielle postbiotische Systeme begreift (vgl: Metzinger, 2001: 87). 42 PSM ist bei Metzinger das „phänomenale Selbstmodell“, also ein Modell einer Person von sich selbst, das sie als ihr eigenes Modell wahrnimmt. Metzinger, 1999 2.4 Thomas Metzinger: Ist maschinelles Bewusstsein möglich? 77 1. In-der-Welt-Sein Ein System benötigt eine Vorstellung von sich selbst innerhalb der Welt, in der es agiert, und eine kongruente (innere) Darstellung der Welt als Ganzes, das ihm ermöglicht, Aufmerksamkeit auf einzelne Elemente innerhalb dieser Welt zu lenken. Bewusste Systeme sind alle Systeme, die mit global verfügbarer Information operieren und die sich selbst deshalb als in einer einzigen Welt lebend erfahren. Jedes bewusste System benötigt deshalb ein integriertes, globales Weltmodell, welches eine Teilmenge der in ihm aktiven Information simultan verfügbar macht für spezialisierte Prozesse wie introspektive Aufmerksamkeit, Gedächtnis, symbolisches Denken usw. (Metzinger, 2001: 89) Metzinger geht es hier also darum, die Fähigkeit, zwischen einer Innenund einer Außenwelt unterscheiden zu können und sich selbst als mit beiden Welten interagierend wahrzunehmen, als eine zentrale Bedingung von Bewusstsein zu formulieren. 2. Präsentationalität: Das Entstehen einer gelebten Gegenwart Bewusste Systeme haben die Fähigkeit, zwischen Vergangenem und Gegenwärtigem zu unterscheiden, weil Erfahrung immer als etwas Gegenwärtiges erlebt wird. Nur so ist ein solches System in der Lage, sich selbst in einem bestimmten Moment als in der Welt lebend wahrzunehmen. Metzinger schränkt jedoch ein, dass das Erleben von Gegenwart eine Fiktion sei, bedingt aus der Fiktion eines direkten Kontakts zur Welt (vgl. Metzinger, 2001: 91). 3. Transparenz: Die funktionale Implementierung des naiven Realismus Systeme müssen aus Sinneseindrücken Erfahrungen generieren können. Diesen Prozess beschreibt Metzinger als transparent im Sinne von durchsichtig und damit nicht erkennbar. Das Ergebnis von Wahrnehmung kann erkannt werden, nicht jedoch die hierbei ablaufenden Pro- Kapitel 2: Die Digitalisierung menschlicher Kommunikation 78 zesse.43 Erst indem ein System durch diese Strukturen hindurchschaut, kann es direkte Wahrnehmungen haben (vgl. Metzinger, 2001: 93). Erleben ist Ergebnis neuronaler Aktivitäten, die Empfindung direkten Erlebens naiver Realismus. 4. Das transparente Selbstmodell: Ich-Gefühl und Selbst-Bewusstsein Damit Selbstgewissheit entstehen kann, brauchen wir nicht nur ein Modell von der Welt als Ganzes, sondern auch ein Modell von uns selbst, das mehr ist als ein Systemmodell. Erst wenn Systeme die von ihnen aktivierten Modelle nicht mehr als Modelle erkennen, kann etwas wie ein Selbst entstehen. Ein künstliches Subjekt bräuchte natürlich nicht nur ein Weltmodell, sondern auch ein sehr spezielles Selbstmodell. Ich behaupte, dass wir Menschen Systeme sind, die nicht in der Lage sind, ihr eigenes subsymbolisches Selbstmodell als Selbstmodell zu erkennen. Deshalb operieren wir unter den Bedingungen eines „naiv-realistischen Selbstmissverständnisses“: Wir erleben uns selbst, als wären wir in direktem und unmittelbarem epistemischen Kontakt mit uns selbst. Auf dieser elementaren Stufe des Selbstbewusstseins ist Selbstwissen phänomenologisch dasselbe wie Selbstgewissheit. Weil wir ein transparentes Selbstmodell besitzen, sind wir uns selbst sozusagen unendlich nahe. Und auf diese Weise entsteht erstmals ein basales „Ichgefühl“, ein für das betreffende System unhintergehbares phänomenales Selbst. (Metzinger, 2001: 96) 43 „Nun kann man fragen, ob diese dem psychischen Phänomen des Selbstbewußtseins zugrundeliegende interne Selbstähnlichkeit eines informationsverarbeitenden Systems bzw. einer Person als eine Form von Wissen außerhalb von Sätzen gelten darf. Entscheidet man sich für einen engen Wissensbegriff, der öffentliche, propositionale Repräsentate, Wahrheit und Referenz voraussetzt, dann folgt daraus die Opazität von Subjektivität. Was soll das heißen? Es bedeutet, daß unser inneres Erleben der eigenen Zustände prinzipiell nicht als Wissen gelten kann: Unser Selbstbewußtsein ist epistemisch dunkel, die cartesianische Selbsttransparenz des Bewußtseins existiert nicht. Es gibt nur subjektives Erleben, aber keine Selbstgewißheit des Subjekts. Vielen Philosophen, die an eine radikale Biologizität aller psychologischen Eigenschaften glauben, wird diese Interpretation auch angesichts der genetischen Erklärung des phänomenalen Subjekts als eines abstrakten Organs, das im Verlauf einer biologischen Wettbewerbssituation entstanden ist, zusagen“ (Metzinger, 1999: 173). 2.4 Thomas Metzinger: Ist maschinelles Bewusstsein möglich? 79 5. Das phänomenale Modell der Intentionalitätsrelation: Die bewusst erlebte Innenperspektive Erst wenn ein System in der Lage ist, sich selbst als Handelndes wahrzunehmen, ist es nach Metzinger auch in der Lage, sich in Beziehung zu Anderen als handelndes System zu setzen (vgl. Metzinger, 2001: 97). Daraus ergeben sich Unterschiede zwischen den Teilen des Weltmodells, die das Selbst repräsentieren, und denen der äußeren Teile der Welt. Das Selbst kann sich ins Verhältnis zur äußeren Welt setzen und erlebt Gefühle als seine eigenen. Es entsteht – so Metzinger – die Erste-Person-Perspektive. Mit Intentionalität bezeichnet er die Subjekt- Objekt-Wissensbeziehung. Er bemerkt: Der entscheidende Trick, so behaupte ich, besteht darin, den Pfeil der Intentionalität selbst noch einmal intern zu simulieren, ihn bewusst zu machen. Wenn viele solcher Pfeile im Bewusstsein verfügbar sind, dann entsteht eine zeitlich ausgedehnte Erste-Person-Perspektive. (Metzinger, 2001: 98) 6. Adaptivität: Das telefunktionalistische Zusatzkriterium Systeme sind in der Lage, Ziele zu verfolgen. Sind es nicht ihre eigenen, sondern die ihrer Konstrukteure, ist das Kriterium „Bewusstsein“ nicht erfüllt. Um einem System Selbst-Bewusstsein zuschreiben zu können, muss es fähig sein, eigene Ziele zu verfolgen und zu erreichen. Das voraussetzende Bewusstsein muss evolutionär entwickelt sein. Mentale Zustände sind erst dann wirklich geistige Zustände, sie haben erst dann wirklich einen Inhalt, wenn sie von dem System als Ganzem dazu benutzt werden, seine Ziele zu verfolgen. Für bewusste Zustände heißt dies, dass sie in einen evolutionären Kontext eingebettet sein müssen. Sie müssen dem System dabei helfen, seine Bedürfnisse zu befriedigen oder langfristige Ziele zu verfolgen und auch zu erreichen. (Metzinger, 2001: 99)44 Metzinger stützt seine Theorie wesentlich auf die neueren Forschungsergebnisse auf dem Gebiet der neuronalen Korrelate. Sie als ursächlich 44 Wir sehen also, dass Metzinger unter dem Begriff „System“ Menschen subsumiert, indem er Fähigkeiten zur Bedingung macht, die Personen kennzeichnen. Diese Perspektive schließt jedoch andere Systeme grundsätzlich nicht aus. Er differenziert zwischen biologischen und künstlichen Systemen. Kapitel 2: Die Digitalisierung menschlicher Kommunikation 80 anzunehmen für alle Zustände von Bewusstsein halte ich für zu reduktionistisch und deterministisch. Kritisch anzumerken ist auch, dass trotz großer Fortschritte durch technische bildgebende Verfahren wie beispielsweise dem Hirnscan die Suche nach neuronalen Korrelaten auf Annahmen angewiesen ist, die noch nicht hinreichend belegt werden konnten. Das Gehirn ist von einer derart komplexen Struktur, dass allein das Bewusstsein darüber, vermessen zu werden, Ergebnisse beeinflussen könnte. Darauf weist auch Flusser hin, wenn er bemerkt: Die Ebene, auf der sich das Denken abspielt, hat für uns zwei ungemütliche Aspekte. Erstens kann sie nicht beobachtet werden, ohne daß dabei die Beobachtung das Beobachtete verändert. Also ist von „Objektivität“ im Sinne subjektloser Objekte hier nicht zu sprechen. Zweitens herrscht auf ihr der reine Zufall, den man zwar statistisch zu Kurven ordnen kann, aber wo es unsinnig ist, das künftige Verhalten eines einzelnen Teilchens voraussehen zu wollen. (Flusser, 2002: 137) Eine Gefahr der Theorie Metzingers liegt meiner Meinung in einem einseitigen Erklärungsansatz, der Bewusstseinsleistung zu stark auf biologische Prozesse reduziert, indem er Kausalitätsverhältnisse konstruiert, für die er den Nachweis jedoch nicht erbringt. Kulturelle und soziale Faktoren müssen zwangsläufig unberücksichtigt bleiben. Das Gehirn ist nach seinem Verständnis ein Zusammenwirken von Neuronen, die in uns die Illusion erzeugen, wir seien denkend, fühlend, handelnd in einer realen Welt, während wir doch tatsächlich ein virtuelles Selbst in einer virtuellen Realität seien. „Ganz im Gegensatz zu dem, was die meisten Menschen glauben, war oder hatte niemand je ein Selbst“ (Metzinger, 2014: 15). 45 Metzinger vertritt eine naturalistische Theorie des Geistes, der nichts als das Ergebnis neuronaler Korrelate sei. Subjektive Willensfreiheit empfinden zu können ist 45 Jean Baudrillard erteilt dem Determinismus in neurowissenschaftlicher Gestalt eine klare Absage, wenn er schreibt: „Heute versucht man nicht mehr in der Leber oder in den Eingeweiden noch auch im Herzen oder im Blick eines Menschen zu lesen, sondern schlechthin in seinem Gehirn, dessen Milliarden von Verbindungen und dessen Arbeitsprozeß man wie ein Videospiel beobachten möchte. Dieser ganze cerebrale und elektronische Snobismus zeugt von einer überaus gekünstelten Denkweise und bezeichnet eine verschrumpfte, auf den obersten Auswuchs des Rückenmarks beschränkte Anthropologie“ (Baudrillard, 1989: 117f). 2.4 Thomas Metzinger: Ist maschinelles Bewusstsein möglich? 81 […] ein geniales „neurokomputationales Werkzeug“ zur Verhaltensoptimierung. Handlungsziele, so Metzinger, existierten nicht „und es gibt auch niemanden, der eine Handlung auswählt oder spezifiziert. Es gibt überhaupt keinen Vorgang der „Auswahl“. Alles, was wir in Wirklichkeit haben, ist dynamische Selbstorganisation. Dieser Vorgang als solcher hat nicht nur kein Ziel, er ist auch völlig ich-frei. (Metzinger, 2014: 199) Wie unterscheidet sich nun die Position Metzingers von Meads naturalistischem Handlungsbegriff? Meads grundsätzliches Verständnis von Entwicklung und Wandel bezieht sich auf Darwin. In seinem Identitätskonzept beschreibt er, wie mit Hilfe von Sprache die Entwicklung vom biologischen zu einem mit Geist ausgestatteten Individuum sich vollzieht. Dieses denkt er als handelndes. Die Handlung und nicht der Nervenstrang ist also das grundlegende Datum sowohl der Sozial- wie der Individualpsychologie, wenn sie unter behavioristischen Vorzeichen steht. (Mead, 1995: 46) Für Mead entsteht Selbst-Bewusstsein aus Interaktion. Das Wissen über sich selbst ist stets vermitteltes Wissen. Es konstituiert sich über Interaktion, entsteht also in einem sozialen Kontext. Damit ist der Zweck von Kommunikation – Handlungen an Kontext orientieren und anpassen zu können – erreicht. Ein wesentliches Argument Metzingers für die Annahme von Bewusstsein ist, dass Systeme mit ihren Handlungen langfristige Ziele verfolgen und auch erreichen können. Identität ist anders als bei Mead kein soziales, sondern ein neuronales Konstrukt. Der Nutzen von Metzingers Theorien offenbart sich für mich in seinen Überlegungen zu postbiotischem Bewusstsein. Er geht davon aus, dass die Menschheit in der Zukunft postbiotische Systeme erzeugen wird, die weder künstlich noch biologisch sind, sondern Zwitterwesen, Ergebnis eines evolutionären Prozesses zweiter Ordnung. Die Fähigkeit zu leiden beginnt auf der Ebene phänomenaler Selbstmodelle. Nur ein System, das ein phänomenales Selbstmodell besitzt, kann seinen eigenen Zerfall oder seine eigenen inneren Konflikte bewusst als seine eigenen erleben. (Metzinger, 2001: 107) Die ethischen Implikationen seiner Überlegungen lassen ihn fordern, alle Versuche zu „phänomenalen Selbstmodellen“ zu unterlassen (vgl. Metzinger, 2001: 108). Seine Ausführungen sind noch wenig konkret, doch weist er auf einen wichtigen Umstand hin. Es gibt keine allge- Kapitel 2: Die Digitalisierung menschlicher Kommunikation 82 mein anerkannte, präzise definierte ethische Vorstellung für die digitalisierte Welt, aus der die Auswirkungen der Digitalisierung auf die Gesellschaft und das Individuum abgeleitet und konsistente Begründungen für normative Standards entwickelt werden könnten. Dies gelingt dem System durch die Art und Weise, auf die es mit Informationen umgeht. Anstatt die Begriffe in einem kausalen Zusammenhang zu verwenden und zu verstehen, ermöglicht das effektive Verfahren einen anderen Weg der Informationsverknüpfung. Weizenbaum hat das sehr anschaulich beschrieben: If, for example, one were to tell a psychiatrist "I went for a long boat ride" and he responded "Tell me about boats", one would not assume that he knew nothing about boats, but that he had some purpose in so directing the subsequent conversation. It is important to note that this assumption is one made by the speaker. Whether it is realistic or not is an altogether separate question. In any case, it has a crucial psychological utility in that it serves the speaker to maintain his sense of being heard and understood. The speaker further defends his impression (which even in real life may be illusory) by attributing to his conversational partner all sorts of background knowledge, insights and reasoning ability. But again, these are the speaker's contributions to the conversation. (Weizenbaum, 1966a: 6) Die digitalen Systeme greifen hierzu auf große Mengen an Daten zurück (Lanier et al., 2014: 92). Künstliche kommunizierende Systeme erkennen nicht die Bedeutung von Begriffen aus dem Kontext, in dem sie verwendet werden, sondern ermitteln, wie oft und in welchen Verbindungen Worte miteinander verknüpft sind, und bestimmen danach, wie sie zu verwenden sind (Schenk & Rigoll, 2010: 138). Auf diese Weise wird die Bedeutung nicht als Bezugnahme interpretiert, sondern durch die Korrelation enormer Datenmengen erst erzeugt. Damit wird Kausalität durch Korrelation ersetzt (vgl. Lanier et al., 2014: 148).46 Die hier dargestellte Differenz zwischen Korrelation und Kausalität lässt den grundlegenden Unterschied des menschlichen gegenüber dem maschinellen Umgang mit Informationen erkennen. 46 Diese Differenz führt zu der Veränderung der Kommunikationsteilnehmer durch das Kommunikationsmedium und nicht durch den jeweiligen Inhalt, der durch es transportiert wird. Diese Veränderung beschreibt McLuhan mit dem Satz: „The medium is the message“ (McLuhan, 2011). 2.4 Thomas Metzinger: Ist maschinelles Bewusstsein möglich? 83 Als Mensch sind wir darauf ausgelegt, bei allem nach seiner Ursache zu fragen, auch wenn das oft schwierig ist und uns vielleicht auf eine falsche Fährte führt. In der Big-Data-Welt dagegen müssen wir uns nicht auf Kausalitäten festlegen, sondern können viel öfter nach Mustern und Korrelationen in den vorliegenden Daten Ausschau halten, die uns neuartige und wertvolle Erkenntnisse gewähren. (Mayer-Schönberger & Cukier, 2013: 22) Weizenbaum sieht die Art und Weise, in der die Computer Informationen verarbeiten, in direktem Gegensatz zur menschlichen Sprache. Weiter legt er dar, dass Informationen, die nicht mit Hilfe des von ihm beschriebenen effektiven Verfahrens in ihrem Bedeutungsgehalt erfasst werden können, da ihre Bedeutung kontextabhängig ist oder für ihre Verarbeitung situationsspezifisches Kontextwissen benötig wird, zunehmend aus dem gesellschaftlichen Wissensbereich herausfallen. Daniel Dennett: Vom Umgang mit intentionalen Systemen Aus seinen Beobachtungen über den Umgang der Menschen mit digitaler Technik zieht Flusser eine Parallele zwischen Menschen, die die „digitalen Codes“ nicht lesen können, und Menschen ohne Lese- und Schreibkenntnisse. „Wer die neuen Codes nicht lesen kann, ist Analphabet in einem mindestens so radikalen Sinn, wie es die der Schrift Unkundigen in der Vergangenheit waren.“ (Flusser, 1997b: 52) Mit Blick auf die massenhafte Verwendung der digitalen Technik kann dieser Annahme jedoch nur bedingt zugestimmt werden. Sicherlich verstehen die meisten Nutzerinnen und Nutzer die Systeme, mit denen sie umgehen, nicht in ihren technischen Einzelheiten, allerdings sind diese Systeme genau zur Überwindung dieses Unverständnisses konzipiert. So ist es den Menschen möglich, mit den digitalen Kommunikationsmitteln umzugehen, obwohl sie ihnen fundamental fremd sind. Sie sind also nicht – wie der Analphabet vom Konsum des Buches – vom Umgang mit diesen Systemen ausgeschlossen. Im Gegenteil vergrößert dieses Unwissen den Einfluss dieser Systeme auf den Menschen. Wie wir gesehen haben, geht Weizenbaum davon aus, dass Menschen in der Interaktion in diesen Systemen sich so verhalten, als wären die Funktionsweisen des Computers ihren eigenen 2.5 Kapitel 2: Die Digitalisierung menschlicher Kommunikation 84 Denkweisen ähnlich. Dabei hilft ihnen nach Weizenbaum, digitalen Systemen zu unterstellen, Informationen auf gleiche Weise zu verarbeiten, wie es ihnen selbst möglich ist (Weizenbaum, 1990: 23). Um genauer beschreiben zu können, wie Menschen mit ihnen vollkommen fremden Systemen umgehen, beziehe ich mich im Folgenden auf Dennetts „Intentionale Strategie“: Unsere vielversprechendste Taktik bei der Suche nach Wissen über die innere Konstruktion besteht darin, Intelligenz-Anleihen aufzunehmen, periphere und innere Ereignisse mit Inhalt auszustatten und dann nach den Mechanismen Ausschau zu halten, die mit solchen,Botschaften‘ angemessen funktionieren, so daß wir die Anleihen zurückzahlen können. Diese Taktik ist eigentlich auch nicht unerprobt. Die Forschung auf dem Gebiet der künstlichen Intelligenz, welche unter anderem den Schachcomputer hervorbrachte, geht so vor, daß sie für ein intentional charakterisiertes Problem (wie bringt man den Computer dazu, die richtige Art von Information zu prüfen, die richtige Entscheidung zu treffen) eine Lösung in der funktionalen Einstellung erarbeitet – eine Annäherung an eine optimale Konstruktion. (Dennett, 2007: 509) Auch Dennett verfolgt – ähnlich wie Metzinger – einen naturalistischen Ansatz in seiner Theorie des Bewusstseins. Menschen sind das Ergebnis eines evolutionären Kampfes, der bis heute anhält. Determiniert durch Naturgesetze, ist das Gehirn in der Lage, die Illusion von Gefühlen und Gedanken zu erzeugen. Der Nutzen – auch da zeigen sich Parallelen zu Metzinger – bestehe darin, Aufgaben bearbeiten zu können. Das Bewusstsein ist für Dennett eine mentale Eigenschaft, die sich rein neurobiologisch erklären lässt, handelt es sich doch letztlich um nichts Anderes als von Neuronen erzeugte materielle Hirnvorgänge. Es sei prinzipiell nicht erforschbar, ob „irgendein Moment in den Gehirnvorgängen als Bewußtsein, als Moment des Bewußtseins" ausgezeichnet werden könne (Dennett, 1994: 170). Das Phänomen Bewusstsein ist für ihn durchaus durch einfachere Formen von repräsentierten Inhalten funktional erklärbar. Daraus leitet er ab, dass es keinen inneren Beobachter, also kein Ich, im Menschen geben könne. Um die Tatsache mentaler Phänomene zu erklären, entwirft er die „Intentionale Strategie“ (Dennett, 1994: 170). Eine „Intentionale Einstellung“ (intentional stance) lässt sich Systemen gegenüber einnehmen, über deren Verhalten man etwas erfahren und aussagen will. 2.5 Daniel Dennett: Vom Umgang mit intentionalen Systemen 85 Zuerst entscheidet man, dass das Objekt, dessen Verhalten vorhergesagt werden soll, wie ein rational Handelnder zu behandeln ist; dann findet man heraus, welche Überzeugungen dieser Handelnde haben sollte, gegeben seinen Platz in der Welt und seinen Zweck. Dann findet man aufgrund derselben Überlegungen heraus, welche Wünsche er haben sollte, und zuletzt sagt man vorher, dass dieser rational Handelnde so handeln wird, um seine Ziele im Lichte seiner Überzeugungen zu erreichen. (Dennett, 2010 : 404) Die Zuschreibung von Überzeugungen und Wünschen sollte sich daran orientieren, welche das System – Dennett spricht sowohl von System als auch von Leuten oder rational Handelnden – haben sollte (vgl. Dennett, 2010: 400). Ob Systeme tatsächlich im Besitz dieser Überzeugungen oder Wünsche sind, ist für ihn nicht relevant. Entscheidend ist, dass durch die Zuschreibungen das Verhalten des Systems verlässlich vorhergesagt und erklärt werden kann. Zuschreibungen müssen für ihn nicht real existieren, um zu funktionieren. Denn die Definition intentionaler Systeme, die ich gegeben habe, sagt nicht, dass intentionale Systeme wirklich Meinungen und Wünsche haben, sondern dass man ihr Verhalten erklären und vorhersagen kann, indem man ihnen Meinungen und Wünsche zuschreibt; und ob man das, was man dem Computer zuschreibt, Meinungen, Meinungsanaloga, Informationskomplexe oder intentionale Sonstwas [sic!] nennt, macht für die Art der Überlegung, die man auf der Grundlage der Zuschreibung anstellt, keinen Unterschied. (Dennett, 2007: 499)47 Dennett stellt der „Intentionalen Einstellung“ zwei weitere Vorhersagestrategien zur Seite: Die physikalische (physical stance) kann durch physikalische Kenntnisse Vorhersagen über Eigenschaften und Reaktionen von Gegenständen treffen. Stehen diese Kenntnisse nicht zur Verfügung, kann man die funktionale Einstellung (design stance) einnehmen. Er hält sie geeignet für organische Dinge wie Pflanzen und Artefakte wie Computer und Thermostate. Ein funktionaler Standpunkt erlaubt eine hilfreiche Vereinfachung (vgl. Dennett, 2007: 496). 47 Zum Bereich des Intentionalen zählt er den gesunden Menschenverstand, die Welt von Personen und Handlungen, die Spieltheorie und die,neuralen Zeichen‘ des Biologen. Dieser Bereich wird durch das intentionale System, das als Brücke dient, mit dem nicht-intentionalen Bereich der Naturwissenschaften verbunden (vgl. Dennett, 2007: 517). Kapitel 2: Die Digitalisierung menschlicher Kommunikation 86 Der Begriff eines intentionalen Systems erscheint Dennett deshalb geeignet, weil er „klar und unmetaphysisch von Fragen nach Bewusstsein, Moralität, Göttlichkeit der Entitäten abstrahiere“ (Dennett, 2007: 510). Der Philosoph Holm Tetens, der sich kritisch mit dem naturalistischen Menschenbild auseinandergesetzt hat, weist die Behauptung Dennetts strikt zurück, wenn er schreibt: Bis zum heutigen Tag behaupten nicht wenige Philosophen immer wieder, als Naturalist sei man nur an den Ergebnissen der empirischen Wissenschaften orientiert und vermeide jede metaphysische Spekulation. Das ist so offenkundig falsch, dass man sich nur wundern kann, wie sehr diese Behauptung bei vielen Philosophen immer noch verfängt. Kein Resultat der empirischen Wissenschaften beweist den Naturalismus, auch kumulativ beweisen die einzelwissenschaftlichen Forschungsresultate insgesamt nicht die Richtigkeit des Naturalismus. (Tetens, 2013: 12) Die intentionale Einstellung basiert auf der normativen Annahme, dass ein System rational handelt, weil es optimal konstruiert ist. Die besten Schachcomputer seien für Voraussagen in funktionaler und physikalischer Einstellung unzugänglich. Selbst für ihre Konstrukteure seien sie zu komplex geworden. Man ist vielleicht, auch wenn man nicht mehr länger hoffen kann, die Maschine zu schlagen, indem man von seinen Kenntnissen der Physik oder des Programmierens Gebrauch macht, um ihre Gegenzüge vorauszusehen, immer noch in der Lage, eine Niederlage zu vermeiden, wenn man sie eher wie einen intelligenten menschlichen Gegner behandelt. (Dennett, 2007: 497) Ohne tiefer auf Dennetts Theorien im Allgemeinen eingehen zu können, möchte ich einen Aspekt seiner Theorie herausstellen, der für mein Thema relevant ist. Willensfreiheit sieht er in gewissen Rahmenbedingungen gegeben. Zu diesen gehören zwingend Rationalität und Selbstkontrolle. Das Selbst-Verständnis von Personen beschreibt er als das freier Akteure. Davon ausgehend billigt er zu, dass Handlungen nicht von vorneherein feststehen müssen, sondern in einem gewissen Maße selbstbestimmt sein können. Freiheit und Determinismus schlie- ßen sich also nicht aus. Determiniert ist menschliches Verhalten durch einen komplexen evolutionären Prozess. Aber auch die Möglichkeit zur Handlungsgestaltung ist evolutionär herausgebildet worden, weil Entscheidungs- und Verhaltenskontrollen sich als vorteilhafte Überle- 2.5 Daniel Dennett: Vom Umgang mit intentionalen Systemen 87 bensstrategien erwiesen hätten. Die Rahmenbedingungen des Handelns sind bestimmt durch das Wissen des Handelnden über seine eigene Verfasstheit und die Annahme, die eigene Zukunft sei offen, also gestaltbar. Dennetts Verständnis von Handlungsoption enthält alltagstaugliche Vorstellungen von Vermeidbarkeit und Verursachung. Aus Erfahrungen abgeleitete Informationen erlauben, Handlungen zu vollziehen beziehungsweise zu unterlassen. Aus dem eben Dargestellten ergeben sich deutliche Unterschiede zu Mead, die Relevanz in Bezug auf Handlung haben. Für Dennett spielt die Handlungsoption eine untergeordnete Rolle, da er sie vor allem als Verhaltensstrategie begreift, die sich im evolutionären Prozess als vorteilhaft herausgestellt hatte. Die Frage nach dem sozialen Wesen von Handlung stellt sich für ihn nicht. Indem er sich auf eine rein naturwissenschaftliche Perspektive beschränkt, ist er nicht in der Lage, Bewusstsein als soziales Phänomen Aufmerksamkeit zu schenken. Er ist daher darauf angewiesen, dem Konzept Rationalität eine überproportionale Erklärungskraft beizumessen. Dennett präsentiert uns Rationalität als eine anzunehmende Größe intentionaler Systeme. Er definiert rationales Handeln als optimal zweckorientiert, differenziert aber nicht ausreichend, welche Vorstellung von Rationalität den einzelnen intentionalen Einstellungen zugrunde liegen. Die Referenz auf intentionale Systeme wirkt beliebig. Damit ignoriert er eine zentrale Dimension menschlichen Handelns, nämlich die Sozialität, also die Bezugnahme des Handelns einer Person auf die andere und den sich daraus ergebenen Prozess der sozialen Interaktion. Diese soziale Interaktion lediglich als Reiz-Reaktionsschema zu begreifen, verkennt die Komplexität menschlicher Handlung und nimmt eine nicht haltbare Unterstellung von Rationalität vor. Metzinger und Dennett verwerfen auf Grund ihres materialistischen Standpunkts strikt den Körper-Geist-Dualismus. Geist sei ein determinierter Prozess aus Physik, Chemie und Physiologie im Gehirn. Beide treffen für ihre Theorie die Annahme, das „Ich“, das „Selbst“, das „Bewusstsein“ existiere nicht bzw. sei eine durch das Zusammenspiel von Neuronen erzeugte Illusion. Dadurch stehen beide vor demselben Dilemma: Sie müssen etwas erklären, von dessen Existenz sie nicht Kapitel 2: Die Digitalisierung menschlicher Kommunikation 88 überzeugt sind. Ohne die Begriffe sind sie kaum in der Lage, ihre Thesen darzulegen. Was immer eine Person sonst noch sein mag, – ein Geist oder eine Seele in einem Körper, ein moralisch handelndes Wesen, eine „emergente“ Form von Intelligenz – sie ist jedenfalls ein intentionales System. (Dennett, 2007: 501) Jegliche Rhetorik und Metaphorik können nicht darüber hinwegtäuschen, dass ihr rein naturwissenschaftliches Weltbild nicht ausreicht, die Wirklichkeit präzise zu erfassen und zu erklären. Auch bleiben sie den wissenschaftlichen Beweis letztlich schuldig. Metzinger behauptet zwar: „Alle empirischen Daten deuten mittlerweile darauf hin, dass der phänomenale Gehalt lokal determiniert wird, nicht einmal ansatzweise durch die Umwelt, sondern allein durch innere Eigenschaften des Gehirns“ (Metzinger, 2014 : 22). Er führt diese Studien jedoch weder aus noch benennt er sie konkret. Dennetts und Metzingers Thesen stützen sich auf einen Stand der Forschung, der noch längst nicht erreicht ist. Dadurch messen sie Einzelbeispielen, Analogien und Gedankenexperimenten Bedeutung zu, die zwar in ihrer Interpretation Impulse für weitere Forschung bieten können, jedoch wenig Belegcharakter haben. Das scheint eine Schwäche der deterministischen Position insgesamt zu sein. Bewusstseinsphänomene ausschließlich auf neuronale Mechanismen zurückführen zu wollen muss daher in der Beweisführung zwangsläufig inkonsistent bleiben. Die Frage, ob Computer über die Fähigkeit verfügen, zu denken, zu verstehen, Bewusstsein zu haben, ist für die vorliegende Frage von Interesse und deshalb mit den naturwissenschaftlichen Ansätzen Metzingers und Dennetts dargestellt und analysiert worden. Das Konstrukt des „phänomenalen Selbstmodells“ bzw. der „Intentionalen Systeme“ hat die Frage nicht befriedigend beantworten können. Setzt man Sprache als wichtigstes Medium des Denkens voraus, gewinnt Sprachverständnis, also die Erfassung von Sinn und Bedeutung, Gewicht. Der Intersubjektive Ansatz beschreibt eine Ich-Du-Perspektive, wie sie mit Mead dargestellt wurde. Die Entwicklung des biologischen Individuums zu einem mit Geist versehenen findet für ihn durch Sprache statt. Der Spracherwerb und das Sprachverständnis sind wiederum gebunden an die Existenz einer Gemeinschaft. Denken, so könnte man Mead 2.5 Daniel Dennett: Vom Umgang mit intentionalen Systemen 89 interpretieren, hat die Funktion, Bewusstsein zu erzeugen. Durch Interaktion entsteht dann der generalisierte Andere, der Ausdruck sozialer Normen und Werte. Versteht man Denken jedoch als ein „objektives Verhalten“, dessen Ergebnis sich messen lässt, wird die Frage nach der Denkfähigkeit moralische Implikationen ausschließen müssen.48 Der Fortgang der Arbeit wird sich weiter auf den Ansatz Meads stützen, da er überzeugender die komplexe Entstehung von Bewusstsein und Selbst-Wahrnehmung ergründen lässt als der deterministische von Metzinger und Dennett. Emotionen zu unterstellen bedeutet, reflexive Intelligenz im Sinne Meads zuzubilligen. Die Auswirkungen auf das Verhältnis zwischen Menschen und künstlichen Kommunikationssystemen könnten darin bestehen, dass technische Informationsverarbeitung und menschliche Intelligenz gleichgesetzt werden (vgl. Lanier et al., 2014: 253). Diese Gleichsetzung könnte wiederum dazu führen, dass Tätigkeiten wie die Speicherung und die Verteilung von Informationen, in denen künstliche Systeme dem Menschen überlegen sind, gegenüber der sinnhaften (Neu-)Verknüpfung von Informationen, in der der Mensch wiederum den künstlichen Systemen überlegen ist, einen höheren Stellenwert gewinnen. 48 Mit dem Menschen als dem am weitesten flexiblen, repräsentations-, kommunikations- und imitationsfähigen Wesen tritt eine ungeheure Beschleunigung im Bereich der kulturellen Evolution ein. Die Einheiten dieser Evolution, die Einheiten der kulturellen Vererbung, sind Meme. Beispiele für Meme sind das Rad, Kleidung, Vendetta, rechtwinkliges Dreieck, Alphabet, Kalender, die Odyssee, Rechnungsart, Schach, perspektivisches Zeichnen, Evolution durch natürliche Auslese, Impressionismus, Dekonstruktionismus. Meme haben Ähnlichkeiten mit Genen, sie können sich verbreiten und verschwinden; und sie stehen in verschiedenen Beziehungen zu unserer evolutiven Fitness: Meme, die nicht nur aus ihrer Sicht als egoistische Selbstverdoppler, sondern auch aus unserer Sicht gutartig sind, sind etwa Zusammenarbeit, Musik, Schriftstellerei, Kalender, Bildung, Umweltbewußtsein, Abrüstung, das Gefangenendilemma, Die Hochzeit des Figaro, MobyDick, Pfandflaschen, die SALT-Verträge; umstrittenere Fälle sind etwa die farbige Nachbearbeitung von klassischen Filmen, Fernsehwerbung, das Ideal der ‚politischen Korrektheit'. Für uns ausgesprochen gefährliche Meme sind Antisemitismus, Flugzeugentführungen, Sprühdosengraffiti und Computerviren (vgl. Dennett, 1997: 505) Kapitel 2: Die Digitalisierung menschlicher Kommunikation 90 Wenn Entwickler im Bereich der digitalen Technologie ein Programm so auslegen, daß der Nutzer mit dem Computer wie mit einer Person interagieren muß, verlangen sie von ihm, in irgendeinem Winkel seines Gehirns zu akzeptieren, daß er vielleicht selbst als ein Programm verstanden werden kann. (Lanier, 2012: 14) Als weitere Konsequenz könnte der Mensch gezwungen sein, sich in seiner Art, mit Informationen umzugehen, immer stärker den formalen Verfahren maschineller Informationsverarbeitung anzunähern.49 Aus der bisher bearbeiteten Literatur lässt sich – ausgehend von Mead – festhalten, dass der Mensch auf andere Menschen angewiesen ist, um sich selbst erkennen zu können. Daraus folgt, dass sich Selbsterkenntnis aus der Gemeinschaft, in der eine Person agiert speist. Durch die Entwicklung künstlicher kommunizierender Systeme kommuniziert der Mensch jedoch seit Mitte der sechziger Jahre, als ein erster Versuch mit ELIZA stattfand, nicht mehr allein mit Menschen, sondern auch mit Dingen. Thesen dieser Arbeit Aus der bisher bearbeiteten Literatur lässt sich – ausgehend von Mead – festhalten, dass der Mensch auf andere Menschen angewiesen ist, um sich selbst als handelnden Menschen innerhalb einer Gemeinschaft wahrnehmen zu können. Diese Selbsterkenntnis erlangt er, wenn er sich im Prozess der kommunikativen Interaktion zu anderen Menschen ins Verhältnis setzt und auf diese Weise die Perspektive der von seinem kommunikativen Verhalten betroffenen Person einnehmen kann. Hierbei sind der Reflexion seiner vergangenen Erfahrungen Grenzen gesetzt, die er im Gespräch mit anderen Personen zwar nicht überwinden, jedoch erkennen kann. Doch trotz dieser Grenze der Reflexion und der aus ihr resultierenden Grenze, bestimmte Erfahrungen mit einer anderen Person zu teilen, gehe ich – mit Mead und Butler – davon aus, dass es doch eben dieser Versuch, sich einer anderen Per- 2.6 49 Inwieweit sich diese Entwicklungen vollziehen, werden wir im Laufe dieser Arbeit unter anderem auf Basis der Untersuchungsergebnisse Sherry Turkles noch betrachten. 2.6 Thesen dieser Arbeit 91 son mitzuteilen, ist, der die Grundlage der Selbst-Wahrnehmung erst bildet. Das Anliegen der vorliegenden Arbeit besteht nun darin, über Mead hinausweisend, darzulegen, wie sich die Art und Weise, in der dieses Verhalten vermittelt wird – in diesem Fall die digitale Vermittlung – auf die Möglichkeit, das eigene kommunikative Verhalten wahrzunehmen, auswirkt. Mead hielt die Verwendung von Sprache für besonders relevant zur Selbst-Wahrnehmung, da diese dem Sprecher im Gegensatz zu Mimik und Gestik selbst zugänglich ist. Die erste These lautet: Digitale Kommunikation beeinträchtigt auf Grund ihrer strukturellen Bedingungen den Prozess, in dem eine Person sich der Wirkung ihres kommunikativen Verhaltens bewusst werden kann. Digital vermittelte kommunikative Erfahrungen führen zu einer Verunsicherung in der Selbst-Wahrnehmung. Diese Beeinflussung nimmt – dies werden wir im Folgenden noch durch einen Blick auf aktuelle Nutzungsdaten sehen – mit Voranschreiten der digitalen Entwicklung stetig zu. Die zweite These dieser Arbeit lautet: Die Selbst-Wahrnehmung einer Person wird nicht mehr ausschließlich – wie noch bei Mead – von den gesellschaftlichen Strukturen bestimmt, in der der handelnde Mensch Erfahrungen mit anderen Menschen sammelt. Durch die zunehmend digitale Vermittlung interpersoneller Kommunikation erlangt die digitale Technik eine mit gesellschaftlichen Bedingungen vergleichbare Einflussnahme auf die Selbst-Wahrnehmung einer Person. Weiter wird die vorliegende Arbeit nachzeichnen, wie die digitale Kommunikationstechnik den Status der Informationsvermittlerin verlässt und zur Interaktionspartnerin innerhalb einer Kommunikationssituation wird. Die Statusveränderung besteht in der Kommunikation zwischen Mensch und Maschine. Diese Interaktion richtet sich also nicht mehr an ein „wer“, sondern an ein „was“. Dies führt uns zur dritten These dieser Arbeit: Da künstliche kommunizierende Systeme nicht über eigene Ziele, Wünsche und Absichten verfügen, sind sie nicht in der Lage, eigenständige Erfahrungen zu sammeln und ein Selbst-Bild auszubilden. Kommuniziert ein Mensch nun mit diesen Systemen und nicht mehr mit anderen Menschen, verliert er die Möglichkeit, sich der Wirkung der von ihm ausgehenden Verhaltensweisen auf Grundlage Kapitel 2: Die Digitalisierung menschlicher Kommunikation 92 menschlicher Erfahrungen bewusst zu werden. Im Folgenden werde ich auf Grundlage aktueller Nutzungsdaten und am Beispiel verschiedener digitaler Kommunikationssituationen darstellen, welchen Stellenwert die digitale Kommunikation in der kommunikativen Interaktion zwischen Menschen bereits eingenommen hat. Dies wird es uns ermöglichen, die oben beschriebenen Thesen vor dem Hintergrund der dargestellten Theorien zu diskutieren, um darzustellen, wie sich das kommunikative Verhalten der Nutzerinnen und Nutzer digitaler Kommunikationstechnik auf ihre Selbst-Wahrnehmung auswirkt, wenn sie zunächst digital vermittelt mit einer anderen Person und in einem nächsten Schritt direkt mit einem künstlichen kommunizierenden System interagiert. 2.6 Thesen dieser Arbeit 93

Chapter Preview

References

Zusammenfassung

Das Internet kombiniert als Hybridmedium bereits existierende Möglichkeiten der Interpersonellen- und der Massenkommunikation mit neuen Formen der Vernetzung und Datenübertragung. Um die Folgen dieser Entwicklung zu beschreiben, schlägt der Autor eine Brücke zwischen Kommunikationswissenschaft und Identitätsphilosophie. Auf diesem Weg entsteht eine Interaktionstheorie, die erklärt, wie Kommunikationsphänomene wie Hate-Speech, Identitätsverlust und der Drang nach Selbstinszenierung durch die Spezifika der digitalen Kommunikation vorangetrieben werden. Er stützt sich hierbei auf Denker wie G. H. Mead, V. Flusser, J. Butler und J. Weizenbaum und erklärt so, was der Mensch über sich selbst erfährt, wenn er digital vermittelt mit anderen in Kontakt tritt und was, wenn er statt mit einem anderen Menschen mit künstlicher Intelligenz kommuniziert. So trägt Lukas Lehning auf dem Gebiet der Identitätsphilosophie und der Kommunikationswissenschaft zur Grundlagenforschung bei.