Content

Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung in:

Lukas Lehning

Digitale Kommunikation aus der Perspektive des Sozialbehaviorismus, page 181 - 202

Eine Untersuchung digital vermittelter Selbst-Wahrnehmung nach George Herbert Mead

1. Edition 2020, ISBN print: 978-3-8288-4430-8, ISBN online: 978-3-8288-7442-8, https://doi.org/10.5771/9783828874428-181

Series: Wissenschaftliche Beiträge aus dem Tectum Verlag: Sozialwissenschaften, vol. 92

Tectum, Baden-Baden
Bibliographic information
Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung Das Thema dieses Kapitels ist der Teil der Kommentarkultur im Internet, der als Hate Speech bezeichnet wird, also online publizierte Kommentare, die aufgrund ihres einzelne Personen oder ganze Personengruppen diskriminierenden Inhaltes als Hasskommentare (Hate Speech) bezeichnet werden.Im Diskurs über das Phänomen des digital erscheinenden Hasses werden unterschiedliche Begriffe zu seiner Bezeichnung verwendet. „Online-Hass“, „Viraler Hass“, „digital hate“. Da es sich um einen politischen und nicht sprachwissenschaftlichen Begriff handelt, der international verwendet wird, benutze ich den Begriff Hate Speech statt der deutschen Übersetzung Hassrede. Mit Hilfe der Meadschen Theorie wird erläutert werden, wie die Strukturen der digitalen Kommunikation dazu beitragen, dass Menschen in einem Maß ungehemmt gegen andere hetzen und sich in einer Weise verhalten, die in direkter verbaler Kommunikation kaum vorstellbar ist. Insofern weist das Phänomen qualitativ neue Aspekte auf, denen ich nachgehen werde. Das in den vorangegangenen Kapiteln analysierte veränderte Kommunikationsverhalten wird am Beispiel Hate Speech dargestellt und mit den Überlegungen Butlers ergänzt.100 Butler setzt sich mit der Wirkung von Sprachhandlungen auseinander. Dabei bezieht sie sich auf John L. Austin, dessen Sprechakttheorie auf der Grundthese aufbaut, dass Sprechen Handlung be- Kapitel 6: 100 Es wird also nicht um Hate Speech durch hierzu programmierte künstliche Intelligenzen gehen. Diese automatisierten Hasskommentare stellen zwar zunehmend ein Problem dar, werden hier allerdings nicht untersucht, da es mir darum geht aufzuzeigen, welche Veränderung des Selbst-Bildes die digitalen Strukturen bewirken und wir ja bereits in den vorangegangenen Kapiteln gesehen haben, dass künstliche kommunizierende Systeme nicht über ein Selbst-Bild verfügen, das sich durch die Art und Weise ihrer Interaktion verändern könnte. 181 deutet. Sprechakte sind insofern performativ, als sprechend Handlung vollzogen wird. The uttering of the words is, indeed, usually a, or even the, leading incident in the performance of the act (of betting or what not), the performance of which is also the object of the utterance, but it is far from being usually, even if it is ever, the sole thing necessary if the act is to be deemed to have been performed. Speaking generally, it is always necessary that the circumstances in which the words are uttered should be in some way, or ways, appropriate, and it is very commonly necessary that either the speaker himself or other persons should also perform certain other actions, whether 'physical' or 'mental' actions or even acts of uttering further words. (Austin, 1975: 164) Im illokutionären Akt fallen im Sprechakt Äußerung und Handlung zusammen, der Augenblick ist jedoch als rituell zu begreifen. Wirksamkeit entfaltet der illokutionäre Akt durch die Wiederholung. Der Augenblick ist also nicht einzig, sondern eine „kondensierte Geschichtlichkeit“ (vgl. Butler, 2006: 12). Im perlokutionären Akt äußert sich die Absicht, eine Wirkung bei der Adressatin oder beim Adressaten hervorzurufen. Der Effekt entsteht aus der Äußerung, fällt also nicht mit dem Akt des Sprechens zusammen. Butler widerspricht Austin im Punkt der Kontextualisierung, wenn sie schreibt: So genügt es nicht, den entsprechenden Kontext für den fraglichen Sprechakt festzustellen, um seine Effekte einschätzen zu können. Die Sprechsituation ist keine bloße Spielart des Kontextes, der einfach durch sprachliche und zeitliche Grenzen zu definieren wäre. Durch das Sprechen verletzt zu werden bedeutet, dass man den Kontext verliert, also buchstäblich nicht weiß, wo man ist. Vielleicht macht gerade das Unvorhersehbare des verletzenden Sprechens die Verletzung aus, der Adressat wird seiner Selbstkontrolle beraubt. (Butler, 2006: 13) Performative Wirksamkeit entfaltet sich in der Wiederholung sprachlicher Handlungen und konstruiert so Realität „[…] weil in ihr frühere Sprachhandlungen nachhallen und sie sich mit autoritativer Kraft anreichert, indem sie vorgängige autoritative Praktiken wiederholt bzw. zitiert. Der Sprechakt ist nicht einfach nur in eine Praktik eingebettet, sondern er ist selbst eine ritualisierte Praktik“ (Butler, 2006: 84). Sprachhandlungen, die in der Absicht getätigt werden, zu diskriminieren, beziehen ihre Macht daraus, dass sie Wirkung bei der Adressatin oder beim Adressaten erzielen. Diskriminierendes Verhalten Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 182 muss als solches wahrgenommen werden. Daraus folgt, dass die Sprachhandlung nicht über Macht an sich verfügt, sondern sie erst dadurch erhält, dass ihr Bedeutung zugewiesen wird. Beleidigungen, Einschüchterungen und Bedrohungen erhalten ihren Stellenwert als perlokutionäre Akte durch Zuschreibungen im interaktionistischen Prozess. Butler äußert sich nicht explizit zu digital verbreitetem Hass. Warum ihre Theorie dennoch geeignet ist, das Phänomen Hate Speech zu beleuchten, liegt darin, dass ihre Ausführungen Sprachhandlungen und ihre Wirkungen im gesellschaftlichen Kontext präzise analysieren. Für Butler bedürfen wir der Sprache, „um zu sein“ (Butler, 2006: 9). Hass wird in der digitalen Kommunikation vornehmlich durch sprachliches Verhalten präsentiert. Weil die Sprache konstituierend für unser Selbst-Bild ist, zielen aggressive Akte unmittelbar auf unser Sein. Hasserfüllte Sprachhandlungen werden auch außerhalb des digitalen Netzes vollzogen. Durch die Strukturen, die das digitale Netz zur Verfügung stellt, haben sie jedoch eine zuvor nicht erreichte Dimension angenommen. Hasskommentare haben grundsätzlich drei Effekte: Erstens artikulieren sie Hass gegenüber einzelnen Personen oder Gruppen. Zweitens können sie das Diskussionsklima in Gruppen, Foren und auf Kommentarseiten dominieren (vgl. Kaspar, Gräßer & Riffi, 2017: 163). Drittens verletzen sie ihre Adressatinnen und Adressaten. Die Kraft, die diesen Kommentaren innewohnt, rührt daher, hierin folge ich Butler, dass sie an bereits zuvor erfolgte Diskriminierung und Erniedrigung anknüpft und die Wirkung damit erneut vollzieht. Wenn eine performative Äußerung vorläufig gelingt […], dann nicht, weil die Sprachhandlung durch eine Absicht erfolgreich kontrolliert wird, sondern nur deswegen, weil in ihr frühere Sprachhandlungen nachhallen und sie sich mit autoritativer Kraft anreichert, indem sie vorgängige autoritative Praktiken wiederholt bzw. zitiert. (Butler, 2006: 84) Der online gezeigte Hass verbleibt nicht in der digitalen, sondern führt zu Konsequenzen in der analogen Welt. Er verschiebt auch dort die Grenzen des Sagbaren, leistet der Verrohung auch in offline geführten Debatten Vorschub und führt im schlimmsten Fall zu Gewalt gegen Einzelpersonen oder Gruppen. Hass als Instrument eingesetzt soll die Objekte des Hasses verstummen lassen, sie ihrer Stimme berauben. Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 183 Solche Äußerungen sind daher immer auch als Anmaßung von Deutungshoheit und damit Macht zu sehen. Butler geht auf die Wirkung ein, wenn sie schreibt: Auf verletzende Weise angesprochen zu werden bedeutet nicht nur, einer unbekannten Zukunft ausgesetzt zu sein, sondern weder die Zeit noch den Ort der Verletzung selbst zu kennen und diese Desorientierung über die eigene Situation als Effekt dieses Sprechens zu erleiden. (Butler, 2006: 18) Die mediale Aufmerksamkeit und die öffentliche Debatte führen häufig zu einem falschen Eindruck von der tatsächlichen Relation von Hasskommentaren. Die Gruppe derer, die ihrem Hass im Internet Ausdruck verleiht, ist im Verhältnis zur Gesamtzahl der Nutzerinnen und Nutzer nicht so groß, wie sie bisweilen erscheint. Die Landesanstalt für Medien NRW führt seit 2016 jährlich Studien zum Thema Hassrede bzw. Hasskommentare durch (Landesanstalt für Medien NRW, 2018: 1–11). Wie die Befragung von 2018 zeigt, steigt die Wahrnehmung von Hassrede bzw. Hasskommentaren im Vergleich zu 2016 und 2017 leicht an: 78 % der Befragten geben an, schon einmal Hassrede bzw. Hasskommentare im Internet gesehen zu haben. 26 % der Befragten geben an, schon einmal einen Hasskommentar bzw. dessen Verfasserin oder Verfasser bei dem entsprechenden Portal gemeldet zu haben. Dieser Anteil ist im Vergleich zum Vorjahr um 1 % gestiegen. Hinsichtlich der Bewertung von Hasskommentaren im Internet zeigen sich nahezu keine Veränderungen zu den Vorjahren: Nahezu alle Befragten (92 %) sind der Meinung, dass anonyme Hasskommentare über das Internet feige sind. 68 % der befragten Internetnutzer machen Hasskommentare im Internet wütend, für 61 % ist es Zeitverschwendung, sich mit diesen zu beschäftigen und gut jeder zweite (55 %) hat kein Interesse an Hasskommentaren. 39 % der Befragten kommen zu der Einschätzung, dass öffentliche Nutzerkommentare im Internet häufiger Hasskommentare als sachliche Meinungsäußerungen sind. 35 % sind der Meinung, dass es mehr Internetnutzer gibt, die öffentliche Beiträge im Internet hasserfüllt und hetzend kommentieren als Internetnutzer, die öffentliche Beiträge sachlich kommentieren. Fast genauso viele (34 %) werden durch Hasskommentare verängstigt. Dass sie für manche Hasskommentare Verständnis haben, geben 19 % der Befragten an. Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 184 Ebenfalls 19 % beschäftigen sich mit Hasskommentaren, weil sie diese unterhaltsam finden. 1 % der Befragten gibt an, selbst schon einmal einen Hasskommentar verfasst zu haben. Die Zahl ist seit der ersten Erhebung 2016 stabil geblieben. Die Untersuchung stützt also die Annahme, dass nicht die Anzahl der Hasskommentatorinnen und -kommentatoren im Netz steigt, sondern dieser Eindruck durch die gestiegene Aufmerksamkeit für das Phänomen entsteht. Mediale Aufmerksamkeit wirkt sich also nicht verstärkend aus. Hate Speech – verschiedene Definitionsversuche Hate Speech (Hassrede) lässt sich sowohl sprachwissenschaftlich als auch juristisch eingrenzen. Anatol Stefanowitsch bedenkt beide Perspektiven, die Intention des Täters und die Sicht des Betroffenen. Er weist darauf hin, dass die Wahrnehmung von Diskriminierung nicht einem individuellen Empfinden überlassen werden darf, sondern als diskriminierend im allgemeinen Sprachverständnis gelten muss. Dann erfüllt sie aus sprachwissenschaftlicher Sicht das Kriterium der Hassrede (vgl. Stefanowitsch, 2015: 11). Stefanowitsch ist sich der Problematik, ein umfassend gültiges Verständnis von diskriminierender Sprache anzunehmen, bewusst, wenn er schreibt: Dass es innerhalb einer Sprachgemeinschaft unterschiedliche Meinungen darüber geben kann, ob ein bestimmter Ausdruck als Hassrede gilt oder nicht, ist selbst dort nicht überraschend, wo alle Beteiligten aufrichtig Position beziehen: Mitglieder einer privilegierten Gruppe empfinden einen sprachlichen Ausdruck häufig deshalb nicht als herabwürdigend/verunglimpfend, weil er sich nicht gegen sie, sondern eben gegen eine (möglicherweise sogar unbewusst) als von der angenommenen Norm abweichende Gruppe richtet. Umgekehrt ist es durchaus möglich, dass Mitglieder einer gesellschaftlich diskriminierten Gruppe aufgrund einer andauernden sprachlichen Herabwürdigung eine gewisse Überempfindlichkeit entwickeln und auch Ausdrücke als diskriminierend empfinden, die von der Mehrheit der Sprachgemeinschaft (inklusive der Mehrheit der betreffenden Gruppe) tatsächlich neutral verstanden werden. (Stefanowitsch, 2015: 12) Juristische Definitionen von Hate Speech geben sich unabhängig von Interpretationen durch die Sprachgemeinschaft oder die Anknüpfung 6.1 6.1 Hate Speech – verschiedene Definitionsversuche 185 an vorherige in einem spezifischen Kontext getätigte Äußerungen und versuchen strikt, einen Sachverhalt zu beschreiben. Dass dieser durch die in einer Gesellschaft vorherrschenden Normen geprägt ist, ist selbstverständlich, soll aber nicht weiter ausgeführt werden. Für den Begriff Hassrede existieren unterschiedliche Definitionen. So umfasst Hassrede laut der Definition des Europarats alle Ausdrucksformen, die Rassismus, Fremdenfeindlichkeit, Antisemitismus oder andere Formen von auf Intoleranz beruhendem Hass verbreiten, dazu anstiften, sie fördern oder rechtfertigen; einschließlich von Intoleranz, die sich in aggressivem Nationalismus und Ethnozentrismus, der Diskriminierung und Feindseligkeit gegenüber Minderheiten, Migrant/innen und Menschen mit Migrationshintergrund äußert‘. Facebook hingegen definiert den Begriff Hassrede in seinen Community-Standards ‚als direkten Angriff auf Personen aufgrund geschützter Eigenschaften: ethnische Zugehörigkeit, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Kaste, Geschlecht, Geschlechtsidentität, Behinderung oder Krankheit‘. Auch die Autor_innen [sic!] der vorliegenden Beiträge verwenden unterschiedliche Definitionen von Hassrede. Die Vielzahl der Definitionen kann in bestimmten Fällen zu differierenden Beurteilungen einzelner Sachverhalte führen und sorgt zusätzlich dafür, dass die Vergleichbarkeit zwischen verschiedenen Statistiken und Studien nicht immer gegeben ist. Hier ist wichtig, die verwendete Definition von Hassrede sowie die Erhebungsmethode von Daten mit einzubeziehen. (Quent, 2018a: 7) In kategorisierendem Verständnis von Hate Speech liegen drei Gefahren für den Umgang mit diesem Phänomen: Erstens kann sie ohne Berücksichtigung des Kontexts die Zensur bestimmter Äußerungen ermöglichen (vgl. Koreng, 2015: 33). Zweitens führt die alleinige strafrechtliche Verfolgung von Hate Speech zu einer reduktionistischen Sicht auf das Phänomen und verhindert einen gesellschaftlichen Diskurs durch Delegation des Problems an eine staatliche Autorität. Genau darauf weist Butler hin: Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 186 Das soll nicht heißen, daß man ein Subjekt und sein verletzendes Sprechen nicht rechtlich verfolgen soll; ich halte dies in bestimmten Fällen für richtig. Dennoch stellt sich die Frage, was genau rechtlich verfolgt wird, wenn man das verletzende Wort vor Gericht stellt, und ob es sich letztendlich und vollständig verfolgen lässt. Daß Worte verwunden, scheint unbestreitbar, und daß gegen hasserfülltes, rassistisches, frauen- und schwulenfeindliches Sprechen vorgegangen werden muss, ist wohl unwiderlegbar. Aber verändert das Verständnis, woher das Sprechen seine verwundende Macht bezieht, nicht auch unsere Vorstellung davon, wie man dagegen vorgehen sollte? Können wir akzeptieren, dass verletzendes Sprechen einem einzelnen Subjekt und seinen Handlungen zugeschrieben wird? Welchen Verlust nimmt eine politische Analyse der Verletzung in Kauf, wenn sie diesen juridischen Denkzwang – die grammatischen Anforderungen der Zuschreibungen von Verantwortlichkeit – akzeptiert? Wenn der politische Diskurs vollständig im juridischen Diskurs aufgeht, dann entsteht die Gefahr, dass die Bedeutung des Begriffs „politischer Widerstand“ auf die rechtliche Verfolgung allein reduziert wird. (Butler, 2006: 83) Drittens bestärkt der Anspruch, Hate Speech eindeutig und trennscharf definieren zu können, die Überzeugung, die Erkennung und Bewertung diskriminierender Äußerungen sei erfolgreich an digitale Programme zu delegieren. Auf diesen Aspekt und das in ihm liegende Gefahrenpotential werde ich im Folgenden noch eingehen. Werfen wir zunächst einen Blick darauf, welche Äußerungen derzeit nach deutschem Recht strafbar sind, wenn sie einen oder mehrere der folgenden Punkte erfüllen: Volksverhetzung § 130 StGB, Beleidigung § 185 StGB, Verleumdung § 187 StGB, Nötigung § 240 StGB, Bedrohung § 241 StGB und Öffentliche Aufforderung zu Straftaten, § 111 StGB (bpb 2017). Butler erkennt die Schwierigkeit einer solchen Bestimmung einzelner als strafbar eingestufter Sprachhandlungen. Sie besteht darin, dass die Handlungen zum einen aus dem Kontext gelöst werden, die Erfassung der Diskriminierung also immer unscharf bleiben muss, und zum anderen darin, dass sie den Betroffenen nicht mehr ermöglicht, Motive hinter diesen Handlungen anzugreifen. Der Sprecher erneuert die Zeichen der Gemeinschaft, indem er dieses Sprechen wieder in Umlauf bringt und damit wiederbelebt. Die Verantwortung ist also mit dem Sprechen als Wiederholen nicht als Erschaffung verknüpft. (Butler, 2006: 68) 6.1 Hate Speech – verschiedene Definitionsversuche 187 Die Wirkung besteht nach Butler im Wiederaufgreifen sprachlicher Traditionen, die ihrem Wesen nach hasserfüllt sind. Als Beispiel mögen Antisemitismus und Rassismus in digital geführten Debatten gelten. Durch die Anonymität, die Unsichtbarkeit der Akteurinnen und Akteure sowie die Möglichkeit, sich an eine unbestimmte Anzahl von Adressatinnen und Adressaten zu wenden, wird es wesentlich erleichtert, an vorherige Äußerungen anzuknüpfen oder sich diesen anzuschließen. Bei der strafrechtlichen Verfolgung von online geäußertem Hass stehen wir vor zwei Herausforderungen: Über den Aspekt der Wiederholung hinaus ist durch die technische Möglichkeit der massenhaften Kopie von Daten gegeben, dass eine hasserfüllte Äußerung über den unmittelbaren Moment ihrer Entstehung hinweg Bestand hat. Butler bemerkt dazu, dass […] in ihr frühere Sprachhandlungen nachhallen und sie sich mit autoritativer Kraft anreichert, indem sie vorgängige autoritative Praktiken wiederholt bzw. zitiert. Der Sprechakt ist nicht einfach nur in eine Praktik eingebettet, sondern er ist selbst eine ritualisierte Praktik. (Butler, 2006: 84) Sowohl die Praxis der Wiederholung und Anknüpfung an sprachliche Traditionen, als auch die Möglichkeit der Vervielfältigung von Meinungen lässt Urheberschaft nur schwer ausmachen. Im Falle einer strafrechtlichen Verfolgung wäre zu differenzieren zwischen Urheberschaft einerseits und Verbreitung strafrechtlich relevanter Inhalte und den dahinterliegenden Motiven andererseits. Eine weitere Herausforderung betrifft das „Recht auf Vergessenwerden“, eine Rechtseinräumung, die es Nutzerinnen und Nutzern ermöglicht, Inhalte, die über sie verbreitet wurden, zu löschen bzw. löschen zu lassen. Der Europäische Gerichtshof fällte 2014 folgendes Urteil: Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 188 1. Art. 2. Buchst. b und d der Richtlinie 95/46/EG des Europäischen Parlaments und des Rates vom 24.10.1995 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr ist dahin auszulegen, dass die Tätigkeit einer Suchmaschine, die darin besteht, von Dritten ins Internet gestellte oder dort veröffentlichte Informationen zu finden, automatisch zu indexieren, vorübergehend zu speichern und schließlich den Internetnutzern in einer bestimmten Rangfolge zur Verfügung zu stellen, sofern die Informationen personenbezogene Daten enthalten, als „Verarbeitung personenbezogener Daten“ im Sinne von Art. 2 Buchst. b der Richtlinie 95/46/EG einzustufen ist und dass der Betreiber dieser Suchmaschinen als für diese Verarbeitung „Verantwortlicher“ im Sinne von Art. 2 Buchst. d der Richtlinie 95/46/EG anzusehen ist. (EuGH, 2014 (Große Kammer), Urteil vom 13.5.2014 – C-131/12 (Google Spain SL u. Google Inc./Agencia Española de Protección de Datos [AEPD] u. Mario Costeja Conzález)) Dies wird durch einen „Code of Conduct“ unterstützt, der durch die europäische Kommission auf die großen Internetkonzerne einwirken soll, damit diese Hasskommentare selbstständig löschen. Ziel des formulierten Verhaltenskodexes ist: Each of the IT companies (Facebook, YouTube, Twitter, Microsoft, and now Instagram) that signed this Code of Conduct is committed to countering the spread of illegal Hate Speech online. When they receive a request to remove content from their online platform, the IT companies assess the request against their rules and community guidelines and, where applicable, national laws on combating racism and xenophobia transposing EU law on combatting racism and xenophobia. The aim of the Code is to make sure that requests to remove content are dealt with speedily. The companies have committed to reviewing the majority of these requests in less than 24 hours and to removing the content if necessary. (Countering illegal Hate Speech online – Fact Sheet: European-Commission, 2018) Er bezieht sich auf einen Rahmenbeschluss des Europäischen Parlaments zum Thema Fremdenhass und Rassismus aus dem Jahr 2008 (EuropeanParliament, 2008: Council Framework Decision 2008/913/JHA of 28 November 2008 on combating certain forms and expressions of racism and xenophobia by means of criminal law).101 101 Die Frist zur Umsetzung dieses Rahmenbeschlusses durch die Mitgliedsstaaten ist allerdings längst verstrichen. Daher können die Mitgliedsstaaten der EU noch immer nicht mit einer gemeinsamen Definition von Hate Speech gegen das globale Phänomen hasserfüllter Kommentare vorgehen. Des Weiteren ergibt sich die 6.1 Hate Speech – verschiedene Definitionsversuche 189 Hate Speech im digitalen Netz ist mit wesentlich geringerem Aufwand zu publizieren als in der nicht digitalen Welt. Zudem kann eine Aufmerksamkeit erreicht werden, die ohne die strukturellen Bedingungen digitaler Kommunikation nicht möglich ist. Innerhalb digitaler Öffentlichkeit verschwimmen die Grenzen zwischen Sendern und Empfängern und Filtermechanismen, die in klassischen Massenmedien funktionieren, können nicht mehr greifen (vgl. Neuberger, 2007: 255). Strategien, dem Hass im Netz zu begegnen, können nur erfolgreich sein, wenn die strukturellen Besonderheiten des Netzes beachtet werden und in Rechnung gestellt wird, dass man dem online gezeigten Hass nur teilweise mit Maßnahmen, die sich in der Offline-Welt bewährt haben, entgegentreten kann. Die Wirkung aller juristischer Maßnahmen und politischer Absichtserklärungen zum Schutz vor Hate Speech müssen jedoch begrenzt bleiben, weil zwischen Original und Kopie im Netz bedingt durch die technische Infrastruktur nicht mehr zu unterscheiden ist. Damit ist ein Verursacher kaum zweifelsfrei auszumachen. Vervielfältigt und publiziert wird von Vielen und nicht von einem Einzelnen aus unterschiedlichen Motiven. Dennoch stellt das Urteil des Europäischen Gerichtshofs eine Stärkung der Rechte des Einzelnen gegenüber Großkonzernen dar, deren Geschäftsmodell auf Datenverarbeitung, -speicherung und -nutzung beruht. Es ermöglicht Nutzerinnen und Nutzern, die Hoheit über ihre online generierte Identität zurückzugewinnen, indem sie Inhalte, die mit dieser Identität verknüpft sind, löschen lassen. Die Bedeutung des Urteils liegt unabhängig von seiner Wirksamkeit in der Anerkennung der Notwendigkeit von Interventionsmöglichkeiten durch Gesetzgeber und Bürgerinnen und Bürger. Die Entscheidung konstatiert dabei einen grundsätzlichen Vorrang des Rechts auf Privatsphäre gegenüber den Kommunikationsgrundrechten wie der Meinungs- und Informationsfreiheit, sodass nur in begründeten Ausnahmefällen nach Abwägung der betroffenen Rechte von einer Löschung des Links abzusehen ist. (Otto, 2015: 10) Schwierigkeit, dass wir es mit unterschiedlichen Gesetzeslagen in USA, Europa, Deutschland zu tun haben. Einem globalen Phänomen kann derzeit nicht mit einem einheitlichen Instrument entgegengetreten werden. Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 190 Strukturelle Bedingungen Aktuelle Studien zum Thema zeigen, dass sich ähnlich wie bei der Aktivitätsverteilung in sozialen Netzwerken – wenige Aktive, viele Passive – auch die aktive Verbreitung von Hasskommentaren auf wenige Akteurinnen und Akteure beschränkt, ihre Kommentare allerdings von vielen Menschen weiterverbreitet werden. Es ergab sich ein Datensatz von insgesamt ca. 14 000 Kommentaren, die jeweils mehr als 10 Likes erhielten, verfasst in den Kommentarspalten unter 700 Medien-Artikeln, mit wiederum insgesamt ca. 600 000 Likes. […] Eine kleine Gruppe hoch aktiver Accounts dominiert demnach eine große Anzahl der Kommentarspalten und interagiert positiv mit Hateful Speech. (Kreißel, 2018: 12) Der Befund, dass die Anzahl derer, die sich einem „Hasskommentar“ anschließen, die Zahl der Kommentatorinnen und Kommentatoren weit übersteigt, überrascht nicht. Die Strukturen der digitalen Kommunikation begünstigen eine mit wenig Aufwand verbundene Art der Bestätigung von Ansichten. Das Auslösen des Like-Buttons stellt eine Meinungsäußerung dar. Ob daraus jedoch tatsächlich eine vollständige Übereinstimmung abgeleitet werden kann, ist fraglich. Die Motive der Zustimmenden bleiben im Dunkeln. Digital wird Verhalten gezeigt, dass in einer face-to-face-Situation nicht oder in einer wesentlich milderen Form stattfinden würde. Bei Beleidigung, offener Diskriminierung und Herabsetzung muss mit Gegenwehr gerechnet werden. Anonym agieren zu können, begünstigt offensichtlich, gegen soziale Normen zu verstoßen. Um dem Einhalt zu gebieten, wurde immer wieder die Pflicht zur Verwendung von Klarnamen gefordert. Mit dem Gedanken verband sich die Hoffnung, die Menge an Hasskommentaren deutlich zu verringern. Matthias Quent weist jedoch darauf hin, dass bereits ein großer Teil an Hate Speech unter bürgerlichem Namen veröffentlicht wird (vgl. Quent, 2018b: 49). Dies scheint mir ein Indiz dafür, dass nicht die mögliche Anonymität, sondern die Unsichtbarkeit – das Fehlen des Blicks auf den Anderen und vom Anderen – unangemessenes Verhalten begünstigt. Diese Vermutung bestätigt sich – unter anderem – durch ein 2016 durchgeführtes Experiment der Journalistin Britta Stuff, das sie im „Spiegel“ unter dem Titel „Die Heimsuchung“ veröffentlichte. 6.2 6.2 Strukturelle Bedingungen 191 Sie begleitete die Grünenpolitikerin Renate Künast auf einer Reise zu den Menschen, die sie auf Facebook beleidigt hatten. Mit ihren Äu- ßerungen konfrontiert, rechtfertigten die Urheber sich damit, dass sie „einfach nur so dahergeredet hätten“ und „ihnen gar nicht klar gewesen sei, dass die Kommentare gelesen werden würden“ (vgl. Stuff, 2016: 29). Abgesehen davon, dass die Entschuldigungen halbherzig wirken, offenbaren sie vor allem eins: Die im Internet Hass publizierenden Menschen sind sich offensichtlich der möglichen Reichweite ihrer Kommentare nicht bewusst oder verdrängen dieses Wissen. Im Vordergrund steht die schnelle Möglichkeit, Gefühlen wie Ärger, Frustration, Wut weitestgehend sanktionsfrei Ausdruck zu verleihen. Dabei muss nicht zwingend eine kausale Verbindung zwischen dem Gefühl des Senders und der Adressatin seiner kommunikativen Tat bestehen. Das Fehlen ihrer Präsenz ist hier als Rechtfertigung und unter Umständen auch als motivierender Faktor vorhanden. Das zeigt allerdings auch, wie wenig dem Produzenten beleidigenden Verhaltens mit sachlichen Argumenten beizukommen ist. In sozialen Netzwerken sind es auch Trolle und Meinungsbots, die sich mit Hate Speech zu Wort melden und deren Ziel es ist, sachliche Debatten zu verhindern. In der Regel handelt es sich hierbei nicht um Einzelaktionen, sondern geplante Versuche, Ansichten und Ziele durchzusetzen und Diskussionen zu dominieren. Folgen der Unsichtbarkeit Bei der Betrachtung digital publizierter Hate Speech fällt die Aggressivität der Äußerungen sofort ins Auge. Auch entbehren sie in der Regel jeden Belegs, sind allein unter Faktengesichtspunkten nicht haltbar. Trotzdem schränkt das ihre Wirkung keineswegs ein. Gekennzeichnet sind die Kommentare auch dadurch, dass sie nicht den Austausch, die Debatte suchen, sondern auf Vernichtung der Gegnerin oder des Gegners abzielen. Und Gegnerinnen und Gegner sind alle, die eine andere Meinung äußern. Dabei zielt der Kommentar häufig auf die Person und weniger auf die von ihr vertretene Position. Dass es dabei weniger um Wahrheitstreue als vor allem um Verunglimpfung geht, wird an zwei Zitaten deutlich. Das erste stammt aus einem Datensatz zur Iden- 6.3 Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 192 tifikation von hateful speech durch die Gruppe „#ichbinhier“, die sich aktiv gegen Hetze im Netz positioniert. Das zweite Bespiel stammt aus dem bereits zitierten Artikel „Die Heimsuchung“. Diese Art der Kriminologie eines senilen SPDlers ist kriminell. Auch ihre Verbreitung ist kriminell. (Kreißel, 2018: 15) Sie ist typisch für die meisten Grünen: dumm, ohne Schul- oder Berufsabschluss und unfähig. (Stuff, 2016: 26) Die Strukturen der digitalen Kommunikation erschweren – wie bereits dargelegt –, sich mit den Folgen der eigenen Handlungen konfrontiert zu sehen, weil die Folgen nicht mehr an anderen Menschen wahrgenommen werden können. Doch warum erfahren diese Kommentare nicht mehr Widerspruch, obwohl das mit geringem Aufwand möglich wäre? Warum lassen die Mitglieder sozialer Netzwerke Regelverstöße zu, die sich klar gegen ein friedliches Miteinander richten? Und wie wirkt sich die Unsichtbarkeit auf die Selbst-Wahrnehmung der Verfasserinnen und Verfasser von Hasskommentaren aus? Mit Mead lässt sich analysieren, dass die Digitalisierung menschlicher Kommunikation nicht nur zu einem veränderten Verhältnis der Handlungsphasen „I“ und „me“, sondern auch zur Schwächung des generalisierten Anderen beiträgt. Das erschwert es, sich als Teil einer Gemeinschaft wahrzunehmen. Digitale Kommunikation verbindet eben nicht nur Menschen miteinander, sondern agiert zunehmend zwischen ihnen. Sie verlangt von Akteurinnen und Akteuren keine Rechtfertigung für ihr Handlungen. Die fehlende soziale Kontrolle führt nicht nur zu konkreten Verhaltensänderungen, sondern auch zu einer gestörten Selbst-Wahrnehmung und einer verminderten Anerkennung des Anderen als mit einer Identität ausgestatteten Individuums. In der Psychologie wird dieser Vorgang mit dem Begriff der Deindividuation bezeichnet. Als kennzeichnend werden eine verringerte Kontrolle des eigenen Verhaltens und eine reduzierte Bewertungsangst gesehen. Begünstigend wirke sich zudem das Aufgehen in der Masse aus, das Verstöße gegen anerkannte Normen begünstige. 6.3 Folgen der Unsichtbarkeit 193 Deindividuation theory seeks to provide an explanation for various expressions of antinormative collective behavior such as violent crowds, mindless hooligans, and the lynch mob. (Postmes & Spears, 1998: 248) Nicht definierte Verantwortlichkeiten verstärken diesen Effekt. Lässt sich Verantwortung für Ereignisse und Entwicklungen nicht mehr zuordnen, ist Verantwortungsdiffusion eine Folge. Der Einzelne fühlt sich umso stärker nicht mehr aufgefordert, verantwortlich zu handeln, je mehr andere diese Rolle einnehmen könnten. Als Grund für das Nicht-Eingreifen in die Situation kann der sogenannte Zuschauer-Effekt (Bystander-effect) angeführt werden. In der Sozialpsychologie wird dieses Phänomen unter anderem darauf zurückgeführt, dass mit steigender Zahl von Anwesenden das Verantwortungsbewusstsein des Einzelnen sinkt. […] Bezogen auf die spezielle Situation des Cybermobbings liegt hinsichtlich dieses Zuschauer-Effekts die Vermutung nahe, dass sich gerade die Verantwortungsdiffusion in den Weiten des Netzes noch weiter verstärkt, da sich die Interaktionspartner einerseits nicht sehen, andererseits aber das Bewusstsein einer großen Anzahl virtuell anwesender Personen vorhanden ist. (Festl, 2015: 41) Hate Speech, obgleich nicht mehrheitsfähig, bezieht ihre Wirkmächtigkeit aus fehlender sozialer Kontrolle, aus sozialer Anonymität, aus Verantwortungsdiffusion, die durch die digitalen Strukturen begünstigt wird, und aus einem als pluralistische Ignoranz bezeichneten Verhalten, bei dem ein Ereignis auf Grund informativen sozialen Einflusses als harmlos fehlinterpretiert wird. Die Fehlinterpretation entsteht dadurch, dass alle Beteiligten in ihrer Deutung unsicher sind und sich deshalb aneinander orientieren. Das Resultat ist Nichthandeln (vgl. Bierhoff, 1982: 292). Handlungsimpulse können ohne gravierende Folgen in Handlungen münden. In Hate Speech drückt sich dies in einer durch keine normativen Ansprüche begrenzten Enthemmung aus. Suler beschreibt sie: The disinhibition effect can then be understood as the person shifting, while online, to an intrapsychic constellation that may be, in varying degrees, dissociated from the in-person constellation, with inhibiting guilt, anxiety, and related affects as features of the in-person self but not as part of that online self. (Suler, 2004 : 325) Suler benennt als Faktoren für die Entstehung enthemmten Verhaltens Anonymität und Nichtsichtbarkeit des Anderen. Der im Netz auftretende Enthemmungseffekt beschreibt den Verlust sozialer Beschrän- Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 194 kungen und das Außerkraftsetzen sozialen Verhaltens, das normalerweise die face-to-face-Kommunikation prägt. Zunehmend als gesellschaftliches Problem erkannt, sollen politische Maßnahmen dem Phänomen Hate Speech begegnen. Inwieweit sie erfolgreich sein können, soll im nächsten Abschnitt diskutiert werden. Politische Maßnahmen Aus der zunehmend verbreiteten Erkenntnis, dass digitale Kommunikation nicht in einem rechtsfreien Raum stattfinden kann, wurde am 1. September 2017 das Netzwerkdurchsetzungsgesetz (NetzDG) erlassen. Sein Geltungsbereich umfasst die Bundesrepublik Deutschland. Es verpflichtet die Plattformbetreiber, „offensichtlich rechtswidrige“ Inhalte innerhalb von 24 Stunden zu entfernen. (1) Dieses Gesetz gilt für Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen (soziale Netzwerke). Plattformen mit journalistisch-redaktionell gestalteten Angeboten, die vom Diensteanbieter selbst verantwortet werden, gelten nicht als soziale Netzwerke im Sinne dieses Gesetzes. Das Gleiche gilt für Plattformen, die zur Individualkommunikation oder zur Verbreitung spezifischer Inhalte bestimmt sind. (§ 1 Abs. 1 NetzDG, 2017.) Damit greift das NetzDG in das sogenannte Host-Provider-Privileg ein. Dieses Privileg bedeutet, dass der Überbringer des Inhalts, in diesem Fall der Betreiber eines sozialen Netzwerkes, eines Forums oder einer Internetseite mit Kommentarfunktion, nicht für die auf der Seite hinterlassenen Kommentare verantwortlich ist, sofern diese als solche gekennzeichnet sind. Das NetzDG erweitert den Zugriff also nicht nur auf die Verfasserinnen und Verfasser von Kommentaren, sondern auch auf die Verbreiterinnen und Verbreiter. Vor dem Hintergrund der in Abschnitt 6.2 mit Kreißel genannten Zahlen, die Aufschluss darüber geben, wie einzelne Beiträge ganze Kommentarseiten dominieren können, wird deutlich, dass die hier bestehende Situation nicht mit einer Offline-Situation vergleichbar ist. Es besteht Handlungsbedarf, weil sich vor allem jüngere Nutzerinnen und Nutzer zunehmend aus online geführten Diskussionen zurückziehen – 6.4 6.4 Politische Maßnahmen 195 aus Angst, selbst Opfer von Hasskommentaren zu werden (vgl. Otternberg, M. S., Joanna, 2018: 13). Zur Lösung dieses Problems wurde vorgeschlagen, Algorithmen zur Löschung von Kommentaren einzusetzen. Diese Idee ist Gegenstand der Kritik vieler verschiedener Gruppen wie NGOs, Parteien, Interessenverbänden und Einzelakteuren. Es wird befürchtet, dass das automatische Löschen von Inhalten auch Inhalte betreffen könnte, die auf Grund von Wortfolgen von Algorithmen als Hasskommentare identifiziert werden, jedoch eigentlich keine sind. Ein weiteres wesentliches Argument zielt darauf, dass rechtsstaatliche Kompetenzen an privatwirtschaftliche Unternehmen mit starken Eigeninteressen delegiert würden. So besteht die Gefahr, dass Inhalte im Zweifel aus Furcht vor wirtschaftlichem Schaden vorschnell gelöscht würden. Auf Grund zunehmender Proteste, deren Akteurinnen und Akteure sich in der „Allianz für die Meinungsfreiheit“ zusammengeschlossen haben, wurde der Ansatz jedoch nicht ins Gesetz übernommen und zuletzt vorläufig auch auf EU-Ebene abgelehnt.102 „Viele EU-Mitgliedstaaten drängen große IT-Unternehmen zu proaktiven, automatisierten Maßnahmen, um Inhalte zu entfernen“, sagte die liberale EU Parlamentsabgeordnete Marietje Schaake. „Das ist extrem gefährlich. Die Kommission sollte sich gegen diesen Trend stellen, anstatt ihn zu begrüßen. In der EU kann es keinen Platz geben für Upload-Filter oder Zensur im Vorfeld.“ (Rudl, 2017: 3) Die automatische Löschung von Inhalten birgt eine weitere Gefahr: Sie ist still und unterläuft die gesellschaftliche Debatte dieser Inhalte und verhindert zudem die Etablierung von Gegenmeinungen. Werden Inhalte automatisch gelöscht, trifft die Verfasserinnen und Verfasser gar keine menschliche – unter Umständen als Korrektiv fungierende – Reaktion. 102 Siehe hierzu: https://www.fsm.de/de/presse-und-events/allianz-fuer-meinungsfreiheit (Geprüft am 03.05.2019). Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 196 Hass ist eine Emotion – Algorithmen haben keine Emotionen Hass ist mehr als die Abfolge von Worten. Hass ist eine Emotion, die den Wunsch speist, einem Menschen, Gruppen oder auch Institutionen massiv schaden zu wollen. Hass ist eine Reaktion, die Bezug nimmt auf etwas oder jemanden in der Außenwelt. Hate Speech ist zu einem Aufmerksamkeit generierenden Phänomen geworden, dem die Kraft innewohnt, die Debattenkultur im Netz nachhaltig zu beschädigen. Hate Speech verfolgt die Absicht, die direkten Adressaten zu verunsichern und zu ängstigen. Hate Speech zielt aber auch darauf, Deutungsmuster sozialer Wirklichkeit anzubieten. Wird das Angebot angenommen, können sich gesellschaftlich geltende Normen verändern. Mittlerweile ist die Notwendigkeit, Hate Speech entgegenzutreten, anerkannt. Was liegt näher, als sich digitale Assistenten zunutze zu machen? Die bereits dargelegten Unterschiede zwischen menschlichem Verständnis und künstlicher Verarbeitung von Informationen erklären, warum es eine zuverlässige und präzise Erkennung von Inhalten, die Hass vermitteln, nicht geben kann. Algorithmen sind nicht in der Lage nachzuvollziehen, was es bedeutet zu hassen oder gehasst zu werden. Sie arbeiten nach logischen Gesichtspunkten Aufgaben ab, für die sie programmiert wurden. Die Tatsache, dass sie zunehmend selbstständig Muster in Daten erkennen können und ihnen daher bisweilen die Fähigkeit, zu lernen zugeschrieben wird, ändert nichts daran, dass sie nicht über Erfahrungen verfügen. Sie sammeln weder eigene Erfahrungen noch sind sie in einen Sozialisationsprozess integriert. Die gesellschaftliche Dimension von Hate Speech zu ermessen ist, ihnen ebenso unmöglich wie zwischen Hass, Satire und Ironie zu unterscheiden.103 Es fehlt ihnen die Fähigkeit der Kontextualisierung. Searle hat das an seinem berühmt gewordenen Gedankenexperiment „Chinesisches Zimmer“ veranschaulicht: 6.5 103 So sperrte Twitter auf Grundlage algorithmischer Auswertung Anfang des Jahres 2018 den Account der Satirezeitung „Titanic“ (Zeit, 2018) (https://www.zeit.de/ digital/internet/2018-01/beatrix-von-storch-twitter-titanic-gesperrt-netzdg-afd) (Geprüft am 24.01.2019). 6.5 Hass ist eine Emotion – Algorithmen haben keine Emotionen 197 Suppose that I'm locked in a room and given a large batch of Chinese writing. Suppose furthermore […] that I know no Chinese […]. To me, Chinese writing is just so many meaningless squiggles. Now suppose further that after this first batch of Chinese writing I am given a second batch of Chinese script together with a set of rules for correlating the second batch with the first batch. The rules are in English, and I understand these rules […]. They enable me to correlate one set of formal symbols with another set of formal symbols, and all that 'formal' means here is that I can identify the symbols entirely by their shapes. Now suppose also that I am given a third batch of Chinese symbols together with some instructions, again in English, that enable me to correlate elements of this third batch with the first two batches, and these rules instruct me how to give back certain Chinese symbols with certain sorts of shapes in response to certain sorts of shapes given me in the third batch. Unknown to me, the people who are giving me all of these symbols call the first batch a "script," they call the second batch a "story” and they call the third batch "questions". Furthermore, they call the symbols I give them back in response to the third batch "answers to the questions." and the set of rules in English that they gave me, they call "the program”. […] As far as the Chinese is concerned, I simply behave like a computer; I perform computational operations on formally specified elements. For the purposes of the Chinese, I am simply an instantiation of the computer program. (Searle, 1980: 420) Das Beispiel dient ihm zur Illustration seiner Kritik am Turing-Test. Der gehe von falschen Voraussetzungen aus, wenn er nachzuweisen versuche, dass Maschinen Intelligenz zugeschrieben werden könne. Der Turing-Test verlange nicht mehr, als den richtigen Output als Reaktion auf einen Input zu produzieren (vgl. Dupré, 2010: 38). Menschliche Intelligenz kann – so Searle – von Computern nur simuliert werden, Verständnis von In- und Output ist nicht notwendig, wenn die Regeln der Informationsverarbeitung korrekt angewendet werden. Searle stellt drei Axiome auf, die die Unterschiedlichkeit von Mensch und Maschine definieren. Computerprogramme sind formal (syntaktisch). Dem menschlichen Denken liegen geistige Inhalte (Semantik) zugrunde. Das dritte Axiom lautet, Syntax an sich sei weder konstitutiv noch hinreichend für Semantik (Searle, 1990: 41). Jedes Verständnis von Objekten und Zuständen in der Welt setze zumindest einen groben semantischen Rahmen voraus. Mit Searles Verständnis der Differenz von menschlichem Denken und der syntaktischen Leistung eines Programms muss der Nutzen von Algorithmen bei der Erkennung von Hasskommentaren zwangsweise gering eingeschätzt werden. Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 198 Anstatt der Einführung technisch gesteuerter Löschungen, sind meiner Meinung nach folgende drei Punkte zu bedenken: Erstens können Algorithmen auf Grund ihrer bereits dargestellten Begrenztheit menschliche Akteurinnen und Akteure nicht ersetzen, sondern nur unterstützen. Zweitens darf die Macht der Entscheidung über zu löschende Inhalte nicht an privatwirtschaftliche Unternehmen delegiert werden. Drittens müssen transparente Regeln über zu löschende Inhalte existieren, die durch einen gesellschaftlichen Diskurs aufgestellt werden müssen. Findet eine automatische Löschung statt, müssen Betroffene gegen sie Widerspruch einlegen können. An dieser Möglichkeit mangelt es allerdings bisher: Das NetzDG hat keinen Mechanismus verankert, mit dem sich von fälschlichen Löschungen betroffene Personen effektiv wehren können. Deshalb ist es umso wichtiger, Löschungen beispielsweise auf onlinecensorship.org zu dokumentieren. Auch der Deutsche Journalistenverband ruft Medien und Journalisten auf, Löschungen ihrer Postings zu speichern. Denn über ungerechtfertigt gelöschte Beiträge werden die ersten Transparenz- und Löschberichte, zu denen die Plattformen verpflichtet sind, vermutlich keine Anhaltspunkte geben. (Reuter, 2017: 2) In Abwägung aller Argumente, wie mit der Löschung von Hasskommentaren zu verfahren sei, ist die Option, menschliche Akteure kommunikatives Verhalten bewerten zu lassen, unverzichtbar. Dass hierfür Voraussetzungen geschaffen sein müssen, die präzise definieren, was Hate Speech ausmacht, ist bereits dargestellt worden. Hans Jonas plädiert in seinen Überlegungen zum Umgang mit technischen Errungenschaften, die menschliches Handeln (zunehmend) ersetzen können, für einen am Erhalt zukünftiger Handlungsfreiheit orientierten Verantwortungsbegriff: Nicht auf diese Unsicherheit bezieht sich die Furcht, oder doch nur als Begleiterscheinung, und sich von ihr nicht abhalten zu lassen, vielmehr noch für das Unbekannte im Voraus mitzuhaften, ist bei der letztlichen Ungewißheit der Hoffnung gerade eine Bedingung handelnder Verantwortung: eben das, was man den »Mut zur Verantwortung« nennt. (Jonas, 1984: 391) Sich an Immanuel Kant orientierend formuliert Jonas einen neuen Imperativ ethischen Handelns: „Handele so, daß die Wirkungen deiner Handlung verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“ (Jonas, 1984: 36). 6.5 Hass ist eine Emotion – Algorithmen haben keine Emotionen 199 Jonas formuliert einen Verantwortungsbegriff, der sich auf den Erhalt zukünftiger Handlungsfreiheit bezieht. Dass dieser Erhalt gefährdet ist, wenn Algorithmen zunehmend selbstständig – in diesem Fall über Sprachkonventionen – entscheiden, ist dargelegt worden. Hoffnung für Meads „generalisierten Anderen“ Welche Äußerungen innerhalb einer Gemeinschaft als unerwünscht, diskriminierend oder eben als Hass gelten, unterliegt im Laufe der Zeit einem Bedeutungswandel. Idealerweise entsteht dieser Wandel durch einen öffentlichen Diskurs, an dem die Betroffenen beteiligt sein müssen. Hate Speech berührt die Grundfeste einer demokratischen, pluralistischen Gesellschaft. Die Deutungshoheit über das, was als Hassäußerung zu gelten hat, darf weder den Urheberinnen und Urhebern zugestanden, noch den Betreiberinnen und Betreibern digitaler Plattformen überlassen werden. Die Entscheidungskompetenz muss in der Gesellschaft verbleiben. Das oben beschriebene Szenario des automatisierten Löschens würde dazu führen, dass sich die Macht über die Maßnahmen gegen den Hass auf wenige zentrale Stellen bündelt. Das birgt die Gefahr, dass diese bestimmte Diskriminierungen nicht als solche erkennen oder schlimmstenfalls diskriminierende Strukturen reproduzieren (vgl. Diehl, 2018: 2). Als Reaktion auf die zunehmende Verbreitung von Hate Speech ist eine Vielzahl von Initiativen gegen Hass im Netz entstanden. Diese gehen sowohl auf Gruppen als auch auf Einzelpersonen zurück. Darunter sind Betroffene, die sich zur Wehr setzen, ebenso zu finden, wie Bürger, die das Netz nicht einer Minderheit radikaler Antidemokraten überlassen wollen. Ihre Strategien sind unterschiedlich: Deeskalation, Gegenrede, Meldung, Hilfestellung für Betroffene. Die Facebook-Gruppe „#ichbinhier“ entstand 2016 mit dem erklärten Ziel, den konstruktiven Austausch im Netz zu erhalten. Die Strategie ist die der Gegenrede auf Hasskommentare, mit dem Ziel, so viel Aufmerksamkeit zu generieren, dass die Hasskommentatorin oder der Hasskommentator verdrängt wird. Sie machen sich die Logik der Kommentarfunktion zunutze, indem sie so viel Gegenrede produzieren, dass die Hate Speech ihren prominenten Platz im Ranking verliert. Schließ- 6.6 Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 200 lich sind Aufmerksamkeit und Reichweite die Status erzeugende Größen (vgl. Ley & Görig, 2018: 25). Eine andere, weniger auf die Ressource Aufmerksamkeit als auf die Bedeutung des Geäußerten abzielende Strategie könnte man von Butler ableiten, die darauf hinweist, dass eine Beleidigung oder eine Bedrohung nur dann ihre Wirkung entfalten kann, wenn sie auch als solche aufgefasst wird. Können Betroffene sich jedoch von Äußerungen distanzieren, wird die beabsichtigte Wirkung nicht erzielt. Das potentielle Opfer verweigert die Annahme der ihm zugedachten Rolle. Darin liegt, wie Butler schreibt, die Möglichkeit, die Drohung zu entkräften: Dieses Scheitern, die Drohung auszuführen, stellt jedoch nicht den Status des Sprechaktes als Drohung in Frage, sondern nur dessen Wirksamkeit. Die Selbsttäuschung, die der Drohung ihre Macht verleiht, besteht darin, daß der Sprechakt der Drohung die angedrohte Handlung vollständig verkörpern soll. Dagegen ist dieses Sprechen verwundbar, anfällig für ein Mißlingen – und genau diese Verletzlichkeit muß man ausnutzen, um der Drohung entgegenzuwirken. (Butler, 2006: 25) Umdeutung, wie sie Butler vorschwebt, setzt Bewusstsein, Handlungsmöglichkeit und die Möglichkeit, sich als Mitglied einer Gemeinschaft zu begreifen, voraus. Soziale Zugehörigkeit zu einer Gruppe und daraus resultierende Selbst-Wahrnehmung machen es erst möglich, den sprachlichen Angriff auf das Selbst-Bild zu reflektieren und seine schädliche Wirkung abzuwenden, ja seine Wirkung unter Umständen sogar umzukehren. Unter Effizienzgesichtspunkten ist die automatische Löschung der durch den Menschen zweifellos überlegen, unter dem Gesichtspunkt der Effektivität allerdings verhält es sich umgekehrt. Die hinter den Initiativen wie „#ichbinhier“ stehenden Menschen sind im Gegensatz zu einem Algorithmus in der Lage, zu verstehen, was Hass wirklich ausmacht. Derartige Aktionen sind dringend geboten, um gegen die zunehmende Verrohung der Sprache im Netz sowie gegen die Tendenz, dass wenige pöbelnde Menschen viele besonnene überstimmen, vorzugehen (vgl. Schmid, 2017: 157). Einen ähnlichen Weg geht das Social Media Team von „tagesschau.de“ mit der Aktion „Sag´s mir ins Gesicht“, die im Jahr 2017 startete. Diese Maßnahme verfolgte zwei Ziele. Zum einen sollte sie – angeblich schwindendes – Vertrauen in öffentlich-rechtlichen Journa- 6.6 Hoffnung für Meads „generalisierten Anderen“ 201 lismus wiederherstellen, indem Nutzerinnen und Nutzer direkt mit Journalistinnen und Journalisten diskutieren konnten, und zum anderen wollte sie zu einer Mäßigung und Versachlichung der Diskussionskultur beitragen, indem Nutzerinnen und Nutzer – über Skype – ihr Gesicht zeigen mussten. Diese Bedingung trat also unmittelbar der zuvor beschriebenen Unsichtbarkeit entgegen. Indem sich die Menschen, die Hass äußern, hier zeigen müssen und mit der Reaktion ihres Gegenübers konfrontiert sind, wird das mit Mead beschriebene Verhältnis zwischen spontanem Handlungsimpuls, dem „I“, und der Reaktion sowie der aus ihr entstehenden Bewusstwerdung der Handlung, dem „me“, erst wieder möglich. Indem sich nun wieder Handelnde mit Reagierenden konfrontiert sehen, erhalten beide Seiten ein Gesicht und eine Stimme. Butler weist auf die Bedeutung der Deutungshoheit hin. Sie zu erobern, eröffnet die sukzessive Aneignung von Handlungsmacht. Ihre Strategie zielt nicht auf einen schnellen Erfolg. Sie ist sich darüber bewusst, dass es um einen Kampf geht, den ein Individuum nicht alleine führen kann, denn Deutungshoheit ist immer im gesellschaftlichen Kontext verankert. Unsere Bemühungen, Hate Speech genau zu bestimmen, können immer nur vorläufig und der Geschichte unterworfen sein, da die Verletzung nicht von den Wörtern selbst vermittelt wird, sondern von der gesamten Szene der Anrede, die versucht, auf bedenkliche Weise denjenigen zu entwerten, an den die Hate Speech gerichtet ist. Die Tatsache, daß wir Namen benötigen, daß niemand von uns ohne einen Namen gesellschaftlich bestehen kann, bedeutet, daß wir von Anfang an dem Umstand überantwortet sind, daß wir von anderen benannt werden und daß wir uns an das halten, was sie sagen. Diese Verwundbarkeit kann nicht einfach weggewünscht werden. Aber wir können mit der Zeit beginnen, die Deutungshoheit über die Begriffe, die uns benennen, zu übernehmen; wir können uns in einem Kampf um die lexikalische Macht engagieren, und wir können die Macht der Benennung für unsere eigenen Zwecke zurückgewinnen. Dieser Kampf kann allerdings dann nicht erfolgreich sein, wenn es uns nicht gelingt zu verstehen, daß Sprache sich sowohl historisch als auch unter dem Druck der Sprachbenutzer verändert. Aus dieser Zwangssituation kann Deutungshoheit erlangt werden. Und wir müssen gelegentlich die verletzendsten Worte in ästhetische und kritische Praktiken einführen, um so die Art und Weise aufzudecken, wie sie verletzend wirken, und um ihnen ihre verletzende Macht zu nehmen und damit der Sprache zu erlauben, sich zukünftig in eine andere Richtung zu entwickeln. (Butler, 2006: 260) Kapitel 6: Hate Speech – Beispiel für veränderte Selbst-Wahrnehmung 202

Chapter Preview

References

Zusammenfassung

Das Internet kombiniert als Hybridmedium bereits existierende Möglichkeiten der Interpersonellen- und der Massenkommunikation mit neuen Formen der Vernetzung und Datenübertragung. Um die Folgen dieser Entwicklung zu beschreiben, schlägt der Autor eine Brücke zwischen Kommunikationswissenschaft und Identitätsphilosophie. Auf diesem Weg entsteht eine Interaktionstheorie, die erklärt, wie Kommunikationsphänomene wie Hate-Speech, Identitätsverlust und der Drang nach Selbstinszenierung durch die Spezifika der digitalen Kommunikation vorangetrieben werden. Er stützt sich hierbei auf Denker wie G. H. Mead, V. Flusser, J. Butler und J. Weizenbaum und erklärt so, was der Mensch über sich selbst erfährt, wenn er digital vermittelt mit anderen in Kontakt tritt und was, wenn er statt mit einem anderen Menschen mit künstlicher Intelligenz kommuniziert. So trägt Lukas Lehning auf dem Gebiet der Identitätsphilosophie und der Kommunikationswissenschaft zur Grundlagenforschung bei.