Die (un-)sozialen Medien
In den sozialen Medien wird auch gemobbt und ausgegrenzt. Reichen optimierte Algorithmen, um Hass und Hetze von den Plattformen zu verbannen? Foto: iStock.com/Victollio
Immer wieder werden über Twitter, Instagram, Facebook und Co. Hass und Hetze verbreitet. Zwar stehen die Anbieter in der Pflicht, doch können sie dieser auch wirklich nachkommen?
Von Jürgen Hoffmann
Soziale Medien durchdringen mittlerweile fast alle Lebensbereiche. Zu den Gärtnern der neuen vielfältigen Informations- und Meinungslandschaft gehören Plattformen wie Facebook, Instagram und Twitter, Blogger, Influencer, Youtuber und Podcaster sowie klassische Print-, Radio- und TV-Anbieter mit digitalen Formaten. Auf unzähligen virtuellen Plätzen tauschen sich User aller Couleur aus: Modeliebhaber, Sportfans, Veganer, Rechtsradikale, Unternehmen, Wissenschaftler. Was sie zwitschern, wird von den Plattformbetreibern vielfach gar nicht oder nur zögerlich kontrolliert. Folge: Es wimmelt vielerorts nur so von Fake News und Hasstiraden, es wird ausgegrenzt und gemobbt. Zwar haben einige Provider Regeln aufgestellt, verschärfen diese auch und optimieren ihre Algorithmen. Aber reicht das? Twitter schreibt auf seiner Homepage, man wisse, dass viele Menschen Bedenken äußern „hinsichtlich unserer Fähigkeit, unsere Regeln fair und konsequent durchzusetzen“. Deshalb unterziehe man die Mitarbeiter „gründlichen Schulungsprozessen“. Facebook-Vizepräsidentin Angelika Gifford konstatiert: „Wir haben eine große Verantwortung, Hassrede als auch Falschmeldungen zu unterbinden. Aber wir werden nie 100 Prozent erreichen. Das ist ein Marathon, kein Sprint.“
Im Grundgesetz der Bundesrepublik werden neben der „Freiheit“ der Meinungsäußerung auch „Schranken“ beschrieben. So ist Volksverhetzung verboten ebenso wie bestimmte Formen der Beleidigung und Androhungen von Straftaten. Diese Grenzen gelten auch in der digitalen Welt. Seit dem ersten Februar müssen laut Netzwerkdurchsetzungsgesetz große Anbieter sozialer Netzwerke potentiell strafrechtlich relevante Inhalte dem Bundeskriminalamt melden.
Die Provider in der Pflicht
Professor Karl-Nikolaus Peifer, Direktor des Kölner Instituts für Medienrecht und Kommunikationsrecht, hält solche juristischen Instrumente zwar für vernünftig, aber nicht für effizient, weil zu langsam. Man brauche „Löschknöpfe“, um Hasskommentare, Gewaltaufrufe und Feindeslisten bereits an der Quelle stoppen zu können. „Die kriegen Sie mit dem Strafrecht gar nicht mehr eingefangen“, erklärt der Professor und stellt klar, wer in der Pflicht ist: „Das können nur die Provider.“ Sie machten die Regeln „für den Besuch ihrer Häuser“, definieren und organisieren die Vernetzung und den Meinungsaustausch ihrer Nutzer.
Auch Aycha Riffi, Leiterin der Grimme-Akademie in Marl, sieht die Plattformbetreiber nicht als reine technische Dienstleister, „denn sie tragen zu einer gezielten Weiterverbreitung auch von Hatespeech bei“. Sie stimme den Bestrebungen zu, über Gesetze die Betreiber zur Verantwortung zu ziehen. Peter Ehlers, Geschäftsführer der Social-Media-Agentur Mjnt, stimmt dem ebenfalls zu. „Die Gestaltung der Spielregeln darf man nicht den privaten Anbietern von Social-Media-Kanälen überlassen, denn Fake News wirken auf die gesamte Gesellschaft. Hier ist die Politik deutlich stärker gefordert“, sagt Ehlers.
Michael Eschenbroich, COO der Influencer-Plattform Stylink, über die Influencer Produkte aus Onlineshops mit ihren Beiträgen verlinken, beschäftigt 20 Mitarbeiter im Service, die nach verbotenen und unseriösen Inhalten suchen wie etwa Clickbaits, mit denen höhere Zugriffszahlen und damit eine größere Markenbekanntheit und mehr Werbeeinnahmen erzielt werden. „Rechtliche Vorschriften werden auch wissentlich mit Füßen getreten“, weiß er. „Wir Plattformbetreiber sind die Gate-Keeper – und vielfach Erzieher vor allem für junge Influencer.“
Neben den Portalen kommt den Social-Media-Agenturen eine verantwortungsvolle Rolle zu. Sie kreieren im Auftrag von Unternehmen Texte, Bilder und Videos für digitale Touchpoints wie Netzwerke, Websites, Blogs oder Podcasts. Damit soll positive Aufmerksamkeit für eine Marke und bei den Verbrauchern gewünschte Einstellungen und Handlungen erzeugt werden. Auch sie und die Unternehmen, die Content-Marketing betreiben, agieren nicht im rechtsfreien Raum, sondern müssen Urheber- und Wettbewerbsrecht, Persönlichkeits- und Markenrechte beachten.
Kommunikation muss glaubwürdig und verantwortungsvoll sein
Als Helfer großer Mittelständler und internationaler Konzerne wie British Airways, Roche und zwei Drittel der Dax-40-Unternehmen fungiert Unicepta. Die Media-Intelligence-Firma ist für sie das „Ohr“ an der Social-Media-Welt, analysiert mit Experten und KI-basierten Intelligence-Systemen, was kommuniziert wird – in Echtzeit. „Wir unterstützen die Unternehmen, systematisch zuzuhören und zu verstehen“, erläutert CEO Jochen Freese. „Dadurch sind die Unternehmen in der Lage, Inhalte nicht mehr nur nach Bauchgefühl zu erstellen, sondern auf Basis von datenbasiertem Wissen. Die meisten Companies haben verstanden, dass Relevanz im Netz wichtig ist und ihre Kommunikation glaubwürdig und verantwortungsvoll sein muss.“ Nachhaltige Reputationsbildung könne durch einen kontinuierlichen und verantwortungsvollen Austausch mit der Öffentlichkeit gelingen. Darauf achtet auch die Finanzbranche, etwa Mark Miller, Managing Partner bei der Investmentbank Carlsquare, die als M&A-Berater Firmen und ihre Gesellschafter bei strategischen Kapitalmaßnahmen betreut. 2021 hat sie einige E-Commerce-Unternehmen mit Social-Media-Bezug und die Übernahme der Social-Intelligence-Firma Ubermetrics durch Unicepta begleitet. „Der Erfolg vieler Unternehmen beruht auf ihrem verantwortungsvollen Umgang mit Social Media. Investoren schauen bei ihren Engagements heutzutage sehr genau auf die Resilienz der Unternehmen. Weiß eine Firma jederzeit, was in den sozialen Medien berichtet und geteilt wird, stärkt das ihre Wettbewerbsfähigkeit und Widerstandsfähigkeit“, erklärt Miller. Unternehmerische Verantwortung beinhaltet laut dem Experten mittlerweile, vor allem soziale Medien für die Kundenansprache, für das eigene Renommee und als Frühwarnsystem zu nutzen.
„Das Netz bietet viele Möglichkeiten, sich zu äußern, aber die Hemmschwelle ist niedrig. Dadurch kommt auch Hass zu Wort, der in körperliche Gewalt münden kann. Social Media braucht demokratische Kontrolle, sonst ist sie jedenfalls nicht sozial“, resümiert Aycha Riffi.