In einer Zeit, in der Aufmerksamkeit wichtiger ist als Inhalt, Kapitalisierung vor Information steht, ist die Frage nach der gesellschaftlichen Verantwortung der Digitalkonzerne relevant.
Von Tong-Jin Smith
Sie sind aus unserem Alltag nicht mehr wegzudenken: Digitalkonzerne. Einkäufe aller Art erledigen wir online bei Amazon, Ebay oder Alibaba. Wer sich zu einem Thema eingehend informieren will, googelt – das Verb macht schon deutlich, wie präsent das Unternehmen dahinter in unserem Alltag ist.
Nachrichten kommen über Apps zu uns, die wir aus dem Store von Apple oder Google herunterladen, oder über soziale Medien wie Facebook und Twitter, wo wir völlig fremde Menschen als Freunde betrachten und das „liken“, was sie uns zeigen. Auch unsere persönliche Kommunikation ist fest in den Händen von Google und Microsoft, denn kaum eine Email, die nicht via Gmail oder Outlook verschickt, oder ein Dokument, dass nicht mit Google Docs oder Word erstellt wird. Und wer fremd in einer Stadt ist, verlässt sich auf Google Maps – auch wenn es dafür Alternativen gibt.
Ein Leben und Arbeiten ohne die „fürchterlichen Fünf“, wie New York Times Kolumnist Farhad Manjoo Amazon, Apple, Facebook, Alphabet (das Mutterunternehmen von Google) und Microsoft nennt, ist heute kaum denkbar – und das weltweit. Wir betrachten sie als öffentliche Infrastruktur und machen sie zu Monopolisten in ihren jeweiligen Gebieten. So nimmt es nicht Wunder, dass diese fünf amerikanischen Techgiganten weltweit zu den wertvollsten Konzernen zählen.
Ihre globale Dominanz beruht allerdings nicht auf der Erfindung eines genialen Produkts, sondern auf der Bereitstellung einer Transaktionsplattform und dem damit verbundenen klugen Einsatz von Algorithmen und der Auswertung von Daten – unseren Daten. Letztere dienen nicht zuletzt dazu, uns genau das zu zeigen, was wir suchen. Egal, ob es sich um ein Paar Wanderschuhe handelt oder um aktuelle Nachrichten. Das macht diese digitalen Intermediäre zu unseren persönlichen Kuratoren und Agenda-Settern. Sie bestimmen, was wir online sehen, welche Produkte wir kaufen, worüber wir nachdenken und wie wir politisch handeln.
Gefahren der Personalisierung
Für Psychometriker Michal Kosinski steht fest, dass insbesondere unsere Smartphones einem detaillierten psychologischen Dauerfragebogen ähneln, den wir bewusst oder unbewusst konstant ausfüllen. Auf der Basis der so ermittelten Daten – etwa unseren Likes auf Facebook, Retweets auf Twitter, der Anzahl unserer Kontakte oder Profilbilder – sei es möglich, psychologische Profile von jedem einzelnen Nutzer zu erstellen und ihm oder ihr passgenaue Informationsangebote zu unterbreiten.
Umgekehrt sei es möglich, Menschen mit ähnlichen psychologischen Profilen, Interessen oder politischen Einstellungen entsprechend ihrer Vorlieben, Ängste oder Weltanschauungen gezielt zu manipulieren, so Kosinski. Diese Erkenntnis hat den Forscher schon lange vor Bekanntwerden der psychometrischen Einflussnahme auf amerikanische Wählerinnen und Wähler während des Präsidentschaftswahlkampfs 2016 dazu veranlasst, Warnungen auszusprechen. Aber ernst genommen hat man ihn nicht. Und so konnte Cambridge Analytica ungehindert Daten von amerikanischen Facebook-Nutzern kaufen, auswerten und dann gezielt bezahlte Posts in der Timeline von spezifischen Wählergruppen veröffentlichen, um etwa gegen Hillary Clinton zu mobilisieren.
Der Fall „Cambridge Analytica“ ist nun Teil der Zeitgeschichte und das Datenanalyse-Unternehmen insolvent. Facebook hat seinen Algorithmus geändert und betont heute wieder seine gesellschaftliche Mission. Miranda Sissions, Menschenrechtsaktivistin und seit Juli 2019 bei Facebook als Director of Human Rights, ist sich aber bewusst, dass weiterhin Hass und Fake News aus der digitalen in die reale Welt überschwappen. Sei es in Myanmar, Sri Lanka, den Philippinen, Indien oder Brasilien, wo Minderheiten aufgrund von Social Media Kampagnen verstärkt marginalisiert und verfolgt werden. Oder auch in Europa, wo rechtsextreme und rassistische Gruppierungen wie die Identitäre Bewegung soziale Medien nutzen, um vor allem junge Menschen ideologisch zu beeinflussen und Hass gegen „die Anderen“ zu schüren.
Desinformationsindustrie als Wachstumsbranche
Facebook ist sich seiner Rolle in der Verbreitung von Desinformation durchaus bewusst, agiert aber für Kritiker trotz ausreichender Ressourcen zu langsam und teilweise kontraproduktiv. „Wir haben aber nicht den Luxus, das Problem nur in Demokratien zu konfrontieren, sondern überall dort, wo die Plattform genutzt wird“, betont Sissions auf einer Podiumsdiskussion. „In den vergangen zwei Jahren hat und musste Facebook sich in der Mis- und Desinformationswelt anstrengen.“ Die Herausforderung bestehe allerdings darin, Probleme auf lokaler Ebene möglichst schnell zu identifizieren und die Verbreitung von entsprechenden Inhalten zu verlangsamen bzw. zu stoppen und Akteure von der Plattform zu entfernen, die den Betreibern fast immer einen Schritt voraus seien.
Auch wenn das gelingt, hindert es andere Akteure nicht daran, Desinformation für ihre Zwecke über soziale Medien zu streuen, wie Sebastian Bay, Experte bei NATO StratCom, bei der gleichen Podiumsdiskussion bestätigt. Für ihn liegt die Herausforderung im Kampf gegen Desinformation und Metamanipulation darin, die globalen Netzwerke dahinter zu durchschauen und zu bekämpfen: „Wir sehen, dass bestimmte Länder sich darauf spezialisieren, Software für Social Media Manipulationen zu entwickeln. Wir sehen, dass andere Länder sich auf die Erstellung von Content spezialisieren und eine dritte Gruppe von Ländern sich auf Crowdsourcing oder Crowdfunding für Social Media Manipulationen spezialisieren. Und wir sehen, wie das alles zusammenkommt. Gerade vor zwei Tagen habe ich mit einem nigerianischen Anbieter experimentiert. Indem ich Social Media Manipulationen gekauft habe, konnte ich sehen, dass er russische Software benutzt, um diese Manipulation zu liefern, und dafür höchst wahrscheinlich die Content-Erstellung in Südost-Asien in Auftrag gibt.“
Die Desinformationsindustrie sei eine Wachstumsbranche, so Bay. In Europa könne man die Akteure sogar sehr einfach identifizieren, weil sie ganz normale, eingetragene Firmen seien, die ihre Dienste jedem anbieten. „Viele verdoppeln jährlich ihre Profite und Umsätze. Das Problem ist, dass dieser Service so billig ist und für jeden so einfach zugänglich“, sagt Bay. Obwohl viele dieser Firmen ganz offen agieren, müssen sie keine Konsequenzen befürchten. Daher begrüße er Schritte wie die Ankündigung von WhatsApp (Teil von Facebook), jeden zu verklagen, der die Plattform unterminiert. Das reiche aber bei weitem nicht, so der Kommunikationsexperte, und fragt, ob Plattformen wie Facebook überhaupt mit solchen Firmen arbeiten müssen. Kritiker wie Roger McNamee fordern ja schon lange, dass Techunternehmen Grenzen gesetzt werden und die Aufmerksamkeit der User von den Gewinnen der Konzerne entkoppelt werden. Gebühren statt Werbung.
Mehr als Algorithmentransparenz
Alexander Sängerlaub, der bei der Stiftung Neue Verantwortung das Projekt „Stärkung digitaler Öffentlichkeit“ leitet, setzt hingegen auf der Dateneben an: „Was Plattformen machen, ist eine Form des Kuratierens. In ihre Algorithmen ist reinprogrammiert, dass uns in erster Linie Dinge gezeigt werden, die emotionalisieren, polarisieren etc.. Um Wahrheit geht es hier ja nicht. Dabei sollten Qualität und Faktizität Teil der Algorithmen sein.“ Eine Algorithmentransparenz, wie im neuen Medienstaatsvertrag gefordert, sei hingegen nicht zielführend, weil damit nicht garantiert werde, dass Fakten und Wahrheit vor Sensation und Ablenkung platziert werden. „Das ist so wie AGBs. Die liest man doch auch nicht“, so Sängerlaub und kritisiert in diesem Zusammenhang das Beschwerdeverfahren, das im Netzwerkdurchsetzungsgesetz (NetzDG) verankert ist. „Wer bei Facebook missbräuchliche Inhalte oder Spam melden will, hat Schwierigkeiten den Meldebutton dafür zu finden.“ Und seine Kollegin Anna-Katharina Meßmer ergänzt, dass die Abbruchrate für Beschwerden bei Twitter extrem hoch sei, weil man den genauen Paragraphen zitieren müsse, gegen den man einen Verstoß meldet. Das sei für juristische Laien abschreckend.
Zudem weist sie darauf hin, dass soziale Medien unser Leben grundsätzlich ordnen. „Sie sind der Ort, an dem wir unsere Selbstdarstellung organisieren. Somit prägt die Ästhetik von Plattformen mit ihren Filtern und Bildformaten die Ästhetik in der realen Welt.“ Youtube, Instagram, Snapchat, TikTok & Co. tragen also entscheidend dazu bei, wie wir uns und andere wahrnehmen, welche Erwartungen und Normen wir erfüllen sollen. Da die Plattformen Bildformate, Filter und Bearbeitungstools vorgeben, tragen sie eine enorme Verantwortung – insbesondere für das Selbst- und Fremdbild von Jugendlichen. Das belegen zahlreiche Studien. „Warnbuttons oder Texthinweise, dass ein Bild bearbeitet wurde, helfen nicht“ so Meßmer. „Die Bildwahrnehmung findet auf einer anderen Ebene statt als die Textwahrnehmung.“
Den Plattformbetreibern fehle hier ein Verständnis für ihre gesellschaftsformende Rolle. Jahrelang haben sie sich hinter der Aussage versteckt, dass sie nur die Plattform liefern. Was darauf passiere, sei Sache der Nutzerinnen und Nutzer. „Plattformen produzieren im Gegensatz zu journalistischen Medien keine Inhalte, sie verbreiten lediglich Informationen von Dritten – auch journalistische,“ sagt Kommunikationswissenschaftler Christoph Neuberger. „Entsprechend folgen sie einer anderen Logik.“ Während journalistische Medien eine Information erst überprüfen, bevor sie veröffentlicht wird, kontrollieren soziale Medien erst nach der Publikation. Und das nur, weil gesellschaftlich und politisch Druck auf sie ausgeübt wird.
Konkurrenz für den Journalismus
Problematisch seien Plattformen für den Journalismus aber, weil sie einerseits auf dem Werbemarkt eine Konkurrenz sind, andererseits weil sie als Vertriebskanal nur Snipets zulassen. „Das Bewusstsein für Journalismus und journalistische Marken geht verloren,“ so Neuberger. „Denn auf Plattformen stehen journalistische Inhalte content-neutral neben Fake News und anderen Inhalten. Was was ist, ist oft unklar oder wird nicht wahrgenommen.“ Aber er könne die Medien nicht ganz freisprechen. Sie seien Teil des Problems, weil sie lange zu naive im Umgang mit den Plattformen gewesen seien.
Entsprechend konstatiert Emily Bell, Leiterin des Tow Center for Digital Journalism an der Columbia University, dass es wohl kaum noch eine freie Presse gibt. Und wenn doch, seien Journalisten nicht mehr dafür verantwortlich. „Ingenieure, die selten über Journalismus oder kulturellen Einfluss oder demokratische Verantwortung nachdenken, treffen jeden Tag Entscheidungen darüber, wie Nachrichten kreiert und vertrieben werden.“ Journalistische Medien hätten nicht verstanden, was sie verlieren. Und Silicon Valley habe nicht verstanden, was es hervorgebracht hat. „Indem diese unglaublich einfach zu bedienenden Tools entwickelt wurden, indem die Welt dazu ermuntert wurde, zu publizieren, haben die Plattformtechnologien heute eine gesellschaftliche Rolle und Verantwortung, die weit über ihre ursprüngliche Absicht hinausgeht.“ Da kann man nur Spiderman zitieren: „Mit großer Macht kommt große Verantwortung.“
Dr. Tong-Jin Smith
ist Hochschuldozentin und freie Journalistin. Sie lebt mit ihrer Familie in Berlin.
„Algorithmen und die Gier nach Aufmerksamkeit“ von Tong-Jin Smith ist erschienen im CSR MAGAZIN Nr. 34. Der Text ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.