Big Data und die Datafizierung der Welt

Ethische Grundprobleme im Umgang mit großen Datenmengen

Von Klaus Wiegerling

Die moderne Informatik entstand aus einer Zusammenführung mathematischer und ingenieurswissenschaftlicher Interessen, was sich im Namen der Disziplin artikuliert, der sowohl den Zusammenhang von Information und Mathematik als auch von Information und Automation zum Ausdruck bringt. Von ihren Anfängen an ist sie durch vier Charakteristika gekennzeichnet:

a) Datafizierung
b) Digitalisierung
c) Formalisierung
d) Automatisierung

Datafizierung meint, dass die physikalische Außen-, die soziale Mit- und die psychische Innenwelt in Symbole bzw. berechenbare Zahlenwerte übertragen werden können, was zum Teil über sensorische Erfassungsapparaturen geschieht.

Digitalisierung meint, dass alle im Computer verfügbaren Daten miteinander verknüpft bzw. Datensätze durch Berechnungsvorgänge einer Analyse unterzogen werden können. Digitalisierung bedeutet der kalkulierende Umgang mit Daten.

Formalisierung meint, dass alle Weltverhältnisse auf eine formale Ebene übertragen werden können und dort zum Zwecke des Verstehens oder der Steuerung dieser Verhältnisse einem Kalkül unterworfen werden. Der informatische Informationsbegriff ist ein inhaltlich unbestimmter statistischer Begriff. Inhalte spielen nur vor dem Input und nach dem Output, nicht in der ‚Black Box‘ des Rechners, in der die Berechnungen stattfinden, eine Rolle.

Automatisierung meint, dass informatische Systeme den Menschen in allen Bereichen des Lebens entlasten und ihm neue Handlungsmöglichkeiten gewähren können. Arbeits- und Organisationsprozesse sollen erleichtert und verbessert werden. Aus der Automatisierung erwächst die Idee einer autonomen Technik, die uns ohne ausdrückliche Bedienung begleitet.

Big Data: Vision, Einbettung und Genese

Moderne Big-Data-Technologien basieren auf unterschiedlichen informatischen Ideen. Diese werden z.B. unter Begriffen wie Ubiquitous Computing oder AmbientIntelligence diskutiert. Die Idee des Ubiquitous Computing wurde 1991 von Mark Weiser eingeführt. Er bediente sich eines Konzeptes der mittelalterlichen Metaphysik. Der lateinische Begriff ‚ubiquitas‘ (Allgegenwärtigkeit) ist ein Attribut Gottes, der allein überall und gleichzeitig wirken kann. Das Konzept wurde mit perspektivischen Verschiebungen auch unter anderen Schlagworten (Pervasive Computing, Internet der Dinge) diskutiert. Es betont, dass die gesamte Mesosphäre [1] eine informatische Ausstattung erfahren soll, die uns jederzeit dienstfertig zur Verfügung steht. ‚AmbientIntelligence‘ betont die Vertraulichkeit von Informationen; der englische Begriff ‚intelligence‘ wird auch im Kontext geheimer, vertraulicher Tätigkeiten gebraucht: nicht jedes Datum steht jedem zur Verfügung.

Die unter Weisers Idee gefassten Konzepte zeichnen sich durch folgende Merkmale aus: weitgehendes Verschwinden von Hardwarekomponenten und der Mensch-System-Schnittstelle; Adaptivität und Smartness; Selbstorganisiertheit und Kontextwahrnehmung; informatische Aufladung der Mesosphäre; ubiquitäre Nutzbarkeit sowie die handlungsrelevante Verknüpfung lokaler und globaler Informationen.

Big Data erweitert die Idee der ubiquitären Nutzung von Systemtechnologien dahingehend, dass mit einem ständig wachsenden Datenmeer in einer Weise umgegangen werden soll, dass neue Welterkenntnisse in automatisierten Verfahren generiert werden – etwa wenn in der Medizin neue Relationen von Vitaldaten erkannt werden. Mit Big Data wird sowohl ein Erkenntnisanspruch als auch ein pragmatischer Anspruch verbunden. Letzterer artikuliert sich z.B. in der Idee eines maschinellen Lernens, das selbständig Probleme zu lösen vermag.

Mit Hilfe von Big-Data-Algorithmen soll eine datengetriebene Wissenschaft etabliert werden, die sogar die Kulturwissenschaften auf eine neue Exaktheits- und Präzisionsebene hievt, und neue Objektivitätsansprüche bis hin zur Idee einer automatisierten Wissenschaft erhebt, die sich subjektiver Ingredienzen menschlicher Akteure entledigt. Die Idee eines maschinellen Lernens, das auf dem Konzept neuronaler Netze aus den 1980er Jahren basiert, treibt die Vision einer automatisierten Wissenschaft an.

Schauen wir auf Probleme bei der Analyse und Nutzung großer Datenmengen, die v.a. aufgrund von Geltungsansprüchen zu ethischen Konflikten führen können.

Artikulation vs. Desartikulation

Mit Big Data ist eine ‚Massenideologie‘ verbunden, die daraus resultiert, dass man glaubt a) Daten wie einen unbehandelten Rohstoff behandeln und b) mit mehr Daten zwangsläufig zu präziseren Ergebnissen und letztlich einem digitalen Double wirklicher Verhältnisse gelangen zu können.

In den 1990er Jahren wurde die Rede von der Informationsgesellschaft durch die von der Wissensgesellschaft abgelöst. Während man erstere als eine Gesellschaft des Sammelns von Informationen als bewertete Daten sah, verstand man unter Wissensgesellschaft eine Gesellschaft, die Informationen zum Zweck der Anwendung des Wissens hierarchisiert und relationiert. Die aktuelle Rede von der Datengesellschaft unterbietet die von der Informationsgesellschaft, insofern es jetzt um das Sammeln unbewerteter Daten geht. Diese Rede gründet jedoch in einem Missverständnis. Daten sind Ergebnis eines Sammelprozesses, der gerahmt ist, zum einen durch die Intention der Datensammler, zum anderen durch die daran ausgerichtete Sensorik. Überall wo Daten erhoben werden, findet ein Selektionsprozess statt. Daten werden als relevant innerhalb eines Erfassungsbereichs gesammelt und artikuliert oder als irrelevant desartikuliert. Wie bei einem Richtmikrofon werden Störgeräusche quasi herausgefiltert. Wenn ein Unternehmen Datensätze, die für seine Zwecke nicht mehr nutzbar sind, veräußert, kauft das daran interessierte Unternehmen keinen Kessel Buntes, sondern Daten, deren Rahmung für es von Interesse ist. Der Wert einer Datensammlung ergibt sich aus der Sammelintention und der damit verbundenen Rahmung.

In allen Datenerfassungsprozessen spielt die Artikulation und Desartikulation von Daten eine entscheidende Rolle, was auch für Erkenntnisprozesse gilt. Erkenntnis ist Ausdruck von Artikulationen und Desartikulationen. Deshalb ist es auch falsch anzunehmen, dass ein ‚mehr‘ an Daten automatisch zu besseren Einsichten oder gar zu einem Double der Weltverhältnisse führt. Man kann die Welt nicht verdoppeln, sie ist sowohl im Mikrobereich als auch im Makrobereich unendlich differenzier- bzw. relationierbar. Jeder Zugriff auf Daten ist ein perspektivischer. Sammelprozess wie Erkenntnis sind an Intentionen gebunden. Die Bewertung von Sachverhalten und die damit einhergehende Einrichtung der Datenerfassungssysteme gehen jedem Sammelprozess voraus.

Widerständigkeitsverlust

Das grundlegendste Problem ergibt sich aus dem Versuch große Datenmengen zu nutzen um uns mit Hilfe ihrer permanenten Analyse und selbständig agierender Systeme von der Widerständigkeit der Welt zu befreien. Fortgeschrittene Informationstechnologien sollen uns quasi in ein Schlaraffenland führen, in dem uns die gebratenen Tauben zum Mund fliegen.

Wirklichkeit ist an die Erfahrung von Widerständigkeit gebunden, die unserem Form- bzw. Konstruktionswillen widerstreitet und auch keinem Kalkül unterworfen werden kann. Dilthey brachte den im 17. Jahrhundert beginnenden Widerständigkeitsdiskurs auf den Punkt als er Wirklichkeit als Widerstand gegen unseren Formwillen fasste. Der Diskurs, der v.a. am Übergang vom 19. auf das 20. Jh. über die Frage nach der Wirklichkeit der Außenwelt geführt wurde, kann jedoch nicht auf eine physikalische bzw. physiologische Dimensionen beschränkt werden, sondern muss auch soziale, psychologische oder ideelle bzw. logische Dimensionen einschließen. Soziale Widerständigkeit artikuliert sich z.B. in Institutionen, psychische in Handlungsblockaden und ideelle oder logische in axiomatischen Bedingungen, gegen die man nicht verstoßen kann, ohne die Theorie selbst ad absurdum zu führen.

Mit dem Widerstandsverlust geht ein Wirklichkeitsverlust einher. Wenn Technologien uns die Widerständigkeit einer Sache nicht mehr wahrnehmen lassen, können wir sie auch nicht mehr kontrollieren. War die gut sitzende Brille, die ich als Medium nicht mehr spüre, das Ideal einer integrierten Technik, so ist dieses Ideal im Zeitalter der informatischen Durchdringung der Welt zum Problem geworden. Wenn Technologie uns die Widerstandserfahrung nimmt, werden der Manipulation Tür und Tor geöffnet.

Der Glaube, dass aufgrund der Verarbeitung großer Datenmengen zuletzt auch das Ereignishafte und Singuläre, also das Historische, vorhersagbar wird, ist ein Missverständnis. Jede wissenschaftliche Analyse führt nur zu einer Typologie, nicht zum Singulären oder Ereignishaften.

Wir können auch nur mit endlich vielen Daten rechnen. Sachverhalte sind aber in unendlich vielen Perspektiven und Relationen fassbar. Wir kommen nie zur Sache an sich. Diese lässt sich nie vollständig in einem Kalkül erfassen. Was einem Kalkül unterworfen werden kann, ist, was aus einem perspektivischen Zugriff auf die Sache an Daten geliefert wird. Der Zugriff aber ist Ergebnis einer vorgängigen Bewertung der Sache.

Transformation der Wissenschaft

Werfen wir einen Blick auf die Auswirkungen von Big-Data-Technologien auf die Entwicklung von Wissenschaften. Es gibt eine Tendenz Wissenschaft als datengetriebene Tätigkeit zu etablieren. Man glaubt so die chronische Unschärfe der Geisteswissenschaft beseitigen und sie als ‚Digital Humanities‘ in eine ‚exakte‘ Wissenschaft transformieren zu können, deren Ergebnisse ähnlich wie in den Naturwissenschaften nachvollzogen werden können. Die Idee der Datengetriebenheit impliziert noch eine weitere Intention: Wissenschaft soll im Sinne einer automatisierten Wissensgenerierung betreiben werden, die Ergebnisse liefert, die von subjektiven Einsprengseln gereinigt sind. Vergessen wird dabei, dass sich Daten aus perspektivischen Zugriffen zu einem bestimmten Raum- und Zeitpunkt auf die Welt ergeben.

Für die aufgrund von Quelleninterpretationen zu ihren Ergebnissen gelangenden Geisteswissenschaften gilt freilich, dass man mit Hilfe von große Datenmassen verarbeitenden Informationssystemen die Quellenrezeption verbessern kann, etwa indem man Wortschatzanalysen macht oder Textabgleiche vornimmt. Das Ergebnis kommt aber letztlich durch die auslegende Positionierung des Wissenschaftlers zustande. Er muss die Relevanz der Quelle für seine Zeit nachweisen und seine eigene Position v.a. gegenüber seinen Fachkollegen begründen. Dies tut er mit den genutzten Quellen aufgrund einer bestimmten Bewertung, also Hierarchisierung und Relationierung von Daten. Wie aber sollen wir uns eine historische Positionierung einer Systemtechnologie vorstellen, wie ihr Selbstverständnis als historische Entität? Es gibt in der ‚Sozialen Robotik‘ Überlegungen robotische Systeme mit einer eigenen Geschichte auszustatten, indem das an einem bestimmten Ort und zu einer bestimmten Zeit Daten erfassende und interagierende System seine spezifischen ‚Erfahrungen‘ in abrufbarer Weise speichert. Das ‚individualistisch‘ konzipierte System wäre dann zwar an bestimmte Handlungssituationen und Handlungspartner adaptiert, seine Ergebnisse und Aktionen wären dann aber nicht mehr so angelegt, dass sie das Situative auf ein Allgemeines transzendieren. Allgemeingültige Befunde würden nicht mehr notwendigerweise geliefert werden. Dies mag in Alltagssituationen nützlich sein, nicht aber brauchbar in wissenschaftlichen Kontexten oder Krisen.

Die Idee einer automatisierten Wissenschaft konterkariert, was Wissenschaft auszeichnet, nämlich die ständige Kritik an bestehenden Ergebnissen. Zum einen fehlt bei einer automatisierten Wissensgenerierung der Adressat der Kritik, zum anderen ist schwer vorstellbar, wie das Ergebnis eines Systems durch ein anderes System kritisiert und bewertet werden soll. Jede Bewertung setzt voraus, dass der Bewertende eigene Intentionen artikuliert und verfolgt. Wie aber soll ein System, das unser Werkzeug ist, zu einer eigenen Intention gelangen? Und wenn es diese Intention verfolgte, wie könnte es zu einer historischen und kritischen Einschätzung von Befunden gelangen? Und warum sollte es uns nicht die Unterstützung versagen, wenn die eigenen Intentionen mit den unsrigen nicht übereinstimmen?

Entlastung vs. Entmündigung

Überlastung ist eine Grundbefindlichkeit in einer hochkomplexen modernen Informationsgesellschaft. Wie Suchmaschinen uns die schnelle Nutzung des Datenmeers Internet ermöglichen, so sollen uns Big-Data-Technologien im beruflichen und privaten Alltag schnelle Unterstützung gewähren.

Der Entlastung korrespondiert ein Entmündigungspotential. Moderne IuK-Technologien lassen sich zum einen als Schlaraffenlandtechnologien beschreiben. Die ganze Welt soll smart und problemlos handhabbar werden, soll sich unseren Wünschen adaptieren und alles zu unserem Besten regeln. Wünsche sollen mit anderen bzw. allgemeinen Interessen einmoderiert werden und zwar möglichst so, dass wir davon nichts merken.

Zum anderen lassen sich fortgeschrittene IuK-Technologien als Zauberlehrlingstechnologien beschreiben, die sich unserer Kontrolle entziehen. Eine Technologie, die selbständig für uns Dinge erledigen soll, kann schon deshalb nicht mehr vollkommen kontrolliert werden, weil eine totale Kontrolle die Entlastungsfunktion konterkarieren würde. So entlasten uns moderne Systemtechnologien, nehmen uns zugleich aber auch Entscheidungen ab, womit sie zumindest potentiell unsere Autonomie gefährden. Zwar laufen nicht alle Entlastungsformen, wie im Falle eines ABS-Systems, unseren Intentionen zuwider, es gibt aber welche, die Entmündigungen gleichkommen, wenn sie dazu beitragen, dass wir unser Leben nicht mehr führen. Exemplarisch lässt sich dies an Pflegesystemen zeigen, die eine Möglichkeit des Ausstiegs aus der Systemunterstützung nicht mehr anzeigen – mit der Begründung, dass dies für Nutznießer, Pflegekräfte, Angehörige und die Gesellschaft so am besten sei.

Entethisierung und technische Autonomie

Die Idee technischer Autonomie widerstreitet der Autonomie des Nutzers. Von echter Autonomie zu sprechen verbietet sich hier schon deshalb, weil sie keine eigenen Intentionen verfolgt. Würde sie das tun, wäre sie nicht unser Werkzeug. Ein System trifft im eigentlichen Sinne auch keine Entscheidung, weil es im Sinne Peter Janichs weder Folgenverantwortlichkeit noch Zwecksetzungsautonomie kennt. Ein System rechnet und ‚entscheidet‘ sich für das Richtige oder Wahrscheinliche. Von Systementscheidung bei Scoringverfahren lässt sich nur sprechen, insofern wir die ‚Entscheidung‘, die aus einem Rechenergebnis erfolgt, als solche anerkennen. Die Gründe für die Entscheidung liegen aber bei denen, die das System einrichten oder nutzen. Prinzipiell lässt sich sagen, dass je größer die ‚Autonomie‘ einer Systemtechnologie ist, desto mehr Einbußen unsere eigene Autonomie erleidet. Wenn aber Verantwortlichkeit des Handlungssubjekts, Bestimmung der Wirklichkeit, in der gehandelt werden soll, und Wahl die Voraussetzung für einen ethischen Diskurs sind, so zeigt sich, dass technische Autonomie zu ethischen Konflikten führen kann, wenn sie uns ethische Probleme nicht erkennen lässt, sie umschifft oder verbirgt.

Wandel des menschlichen Selbstverständnisses

So kann es infolge der Nutzung auf Big-Data-Algorithmen beruhender, vermeintlich autonom agierender Systemtechnologien zu Verschiebungen des menschlichen bzw. gesellschaftlichen Selbstverständnisses kommen. Wenn der Mensch nur noch als Datensatz gesehen wird, der in ein digitales Double gebannt werden kann, wird er zur berechenbaren Größe. Dass ein Datendouble unerreichbar bleibt, gründet in der Widerständigkeit und damit Wirklichkeit unserer Existenz, die sich einem Kalkül entzieht. Unser Menschenbild, das auf der antiken Logostradition, der christlichen Tradition der Gottesebenbildlichkeit und der Tradition der Aufklärung basiert, artikuliert sich v.a. in drei Momenten: der Würde als Ausdruck der unverhandelbaren Einzigartigkeit des Individuums, der Autonomie als Ausdruck der Fähigkeit die Dinge des eigenen Lebens zu entscheiden und es selbständig zu führen, und schließlich die auf die Gesellschaft verweisende Subsidiaritätsidee als Ausdruck einer Absicherung gegenüber gesellschaftlicher Bevormundung einerseits und eines Beteiligungsgebots andererseits.

Das Selbstverständnis wandelt sich dahingehend, dass sich der Mensch zunehmend als eine berechenbare Entität begreift. Mediziner beklagen, dass Patienten immer öfter eine instantane Gesundung erwarten. Der Arzt soll medikamentös oder durch minimalinvasive Eingriffe den Schalter umlegen und so Gesundheit wieder herstellen. Sogar in seiner historischen Kontingenz glaubt man den Menschen zum berechenbaren Objekt machen, also vollkommen versachlichen zu können. Die Rede einer auf Comte zurückgehenden ‚social physics‘ illustriert diese Tendenz. Gesellschaftliche Verhältnisse geraten unter die Walze eines ‚social engineerings‘, das Gesellschaft als gestalt- und steuerbare Masse begreift. Systemvorgaben werden als überlegener Vernunftausdruck gesehen. Infolge der zunehmenden Aufrüstung der Menschen mit intelligenten Implantaten und Prothesen begibt man sich auf den Weg ihn nicht nur physiologisch einem Kalkül zu unterwerfen. Die vom Menschen hervorgebrachten Artefakte scheinen ihn überflügelt zu haben. Das sich im Wandel befindliche Menschenbild hat Auswirkungen auf unseren Alltag, etwa wenn Krankheit als Präventionsversäumnis mit Schuld gekoppelt oder eigene Willensentscheidungen als gesellschaftliche Störgrößen wahrgenommen werden.

Maßstäbe der Beurteilung

Die Maßstäbe einer ethischen Beurteilung von Big-Data-Technologien sind dieselben, die an alle fortgeschrittenen Informationstechnologien anzulegen sind. Immer geht es dabei um die Frage, ob durch die Nutzung einer Technologie die Bedingungen eines ethischen Diskurses oder die Leitwerte unseres Selbstverständnisses Würde, Autonomie und Subsidiarität gefährdet, in ihrer Realisierung erschwert oder gar verunmöglicht werden.

Zu den Bedingungen des ethischen Diskurses gehört, dass es ein handelndes, also verantwortliches, Zwecke setzendes und zur Mittelwahl befähigtes Wesen gibt. Ein ethischer Diskurs ist nur möglich, wenn die Identität des Handlungssubjekts gewahrt, die Wirklichkeit, in der gehandelt werden soll, bestimmbar und es für das Handlungssubjekt eine zu verantwortende Wahl gibt.

In normativer Hinsicht ist zu fragen, ob die Würde und Autonomie des Handlungssubjekts gefährdet und die Möglichkeit einer subsidiären Gesellschaftsorganisation aufgehoben wird. Würde kann gefährdet sein, wenn der Mensch durch technische Anwendungen nicht mehr in seiner Einzigartigkeit gesehen wird, Autonomie, wenn es zu einem Widerstreit zwischen der Autonomie des Menschen und der von ihm hervorgebrachten Artefakte kommt, und Subsidiarität, wenn menschliches Handeln durch systemische Regelfunktionen und Automatismen ersetzt wird.

 

Fußnoten

[1] Die Mesosphäre ist die Sphäre, in der wir unmittelbar agieren können, ohne mediale Hilfsmittel, ohne Werkzeuge, sozusagen die natürliche Lebenssphäre (die freilich nicht mehr so natürlich ist). Wir können diese Sphäre sinnlich erfassen und in ihr quasi körperlich wirken. Davon unterscheidet man die Makrosphäre, etwa das Gebiet der Astrophysik und die Mikrosphäre, etwa das Gebiet der Atomphysik oder Mikrobiologie, in der man ohne Hilfsmittel weder etwas wahrnehmen, noch in ihr agieren kann. Der Begriff spielt insbesondere in der Anthropologie eine Rolle.

 

Vertiefende und weiterführende Literatur

Wiegerling, Klaus / Nerurkar, Michael / Wadephul, Christian (2020) (Hrsg.): Datafizierung und Big Data: Ethische, anthropologische und wissenschaftstheoretische Perspektiven, Springer VS Wiesbaden.

Wiegerling, K.: Umfassende IT-Systeme. In: Heesen, J.: Informations- und Medienethik, (Metzler) Stuttgart/Weimar 2016. S. 217-226.

Ders.: Daten, Informationen, Wissen. In: Rechtshandbuch Legal Tech (Hg. Stephan Breidenbach/ Florian Glatz). München. CH Beck 2018, S. 20-25.

Ders.: Ethische und anthropologische Aspekte der Anwendung von Big-Data-Technologien (mit Michael Nerurkar und Christian Wadephul). In: Kolany-Raiser, B./ Heil, R./ Orwat, C./ Hoeren, Th.: Big Data und Gesellschaft. Eine multidisziplinäre Annäherung. Wiesbaden (Springer) 2018. S. 1- 74.

Ders.: Wissenschaft (mit Michael Nerurkar und Christian Wadephul). In: Kolany-Raiser, B./ Heil, R./ Orwat, C./ Hoeren, Th. (Hg.): Big Data – Gesellschaftliche Herausforderungen und rechtliche Lösungen. (C.H.Beck) München 2019. S. 401-449.

Ders.: Ethische Fragen zu Big Data und Datafizierung in der Medizin. In: Manzeschke, A./ Niederlag, W.:Ethische Perspektiven auf Medizin- und Informationstechnik. Berlin 2020 (de Gruyter).

 

Prof. Dr. Klaus Wiegerling
war bis Ende 2019 am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT Karlsruhe tätig, seit 2020 in Pension. Er lehrt an der TU Kaiserslautern, der TU Darmstadt und der HDM Stuttgart.
E-Mail: wiegerlingklaus@aol.com

 

 

Creative Commons Lizenzvertrag
Dieser Text ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz

Der Text ist zuerst erschienen im „Kompendium Digitale Transformation„.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert