Aus „Big Data, Smart Data, next?“: Big Data und digitale Ethik – Gibt es noch Geheimnisse und Privatsphäre?

Von Smart Data Begleitforschung Vor 3 Wochen1 Kommentar
Home  /  Allgemein  /  Aus „Big Data, Smart Data, next?“: Big Data und digitale Ethik – Gibt es noch Geheimnisse und Privatsphäre?

Prof. Dr. Peter Dabrock, Deutscher Ethikrat © Wolfgang Borrs

 

Von Prof. Dr. Peter Dabrock.

In meiner Position als Vorsitzender des Ethikrates bemühe ich mich, ethische Ansätze so allgemein zu formulieren, dass sie zur Förderung des öffentlichen Vernunftgebrauchs beitragen. Es ist nicht mein Verständnis von Ethik, generell vorzuschreiben, in welche Richtung wir zu gehen haben. Die erste Aufgabe der Ethik sollte die Distanznahme gegenüber moralischer Verstärkung von individuellen oder gesellschaftlichen Entscheidungen sein. Im Hinblick auf die Frage, wie wir in der digitalen Gesellschaft leben werden, sehen wir eine Menge an aufkommenden Fragen, die  gesellschaftlicher und verantwortungsethischer Natur sind: Geht uns die Arbeit aus? Können wir Freiheit und Kreativität wahren? Wie werden Liebe, Fürsorge und Solidarität unter der  Entgrenzung von Raum und Zeit neu definiert? Und mit Blick auf dieses existenzielle Thema: Wie verändert sich unser Verständnis von Gesundheit und Krankheit? Hierbei handelt es sich um typische Sorgenfragen.

Wir können das Ganze aber auch anders „framen“: Wird die Arbeit anders oder besser? Ermöglicht digitales Dasein nicht neue Formen von Selbstbestimmung und  Kreativität? Ist es nicht gut, dass wir Krankheitsrisiken besser erkennen und etwas dagegen tun können? Darüber hinaus wissen wir aus der Sozialforschung, dass es ganz neue Solidaritätsformen gerade durch die Entgrenzung von Raum und Zeit im Digitalzeitalter gibt. Es kommt also wesentlich auf die Rahmung solcher Themen an. Am Ende geht es jedoch immer um Menschenwürde, Menschenrechte, um Selbstbestimmung, Gleichheit und um Gerechtigkeit – und diese normativen Grundlagen werden immer wieder neu herausgefordert, müssen immer neu durchbuchstabiert werden. Unter den Bedingungen von Big Data kann beispielsweise das Axiom unseres Zusammenlebens: „Die Würde des Menschen ist unantastbar“ hinübergesetzt werden in die Formulierung „Die Würde des Menschen ist nicht granularisierbar“. Wir müssen also einen Blick darauf werfen, wo sie jeweils im Sinne einer Granularisierung des einzelnen menschlichen Lebens herausgefordert wird.

Die De- und Re-Kontextualisierung von Daten birgt Chancen wie Risiken

Wie kann dies geschehen? Durch De- und Re-Kontextualisierung von Big Data können  Informationen entstehen, die plötzlich erhebliche Eingriffe in die Privatsphäre darstellen, etwa indem sie eine immense Gesundheitsbedeutung – bisweilen förderlich, bisweilen Menschenwürde-gefährdend – erhalten. Facebook zum Beispiel bietet außerhalb von Europa weltweit ein Tool an, dass mit Hilfe von Mustererkennung Nutzerinnen und Nutzer auf eine Neigung zu Depressionen und gar zu Suizid hinweist. Das ist ein konkretes Beispiel dafür, was unter Big Data in einem existenziellen Bereich durch die De- und Re-Kontextualisierung von Daten, also durch  Mustererkennung, möglich ist und welche Implikationen dies haben kann. Zunächst zeigt das Beispiel: Jedes Datum kann einen hochsensiblen Gesundheitsbezug entwickeln. Dann gilt aber auch: Mustererkennung ist eine Notwendigkeit für die Präzisionsmedizin. Sie würde erheblich von Datenspenden profitieren. Auch wenn damit Fragen von Datenschutz und von Privacy auf dem Spiel stehen, könnte durch eine erhöhte Bereitschaft zur Datenspende die Mustererkennung viel ambitionierter vorangebracht werden.

Auch in anderen Bereichen wird sich die radikal transformative Dynamik von Big Data zeigen: Wir werden auch Arbeit neu erfinden und uns damit auseinandersetzen müssen, wie wir mit einer zunehmenden Flexibilisierung und Automatisierung umgehen und wie wir vor diesem Hintergrund zum Zwecke der Sozialkohäsion und individueller Zufriedenheit auch sozialverträgliche Arbeitsmodelle entwickeln. Ebenso stellt der Bereich des sogenannten „autonomen“ Fahrens eine besondere ethische Herausforderung dar. Wir verbauen die Chancen dieser Entwicklung, wenn wir jetzt schon sämtliche moralische Dilemmata lösen wollen. Man stelle sich vor, man hätte den Menschen am Anfang des zwanzigsten Jahrhunderts gesagt, dass man nun eine Technologie einführt, die in der Zukunft jährlich eineinhalb Millionen Tote fordert – wahrscheinlich wäre das Automobil nie eingeführt worden. Es ist daher unklug, in der ethischen Debatte zum autonomen Fahren den Fokus auf eine überschaubare Anzahl an Dilemmata zu legen, während wir die Zahl der Verkehrstoten möglicherweise signifikant senken können. Stattdessen empfehle ich dringend, uns kulturell – und das hat auch etwas mit Ethik zu tun – an diese Situation zu gewöhnen, so dass wir dann bereit sind, diese wenigen unlösbaren verbleibenden Dilemmata-Situationen zu akzeptieren (nebenbei: sie sind nicht exzeptionell für das autonome Fahren, sondern können auch im traditionellen Autoverkehr auftreten).

Wir brauchen eine verantwortungsvolle Innovationspolitik

Fassen wir über die erwähnten Anwendungen hinaus ein Fazit, ist festzuhalten: Wir haben angesichts von Big Data auch hier in Deutschland eine Verpflichtung, darüber nachzudenken, dass
man sowohl eine Verantwortung für das Tun hat, aber auch dafür, wenn wir gute Dinge unterlassen.  Dazu zählt auch, bestimmte volkswirtschaftliche Strategien nicht zu entwickeln, so dass sich aufgrund dieser Unterlassungen soziale Spannungen verschärfen könnten. Es gibt also eine moralische Verantwortung zur Bereitschaft für eine gewisse Innovationsdynamik – das heißt nicht,dass Innovationsdynamik deswegen nicht verantwortlich sein soll – im Gegenteil. Das Konzept der Responsible Innovation soll genau die Verantwortungssensibilität zum Ausdruck bringen. Den mit diesem Prozess zusammenhängenden Risiken mit einer verantwortlichen Responsible Governance zu begegnen, darf jedoch nicht dazu führen, dass man im gesellschaftlichen Kontext primär das Individuum als verantwortlich adressiert.

Deswegen muss die Ethik von Big Data wesentlich eine Sozialethik sein, bei der es darum geht, Organisationen und Strukturen verantwortlich zu gestalten. Ihr Ziel muss der Schutz, die Stärkung und die Befähigung des Individuums, seiner informationellen Freiheitsgestaltung und seiner Datensouveränität sein. Hierbei stellt sich die Frage, welche Rahmenbedingungen es braucht, damit wir souverän mit unseren Daten umgehen können. Privatheit soll dabei nicht als Abgrenzungsfunktion, sondern als Steuerbarkeit verstanden werden. Das ist das Modell, auf das wir an dieser Stelle setzen sollten. Die Stellungnahme des Deutschen Ethikrats zu Big Data und Gesundheit hat an diesem Themenkomplex ein entsprechendes, auf anderen Anwendungen übertragbares, multidimensionales und multiakteursbezogenes Governance-Konzept zur Sicherung von „Datensouveränität als informationeller Freiheitsgestaltung“ entwickelt.

Wir haben angesichts von Big Data (...) eine Verpflichtung, darüber nachzudenken, dass man sowohl eine Verantwortung für das Tun hat, aber auch dafür, wenn wir gute Dinge unterlassen. - Peter Dabrock #informatik2018 #bigdata… Klick um zu Tweeten
Kategorien:
  Allgemein, Begleitforschung, Big Data Debattenband, Datenanalyse

Artikel teilen

[easy-social-share buttons="twitter,facebook,google,xing,linkedin,flipboard" counters=0 style="icon" url="http://www.smartdata-blog.de/2018/09/26/big-data-und-digitale-ethik-gibt-es-noch-geheimnisse-und-privatsphaere/" text="Aus „Big Data, Smart Data, next?“: Big Data und digitale Ethik – Gibt es noch Geheimnisse und Privatsphäre?"]
Über

 Smart Data Begleitforschung

  (14 Artikel)

Ein Kommentar

Hinterlassen Sie einen Kommentar

Die E-Mail Adresse wird nicht veröffentlicht.