Algorithmen fürs Gemeinwohl

Von Smart Data Begleitforschung Vor 3 MonatenKeine Kommentare
Home  /  Allgemein  /  Algorithmen fürs Gemeinwohl

© vege – fotolia.com

 

Von Dr. Tobias Knobloch.

Projektleiter „Algorithmen fürs Gemeinwohl“ bei der Stiftung Neue Verantwortung (SNV).

Dass die Delegation von Entscheidungen an Maschinen in bestimmten Situationen zu besseren Ergebnissen führt, weiß jeder Autofahrer. Von Zeit zu Zeit fällt immer mal irgendwo eine Ampel aus, so dass Polizisten den Verkehr regeln müssen. Und es ist frappierend, um wie viel schlechter der Verkehr an besagten Kreuzungen fließt – unabhängig davon, welche Personen den Job übernehmen und um welche Straßensituation und Verkehrslage es sich handelt. Immer entsteht bei händischer Verkehrsregelung in irgendeine Richtung ein Kreuzungsstau. Offenbar ist die automatische Lichtzeichenverkehrsregelung dem Menschen also weit überlegen. Analog zu diesem Beispiel lässt sich sagen, dass wir zahlreichen Herausforderungen unserer Zeit nur werden begegnen können, indem wir elaborierte technische Möglichkeiten der Analyse von Daten und des Schlussfolgerns daraus (einschließlich des Vorbereitens und Treffens von Entscheidungen) nutzen.1

Gesellschaftlicher Diskurs zwischen ernsthafter Debatte und Hysterie

Wenn man sich die Debatte zum Themenkomplex Algorithmen und Gesellschaft ganz allgemein ansieht, lassen sich im wesentlichen drei Stränge ausmachen: 1) technische und ökonomische Aspekte; 2) rechtliche und regulatorische Bedingungen; 3) gesellschaftliche und ethische Implikationen. Innerhalb dieser Hauptlinien ist eine bemerkenswerte Vielfalt an zum Teil tief reichenden Forschungsansätzen und Debatten zu verzeichnen. Natürlich sind die oben aufgeführten Stränge darin in vielen Fällen auch verzahnt. Wenn es die Bilderkategorisierung in Google Photos  beispielsweise auch Anfang 2018 nicht vermag, farbige Menschen mit an Sicherheit grenzender Wahrscheinlichkeit von Affen zu unterscheiden, dann muss die entsprechende Funktion kurzerhand außer Betrieb gesetzt werden2 weil der potenzielle Reputationsschaden für Google gewaltig ist. Das hat sowohl gesellschaftliche als auch ökonomische Implikationen, während eine technische Schwierigkeit im Zentrum des Problems steht.

International und hierzulande hat die Debatte um Algorithmen und künstliche Intelligenz fast schon irrational negative Züge. Besonders augenfällig wird diese Prägung durch die deutsche Übersetzung des Buchtitels „Weapons of Math Destruction“ von Cathy ONeill. Sie lautet: „Angriff der Algorithmen“. Diese Titelgebung verkennt nicht nur, dass Algorithmen – jedenfalls bis auf weiteres – nicht vom Himmel fallen, sondern sie suggeriert auch, dass sie eine grundsätzliche Gefahr für die Menschheit darstellen, was in dieser pauschalen Form natürlich Unsinn ist. Es ist nicht abzustreiten, dass es mannigfache Fehlerquellen3 und handfeste Risiken gibt, die sich in beklagenswerter Form leider auch schon realisiert haben. Man denke an Mikrotargeting im Umfeld von Wahlen, an allzu unreflektiert eingesetzte Predictive-Policing-Software, die ohnehin Benachteiligte weiter diskriminiert, an falsch ausgestellte Mahnbescheide, nicht plausible Risiko-Selektionen, unfaire Bewährungsentscheidungen oder aber systematisch im Sozialsystem angelegte, maschinelle Verfestigungen sozialer Disparität.4 All das wollen wir als Gesellschaft nicht als Ergebnis eines vermehrten Technologieeinsatzes sehen, da dürfte Einigkeit bestehen.

Beiträge zur Versachlichung des mitunter geradezu hysterischen Gefahren- und Risiko-Abwehrdiskurses sind bislang eher selten. Mit unserem Projekt “Algorithmen fürs Gemeinwohl”5, das wir bis Mitte 2019 zusammen mit der Bertelsmann Stiftung6 durchführen, möchten wir einen solchen Versachlichungsbeitrag dadurch leisten, dass wir – ausgehend von der Analyse konkreter Fallbeispiele – Designprinzipien für eine gemeinwohldienliche Algorithmengestaltung entwickeln.

Einsatz von Technik für das Erreichen menschlicher Ziele

Tatsächlich kann das Zusammenwirken von Daten und Algorithmen viele Aufgaben, für die Menschen schlussfolgerndes Denken und implizites Können brauchen, fehlerfreier, effizienter und effektiver lösen, darunter zahlreiche Allokationsaufgaben, auch und gerade in der öffentlichen Verwaltung. Bei anderen Herausforderungen, beispielsweise im medizinisch-diagnostischen Bereich, etwa der Krebserkennung und -therapie oder bei der Erkennung und Behandlung seltener Krankheiten, haben sich Computerprogramme als hervorragende Ergänzung menschlichen Wissens und ärztlicher Intuition herausgestellt. Zuletzt gibt es Dinge, die nur Maschinen leisten können, weil unsere kognitiven Kapazitäten bei weitem nicht ausreichen. So ist eine inhaltliche Auswertung und Klassifizierung sämtlicher Forschungsergebnisse, die alleine in der Medizin publiziert werden, nur mit maschineller Unterstützung überhaupt möglich.

Ein Algorithmus knüpft unmittelbar an Zusammenhänge in der physischen Welt an. Um zu funktionieren, braucht er keine von und für Menschen gemachten Gründe – Korrelationen reichen aus.7 Im Vergleich zur menschlichen Wahrnehmung und Informationsverarbeitung erfüllt er seinen Zweck also mit anderen, eigenen Mitteln. Das ist in der Geschichte der Technikentwicklung ein durchaus altbekanntes Phänomen: Auch Flugzeuge etwa sind nach eigenen Regeln konstruiert worden und nicht mit der Absicht, naturgetreu Vögel nachzuahmen. Überhaupt sind viele Phänomene des Berechenbar-Machens und der Automatisierung, mit denen wir uns heute zu Recht intensiv befassen, weil sie immer mehr an Bedeutung gewinnen, qualitativ nicht wirklich neu. Im Kern handelt es sich um den kybernetischen Traum der Allvermessung von Menschen 8 und Dingen, um sie effizienzgetriebener Steuerung staatlicher, wirtschaftlicher, geheimdienstlicher oder militärischer Art zu  unterwerfen.9 Was tatsächlich neu ist, ist die regelrechte Explosion der Datenmengen, gepaart mit einem (momentan noch) linearen Wachstum bei der Rechenkraft. Beides zusammen erfordert immer ausgefeiltere Analysemethoden (die wir hier zusammenfassend als Algorithmen bezeichnen) – zumindest dann, wenn man möchte, dass die Erkenntnisse proportional zur  Informationsmenge zunehmen.

Für eine lebenswerte Gesellschaft im Datenzeitalter

Maschinen können Menschen Empfehlungen geben, die auf andere Art nicht zu haben wären. Ich habe nicht genug Freunde und Bekannte, um all die Literatur und all die Musik über persönliche Empfehlungen zu entdecken, die mir Amazon und Spotify schon empfohlen haben. Algorithmen arbeiten konsistent und machen keine Fehler, die Menschen regelmäßig unterlaufen. Das Wertefundament von Algorithmen ist, anders als das von menschlichen Entscheidungsträgern, programmierbar und damit grundsätzlich kontrollierbar. Die Ergebnisse algorithmischer Entscheidungen lassen sich, zumindest im Prinzip, im Nachhinein überprüfen und korrigieren. Durch die Automatisierung von Prozessen werden Menschen von Routinetätigkeiten entlastet, was Freiräume für die Beschäftigung mit drängenderen Problemen und sogar mehr Zeit für menschliche Interaktion (zum Beispiel im Verhältnis zwischen Arzt und Patient oder zwischen Verwaltung und Bürgern) schaffen kann. Angebote und Dienste lassen sich leichter personalisieren oder auf Gruppen zuschneiden.

Dies sind nur einige der tatsächlich beobachtbaren und denkbaren Vorteile. Eine Algorithmenentwicklung, die ihren essenziell sozialen Charakter nicht verkennt, hat den weiteren Vorzug, dass im Zuge dessen viele bereits zuvor bestehende Probleme und Schieflagen erkannt und adressiert werden können, weil Datengrundlagen, implizite Annahmen und Vorgehensweisen zum ersten Mal explizit gemacht werden müssen.10

Wir brauchen einen unaufgeregten, arbeitsteilig organisierten Diskurs über die Möglichkeiten und Grenzen des Einsatzes von Algorithmen. Diese Nüchternheit ist nicht zuletzt deshalb angebracht, weil es letzten Endes um nicht mehr und nicht weniger geht als die Frage, wie wir im sogenannten Datenzeitalter eine lebenswerte Gesellschaft sein und bleiben können. In diesem Zusammenhang ist es zweifellos angebracht, offenkundige Schwächen und Schwierigkeiten zu untersuchen und möglichst zu beheben. Ebenso notwendig ist es allerdings die Frage zu stellen, was durch den verstärkten Algorithmeneinsatz neu möglich ist, was vorher nicht möglich war. Verschärft könnte man auch sagen: Abgesehen vom Einsatz guter Software, die so programmiert ist, dass sie laufend dazu lernt, haben wir überhaupt keine Chance, aus den gewaltigen Datenmassen, die uns heute zur Verfügung stehen, als Gesellschaft angemessen Kapital zu schlagen. Am größten scheinen die Chancen durch eine Kombination aus Datafizierung und Algorithmisierung aus der Perspektive der Gemeinwohlförderung momentan überall dort zu sein, wo Algorithmen erstens bewusst (d. h. ihre möglichen Stärken und Schwächen reflektierend) eingesetzt werden, und wo sie zweitens nicht alleine Entscheidungen treffen,  sondern menschliche Entscheidungen vorbereiten, unterstützen oder evaluieren.

„Wir brauchen einen unaufgeregten, arbeitsteilig organisierten Diskurs über die Möglichkeiten und Grenzen des Einsatzes von #Algorithmen.“ - Tobias Knobloch #BigData https://bit.ly/2CFSJQV Klick um zu Tweeten
  1.  Zu diesen Herausforderungen gehört übrigens die algorithmische Datenverarbeitung selbst. Denn auch die Frage, ob Algorithmen aufgrund der Zugehörigkeit zu einem Geschlecht, einer ethnischen Gruppe, einer Altersklasse oder aufgrund anderer Merkmale diskriminieren, lässt sich aufgrund der großen Datenmengen, um deren Verarbeitung es beispielsweise in Einstellungsverfahren geht, eigentlich nur mit maschineller Hilfe zuverlässig beantworten (und ggf. beheben). Vgl. Venkatasubremanian et al. (2015): Certifying and removing disparate impact. https://arxiv.org/pdf/1412.3756v3.pdf
  2. Vgl. https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/
  3. Diesbezüglich einschlägig ist die Studie „Wo Maschinen irren können. Fehler und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung“ von Katharina Zweig. https://algorithmenethik.de/2018/02/05/wo-maschinen-irren-koennen-fehlerquellen-und-verantwortlichkeiten-in-prozessen-algorithmischer-entscheidungsfindung/
  4. Vgl. dazu ganz aktuell Eubanks (2018): Automating Inequality. How high-tech tools profile, police, and punish the poor. https://us.macmillan.com/automatinginequality/virginiaeubanks/9781466885967/
  5. Siehe https://www.stiftung-nv.de/de/projekt/algorithmen-fuers-gemeinwohl
  6. Siehe https://algorithmenethik.de/projekt/
  7. Die gesamte Big-Data-Debatte kreist mehr oder weniger um diesen epistemologischen Kern.
  8. Einen guten Überblick über Scoring-Beispiele bietet Lischka/Klingel (2017): Wenn Maschinen Menschen bewerten. https://algorithmenethik.de/2017/05/02/wenn-maschinen-menschen-bewerten/
  9. Vgl. Pinto (2017): Rückkopplungsformen – Behaviorismus, Kybernetik, Autopoiesis. In: Franke/Hankey/Tuszynski: Nervöse Systeme. Berlin: Matthes & Seitz, S.48-65.
  10. Vgl. z.B. Schulz & Polster (2017): Algorithmic decision making and human rights https://www.hiig.de/en/blog/algorithmic-decision-making-human-rights.
Kategorien:
  Allgemein, Datenanalyse

Artikel teilen

[easy-social-share buttons="twitter,facebook,google,xing,linkedin,flipboard" counters=0 style="icon" url="http://www.smartdata-blog.de/2018/09/27/algorithmen-fuers-gemeinwohl/" text="Algorithmen fürs Gemeinwohl"]
Über

 Smart Data Begleitforschung

  (43 Artikel)

Hinterlassen Sie einen Kommentar

Die E-Mail Adresse wird nicht veröffentlicht.