Aus „Big Data, Smart Data, next?“: Ein Thema wird erwachsen: Big Data lernt laufen

Von Smart Data Begleitforschung Vor 2 WochenKeine Kommentare
Home  /  Allgemein  /  Aus „Big Data, Smart Data, next?“: Ein Thema wird erwachsen: Big Data lernt laufen

Luise Kranich, Forschungszentrum Informatik FZI © Wolfgang Borrs

 

Von Luise Kranich.

Der Jurist und Wissenschaftler Ryan Calo twitterte im März 2018: „Handy guide of how to refer to artificial intelligence depending on who your audience is

  • Press: robot
  • Law review: machine
  • Non-technical symposium: artificial intelligence
  • Technical symposium: machine learning
  • Really technical symposium: statistics“.

Frei übersetzt sagt er damit auch, dass Anwendungen der Künstlichen Intelligenz (KI), deren scheinbar unendliche Möglichkeiten derzeit viele Digitalisierungsdiskussionen beherrschen, meist auf statistische Berechnungen zurückzuführen sind. Betrachtet man die einzelnen Dienste im Detail, verbirgt sich dahinter oft ein Empfehlungs-, Prognose- oder Optimierungssystem, wie sie die Informatik seit Jahrzehnten kennt. Was ist also neu?

Die Leistungsfähigkeit von KI-Systemen beruht maßgeblich auf dem Zugang zu aussagekräftigen Daten, den zugrundeliegenden Methoden zur Datenerfassung, -speicherung und -verarbeitung, also klassischen Big-Data-Technologien, sowie der Hardware, auf der die komplexen informationsverarbeitenden Prozesse ablaufen. Dass in den letzten Monaten wieder verstärkt über KI diskutiert wird, hat also viel damit zu tun, dass die Verfügbarkeit leistungsfähiger Systeme deutlich gestiegen ist und die Anwendungen im Mainstream angekommen sind.

Ordnung in das Durcheinander der Begriffe bringen

Die öffentliche Debatte zu Big Data, Smart Data und Künstlicher Intelligenz wirkt manchmal wie ein wildes Durcheinander aktueller Schlagworte. Im Smart-Data-Programm des Bundesministeriums für Wirtschaft und Energie und den zugehörigen Fachgruppen wurden einige Ansätze erarbeitet, diese Diskussionen zu strukturieren. Beispielhaft seien hier die technologische, die anwendungsorientierte, die rechtliche und die ethische Dimension genannt, auf die in diesem Debattenband ausführlich eingegangen wird.

Technologie: Bei der Verarbeitung digitaler Massendaten kommen zahlreiche Technologien zum Einsatz. Für diese fehlte bislang eine einheitliche Klassifikation, welche neben formalen Normen auch standardähnliche Regelwerke und Vorschriften zu Smart Data betrachtet. Genau hierfür wurde die DIN SPEC 91349 entwickelt. Sie definiert eine Taxonomie von Smart-Data-Regelwerken, orientiert am Einsatzzweck und am jeweiligen Verarbeitungsschritt innerhalb der so genannten Data Value Chain. Diese Matrix erlaubt eine sachbezogene Betrachtung der jeweiligen Technologie und ihre Einordnung in Bezug zu anderen, möglicherweise ähnlichen Verfahrensweisen.

Anwendungen: Legt man Technologietrends der letzten Jahre und die klassischen deutschen Stärken übereinander, wird schnell deutlich, dass die Wege nicht weit sind: vom Automobilbau zu autonomen Fahrzeugen, vom Maschinen- und Anlagenbau zu Industrie 4.0, von der Mess- und Sensortechnik zum Internet of Things. Die jeweilige Brücke liegt in der Vernetzung – und das sowohl bezogen auf Technologien im Sinne von offenen Schnittstellen und standardisierten Protokollen als auch auf die Kooperation der einzelnen Akteure.

Rechtsrahmen: Immer wieder wird gefordert, Big-Data-Anwendungen und Künstliche Intelligenz zu regulieren, doch mit konkreten Ansatzpunkten tun sich auch Expertinnen und Experten schwer. Führen wir uns die eingangs zitierte Aussage nochmals vor Augen: Der Begriff „Big Data” lässt sich entmystifizieren, wenn wir stattdessen von „Statistik“ sprechen – was in vielen Fällen auch zutreffender ist. Schon wird einiges klarer: Statistik ist ein Werkzeug, mit dem Sachverhalte erkundet und Zusammenhänge erkannt und verdeutlicht werden können, die ohne diese Analysen im Dunkeln geblieben wären. Statistiken werden aber auch häufig dazu benutzt, in Diskussionen eine Pseudo-Sachlichkeit herbeizuführen. Das Gefährliche dabei: Wer sich nicht auskennt, verwechselt häufig Zufall, Korrelation und Kausalität, und die Art der Darstellung kann zu Manipulationszwecken bewusst eingesetzt werden. Trotzdem wird selten gefordert, die Statistik zu regulieren.

Vertrauen als Wettbewerbsvorteil

Eine allgemeine gesetzliche Begrenzung von Big Data scheint also weder sinnvoll noch möglich. Nichtsdestotrotz kann Regulierung auch vertrauensbildend wirken, und in der digitalen Welt wird Vertrauen zunehmend zum Wettbewerbsvorteil. Hier helfen genau die Eigenschaften, die wir uns in Deutschland und Europa oft als Schwächen vorhalten lassen müssen. Wenn wir gewisse Aspekte des Einsatzes neuer Technologien von Anfang an mitberücksichtigen (Privacy/Security/Fairness by Design), dauert die Markteinführung vielleicht etwas länger. Wir können so aber das Vertrauen der Anwenderinnen und Anwender gewinnen, das irgendwann über Erfolg oder Misserfolg einer Technologie entscheiden kann.

Ethische Fragestellungen: Im Optimalfall, wenn also Datenanalysen und darauf basierende Dienste auf Fairness-by-Design-Prinzipien beruhen, können Big-Data-Auswertungen dabei helfen, viele Entscheidungsprozesse zu versachlichen, menschlichen Bias (ob bewusst oder unbewusst) sichtbar zu machen und zu reduzieren sowie bestehende Ungerechtigkeiten aufzuzeigen. Doch es gibt auch Risiken, die sich stark vereinfacht folgendermaßen zusammenfassen lassen: Technologie an sich ist meistens neutral. Ein scharfes Messer kann ein praktisches Werkzeug oder eine tödliche Waffe sein – es kommt auf den Einsatz an. Dort, wo dieser Einsatz besonders großen Schaden anrichten kann, sollten gewisse Nutzungsvoraussetzungen gelten.

Im Rahmen der Smart-Data-Begleitforschung wurden Kompetenzanforderungen für Data Scientists und die ethische Verantwortung von Unternehmen im Sinne einer „Corporate Digital Responsibility“ diskutiert. Für den verantwortungsvollen Umgang mit Big-Data-Technologien kann es durchaus sinnvoll sein, dass die handelnden Personen eine Art „Führerschein“ machen. Eine Einigung auf ein „Ethical Framework“ mit passenden Schulungen und Zertifizierungen (etwa als Bestandteil des Europäischen e-Competence Frameworks) wäre hierfür die Grundlage.

Bei allem, was wir im Bereich Big Data in den letzten Jahren erreicht haben, bleibt also noch einiges zu tun. Auch wenn sich die rein technologische Betrachtung weiter in Richtung selbststeuernder und lernender Systeme zu entwickeln scheint, bleiben die Verfahren zur effizienten Erfassung und Verarbeitung großer Datenmengen gleichzeitig Grundlage und Alleinstellungsmerkmal. Viele Diskussionen zu offenen Fragen, gerade im Bereich der nachhaltigen und demokratischen Anwendung der Technologien, wurden gerade erst begonnen. Wir freuen uns, mit diesem Debattenband einige Impulse hierfür liefern zu können!

 

In Zusammenarbeit mit der DIN – dem Deutschen Institut für Normung – hat die Smart-Data-Begleitforschung ein Regelwerk für den Umgang mit Massendaten (Big Data/Smart Data) entwickelt, um formale Standards in diesem Bereich zu kategorisieren und Technologien sachbezogen begutachten und einordnen zu können. Die DIN SPEC 91349 wird in einem Eckpunkte-Papier vorgestellt, das hier zum Download bereitsteht.

Der gesamte Debattenband „Big Data, Smart Data, next?“ steht hier zum kostenlosen Download zur Verfügung.

„Der Begriff „#Big Data” lässt sich entmystifizieren, wenn wir stattdessen von „Statistik“ sprechen – was in vielen Fällen auch zutreffender ist.“ - Luise Kranich https://bit.ly/2QsGkHl Klick um zu Tweeten
Kategorien:
  Allgemein, Begleitforschung, Big Data Debattenband, Datenanalyse

Artikel teilen

[easy-social-share buttons="twitter,facebook,google,xing,linkedin,flipboard" counters=0 style="icon" url="http://www.smartdata-blog.de/2018/12/03/aus-big-data-smart-data-next-ein-thema-wird-erwachsen-big-data-lernt-laufen/" text="Aus „Big Data, Smart Data, next?“: Ein Thema wird erwachsen: Big Data lernt laufen"]
Über

 Smart Data Begleitforschung

  (43 Artikel)

Hinterlassen Sie einen Kommentar

Die E-Mail Adresse wird nicht veröffentlicht.