Smart Data Geschäftsmodelle – Hemmnisse und Herausforderungen

Von Smart Data Begleitforschung Vor 2 WochenKeine Kommentare
Home  /  Allgemein  /  Smart Data Geschäftsmodelle – Hemmnisse und Herausforderungen

© Sergey Nivens – Fotolia.com (Titel)

 

Aus der Publikation „Smart Data Geschäftsmodelle“ der Fachgruppe „Wirtschaftliche Potenziale & gesellschaftliche Akzeptanz“.

Von Dr. Martin Voigt, AI4BD Deutschland GmbH/SAKE und Dr. Sonja Zillner, Siemens AG/KDI.

Um erfolgreiche Smart-Data-Geschäftsmodelle entwickeln zu können, müssen insbesondere vier Perspektiven beachtet werden:

  • Geschäftswert: Wie können aus Daten (und den ihnen zugrundeliegenden Smart-Data-Technologien) tatsächliche Erträge erwirtschaftet werden?
  • Datenzugang: Welche Datenquellen müssen verarbeitet und kombiniert werden, um Wert zu generieren?
  • Qualifizierung: Zur Auswertung und Interpretation von Daten werden spezielle Fertigkeiten und Kompetenzen von Fachkräften benötigt. Wie können diese domänenspezifischen Fähigkeiten im Bereich Big Data gefördert werden?
  • Akzeptanz: Wie können in Bezug auf datengetriebene Services und Produkte gesellschaftliche Ängste abgebaut und Akzeptanz und Anreize zur Datenfreigabe geschaffen werden?

 

Geschäftswert

Das Geschäft mit Smart Data ist für die meisten Unternehmen neues Terrain. Zu Beginn ist oft unklar, welche Daten in welcher Qualität überhaupt zur Verfügung stehen, unter welchen Bedingungen diese Daten genutzt werden dürfen, welches neues Wissen sich durch die smarte Verarbeitung der Daten gewinnen und wie sich dann daraus (Geschäfts-)Wert realisieren lässt.

Smart-Data-Geschäftsmodelle basieren aber auf dem Wert der zugrundeliegenden Daten und potenziellen Erkenntnissen, die sich daraus gewinnen lassen. Solange der Wert und die Qualität der Daten unbekannt sind, bleibt auch das Geschäftspotenzial oft unkonkret oder unklar.

Wie im Beitrag „Smart-Data-Ertragsmodelle“ dargestellt, zeigen die im Markt bereits etablierten datenbasierten Geschäftsmodelle eine Veränderung der grundlegenden Logik bezüglich der Art und Weise, wie Geld verdient wird. So werden traditionelle Eins-zu-eins-Transaktionen abgelöst durch Geschäftsmodelle in mehrseitigen Märkten, bei denen der Konsument einer Leistung diese nicht mehr bezahlt, sondern vielmehr selbst zum Produkt wird.

Der Wert einer Smart-Data-Anwendung steigt mit der Vielzahl von unterschiedlichen Datenquellen, die insbesondere über Unternehmens- oder Sektorengrenzen hinweg eingebunden, miteinander in Bezug gesetzt und so in umfassenden Daten-Ökosystemen realisiert werden können. Die Berücksichtigung der Dynamik des zugrunde liegenden Netzwerkes muss deshalb eine zentrale Rolle in der Entwicklung neuer Geschäftsmodelle spielen.

 

Datenzugang

Solange Daten unbearbeitet bleiben, sind ihr Wert und ihre Qualität selten bekannt. Nur durch die systematische Analyse und Vorverarbeitung der Daten lässt sich herausfinden, welches (Geschäfts-)Potenzial in den Daten steckt und welche weiteren Datenquellen eingebunden werden müssen. Dies bringt wiederum oft eine hohe Investition von Zeit- und Finanzressourcen mit sich.

Auch wenn es im Kontext von Big Data zunächst widersprüchlich scheint, sind die Verfügbarkeit und Auswahl von Daten ein wesentliches Problem bei Smart-Data-Geschäftsmodellen. Das Datenvolumen weltweit steigt zwar immer weiter an, jedoch ist nur ein kleiner Teil der Daten überhaupt zugänglich bzw. sofort nutzbar.

Bevor Rohdaten in Smart-Data-Anwendungen verwendet werden können, müssen diese oft aufwendig strukturiert, angereichert und aufbereitet werden. Diese Schritte der Vorverarbeitung sind notwendig, um die Daten für weitere Analysen technisch und in hoher Qualität verfügbar zu machen. Sie sind jedoch auch arbeits- und kostenintensiv.

Technische Verfügbarkeit von Daten

Auch auf der technischen Ebene bringt die Verfügbarkeit von Big Data vielseitige Hemmnisse mit sich. Daten müssen digitalisiert sowie ihre nahtlose technische Integration ermöglicht werden. Aufgrund von Volumen, Formaten und Geschwindigkeit können die Daten nur mittels Programmierung, intelligenten User Interfaces, speziellen Frameworks wie Apache Spark oder Flink und hinreichenden Hardware-Ressourcen genutzt werden. Bei unstrukturierten Daten, wie z. B. Bildern und Texten, müssen domainspezifische Algorithmen entwickelt werden, um die in den Daten enthaltenen Informationen in ein bearbeitbares Format zu extrahieren. Personen ohne Programmierkenntnisse, jedoch mit Domainwissen, können spezielle Tools nutzen, um Zugang zu erhalten. Ein gewisses Maß an analytischem Know-how wird allerdings auch hier vorausgesetzt, was eine Qualifizierung der Mitarbeiter notwendig macht.

Qualität der Datensätze

Um Daten für gezielte Analysen oder neue Dienstleistungen einsetzen zu können, müssen sie syntaktisch, aber vor allem inhaltlich akkurat sein. Auch wenn in Bezug auf dieses Thema schon seit Jahrzehnten geforscht wird, bringt Big Data doch neue Dimensionen und damit auch neue Herausforderungen mit sich. Das Datenvolumen ist so enorm, dass es schwer ist, die Qualität der Daten ohne großen Zeitaufwand zu beurteilen. Gleichzeitig ändern sich die Daten schnell und haben oft nur eine kurze Lebensdauer, was eine zügige Bewertung notwendig macht. Die hohe Diversität basiert auf teils neuen unstrukturierten und semistrukturierten Datenquellen, deren Qualität oftmals schwer bestimmbar ist. Aus diesen Problemen technischer Natur ergibt sich ein großer Forschungs- und Entwicklungsaufwand hinsichtlich der Entwicklung von Vorgehensmodellen und Werkzeugen, mit denen die Datenqualität auch für Nichtexperten in hinreichender Zeit bewertet werden kann. Es mangelt aber auch an Standards, die Kriterien und Maßstäbe für die Bewertung der Datenqualität bieten. Eine derartige Norm ist beispielsweise die ISO 8000,1 deren Zweck es ist, bezüglich der Qualität der gelieferten Daten zwischen Firmen und Software zu unterscheiden.

Zugang zu offenen Datensätzen

Ein Datensatz allein ergibt in der Regel selten Mehrwert. Zur Anreicherung von Datensätzen spielen neben (unternehmens)internen Daten auch offene, frei verfügbare Datensätze eine wichtige Rolle, z. B. Wetterdaten2, der ÖPNV3, Kartenmaterial4 oder strukturierte Wikipedia-Daten5. Zwar werden zunehmend behördliche Daten veröffentlicht (Deutschland liegt aktuell auf Platz 24 des Open Data Index,6 der Staaten in Bezug auf deren Bereitstellung öffentlicher Daten auflistet), jedoch betrifft dies vor allem Daten auf Bundesebene. Auf Ebene der Länder, Kreise oder gar Kommunen sieht das Bild differenzierter aus.7 Hier fehlt es einerseits häufig an der Einsicht bzw. Akzeptanz, dass Open Data einen Mehrwert schafft und wirtschaftliche Potenziale eröffnet. Andererseits fehlen Geld und technisches Know-how, um die Daten zu publizieren. Auch erschwert das föderale System eine einheitliche Gesetzgebung hinsichtlich der Verpflichtung zur Öffnung von Daten.

Ein weiteres Thema ist die Bereitstellung von Daten aus Forschung und Entwicklung. Gerade die mit Zuschüssen geförderten Projekte in Natur-, Bio- und Medizinwissenschaften können motiviert werden, neben den Ergebnissen (Artikel in Journalen und Konferenzbänden) auch die erhobenen Daten zu publizieren. Dies ermöglicht grundsätzlich, dass Dritte diese in anderen Kontexten weiterverwenden und Mehrwerte schaffen können. Neben dem einheitlichen Zugang über ein möglicherweise deutschlandweites Portal spielen auch andere organisatorische und technische Fragestellungen eine Rolle.

In diversen Situationen können auch Unternehmen davon profitieren, Teile ihrer Daten öffentlich frei zur Verfügung zu stellen. Hierdurch können sich neue Nutzungs- und später Vermarktungsmöglichkeiten ergeben. Ebenso können Innovationen in Domänen entstehen, bei denen dies nicht vermutet worden war. Doch es mangelt noch an klaren Lizenzierungsregeln für die Daten bzw. die aus diesen gewonnenen Erkenntnisse. Auch ist eine Stimulation von außen, etwa durch Fördermittel, wünschenswert, um Unternehmen zu ermutigen, ihre Daten zu veröffentlichen, und diesbezüglich möglichst eine Sogwirkung zu erzielen.

Mangel an geschlossenen, aber verkäuflichen Datensätzen

Nicht alle Daten, mit denen ein wirtschaftlicher oder gesellschaftlicher Mehrwert geschaffen werden kann, müssen zwangsläufig offen und frei verfügbar sein. Beispielsweise könnten anonymisierte Floating-Point-Daten eines Betreibers von Navigationsgeräten genutzt werden, um Hochrechnungen von Verkehrsaufkommen zu erstellen, die wiederum in Logistikszenarien oder bei der Infrastrukturplanung Einsatz finden. So lassen sich ganze Verkaufsketten von Daten etablieren. Ein Hemmnis ist jedoch das Fehlen eines deutschen bzw. europäischen Marktplatzes zum sicheren Anbieten und Kaufen von Daten mit klaren Lizenzbestimmungen. Bisher stellen vor allem amerikanische Unternehmen ein entsprechendes Angebot bereit, wie beispielsweise The DX Network.8 Weitere Probleme sind das fehlende Bewusstsein in Unternehmen bezüglich des Marktwertes ihrer Daten, Lizenzierungsfragen sowie Datenschutz und Anonymisierung.

Data Ownership

Neben der technischen Verfügbarkeit stellt sich die Frage nach der rechtlichen Verfügbarkeit, d. h.: Wer darf unter welchen Bedingungen und für welche Zwecke die Daten nutzen? Data Ownership ist ein Konzept, das festlegt, wer in welcher Art und Weise auf welche Daten zugreifen und diese verwenden darf. Bei der Festlegung von Zugriffs- und Verwendungsrechten werden unterschiedliche Kategorien von Daten (privat versus öffentlich, personengebunden versus nichtpersonengebunden etc.) unterschieden.

Datenschutz

Zur Umsetzung des Rechts auf Datenschutz gehören alle Maßnahmen zum Schutz von personenbezogenen Daten vor Missbrauch bei ihrer Speicherung, Übermittlung, Veränderung und Löschung.9 Somit kommt dem Datenschutz ein hoher Stellenwert zu, auch in Bezug darauf, das Vertrauen potenzieller Anwender zu gewinnen. Eine deutschlandweite Gesetzesgrundlage bietet hier nun seit Mai 2018 die DSGVO.10 Sie klärt die wesentlichen rechtlichen Fragen im Umgang mit den Daten und lässt in definierten Grenzen auch den Handel mit Daten zu.

 

Qualifizierung von Personal

Die Nachfrage nach gut ausgebildetem Personal ist hoch im IT-Markt.11 Mit der steigenden Nachfrage nach Smart-Data-Lösungen werden in diesem Teilgebiet zunehmend auch neue Arbeitsstellen geschaffen, die jedoch schwer zu besetzen sind.12 Problematisch ist hier, dass es sich um ein sehr junges Gebiet der Informatik handelt, für welches die passenden Ausbildungen und Studiengänge noch geschaffen bzw. angepasst werden müssen. Hier sind insbesondere die Hochschulen gefordert. Um Wissenslücken auf allen Ebenen – vom Entwickler bis zum Entscheider – kurzfristig zu schließen, werden insbesondere von forschungsnahen Institutionen vermehrt Workshops und Seminare angeboten, wie z. B. vom FraunhoferInstitut IAIS.13 Um jedoch eine breitere Masse zu erreichen, könnten beispielsweise auch Onlinekurse (etwa MOOCs14) in Betracht gezogen und gefördert werden.

 

Gesellschaftliche Akzeptanz – Schaffung von Nutzungsanreizen

Wie bei allen technologischen Entwicklungen spielt soziale Akzeptanz auch im Kontext Big Data eine zentrale Rolle und ist damit eine der wichtigsten Voraussetzungen für den Erfolg von Smart-Data-Geschäftsmodellen. Big-Data-Technologien ermöglichen einen starken gesellschaftlichen Fortschritt, der für jeden Einzelnen greifbar ist. Beispiele sind die intelligente Suche im Netz, die inzwischen mit Zusatzinformationen (z. B. Googles Knowledge Graph15) angereichert wird, oder Start-ups, die der Sharing Economy zugeordnet werden wie Uber16 oder Airbnb.17 Weniger bekannt ist die Nutzung der Technologien zu Zwecken der Forschung wie z. B. bei der Krebsbekämpfung.18 Für all diese Lösungen bedarf es eines intelligenten Anreizsystems. Denn nur durch die Bereitstellung und Verknüpfung von Information kann ein zusätzlicher Nutzen geschaffen werden.

Jedoch werden beim Thema „Big Data“ – zu Recht – auch und vor allem Ängste öffentlich diskutiert, die sich auf mögliche Nachteile für Individuen oder die gesamte Gesellschaft durch Big Data beziehen. So kann Datendiebstahl durch Hacker oder Geheimdienste zur zielgerichteten Überwachung von Individuen führen. Nicht nur, aber besonders für soziale Minderheiten, Journalisten, oder Menschenrechtler können hier große Risiken entstehen. Problematisch ist auch die im Rahmen von Analysen mögliche Erlangung von personenbezogenen Kenntnissen, die die Betroffenen gar nicht preisgeben oder wissen möchten, wie z. B. die Vorhersage von Krankheiten oder des Todestags. Natürlich ist auch die digitale Erkennung von Krankheitsbildern etwa durch Google Flu Trends ein großer technologischer Fortschritt.19 Zu großes Vertrauen in solche Dienste kann jedoch auch schwerwiegende Folgen haben, etwa im Falle von Fehlprognosen.

Anhand der skizzierten Probleme wird deutlich, dass bei der Nutzung von Big Data stets ethische Grundsätze einzuhalten sind. Hierzu kann u. a. auf die „Ten Commandments of Computer Ethics“20 aufgebaut werden, doch sind diese nicht ausreichend.21 Es ist daher notwendig, dass klare ethische Grundsätze auch auf europäischer Ebene formuliert und kommuniziert werden. Diese könnten dann in Richtlinien oder Gesetze münden, sollte die freiwillige Adaption solcher Grundsätze durch Unternehmen und Gesellschaft auf Basis von Selbstverpflichtungen nicht gelingen.

Gesellschaftliche Akzeptanz kann letztlich nur durch konsequente Aufklärung verbessert werden, indem die Debatte von Problemen und Ängsten in Richtung der Mehrwerte und Chancen von Smart Data gelenkt wird, natürlich immer unter Einhaltung der individuellen Schutzinteressen.

 

Dieser Beitrag stammt aus der Publikation „Smart Data Geschäftsmodelle“ der Fachgruppe „Wirtschaftliche Potenziale und gesellschaftliche Akzeptanz“ der Begleitforschung. Das Positionspapier untersucht künftige Smart-Data-Geschäftsmodelle und beschäftigt sich mit der Frage nach geeigneten Anreizstrukturen, mit denen die Bereitschaft zur Preisgabe von Daten erhöht werden soll. Aus der Publikation sind außerdem die Beiträge „Mehrwert und Mehrwertgenerierung“ und „Smart-Data-Ertragsmodelle“ auf dem Smart Data Blog erschienen. Das gesamte Positionspapier steht hier als kostenloser Download zur Verfügung.

Zu den Beiträgen: „Mehrwert und Mehrwertgenerierung“  und „Smart-Data-Ertragsmodelle“

Im Kontext von Big bzw. Smart Data wird eine klare Abgrenzung zwischen Daten mit Personenbezug und reinen Sachdaten zunehmend schwieriger. Die Fachgruppe Sicherheit der Smart-Data-Begleitforschung hat in gebündelter Form die Kernaspekte zum Thema Anonymisierung sowie die relevantesten Techniken zu ihrer Umsetzung in einem Leitfaden zusammengefasst, den Sie hier finden können.

„Es ist notwendig, dass klare ethische Grundsätze für die Nutzung von #Big Data auch auf europäischer Ebene formuliert und kommuniziert werden.“ - Martin Voigt / Sonja Zillner https://bit.ly/2Q1mVxC Klick um zu Tweeten
Kategorien:
  Allgemein, Begleitforschung, Datenanalyse

Artikel teilen

[easy-social-share buttons="twitter,facebook,google,xing,linkedin,flipboard" counters=0 style="icon" url="http://www.smartdata-blog.de/2018/11/28/smart-data-geschaeftsmodelle-hemmnisse-und-herausforderungen/" text="Smart Data Geschäftsmodelle – Hemmnisse und Herausforderungen"]
Über

 Smart Data Begleitforschung

  (43 Artikel)

Hinterlassen Sie einen Kommentar

Die E-Mail Adresse wird nicht veröffentlicht.