© Ulf Dressen – Fotolia.com

 

Von Thomas Elteste, Deutsche Bahn AG.

Im Zeitalter von Industrie 4.0 und der Wissensgesellschaft sind die freie Verfügbarkeit von Daten und die Möglichkeit zu deren Analyse von entscheidender Bedeutung. Dabei geht es nicht allein um die Verfügbarkeit von Daten als Open Data an sich, sondern auch um die Methoden, Tools, Plattformen und Communitys für eine intelligente Verbreitung, Auswertung und Nutzung der Daten (Smart Data). Generell ist Open Data geeignet, der Gefahr von Datenmonopolen entgegenzutreten. Open Data kann Zugangshürden für neue Marktteilnehmer senken und neue innovative Produkte ermöglichen. Open Data erleichtert Wissenschaft und Forschung einschließlich eines möglichen späteren Transfers in die praktische Anwendung und in marktfähige Produkte. Open Data vereinfacht den Zugang aller Beteiligten zu Daten, senkt Transaktionskosten und ermöglicht finanziell nicht oder nur gering untersetzte Nutzungen. Letztlich verheißt Open Data Öffentlichkeit, Transparenz und Qualität der Daten und ihrer Nutzung, ohne aber proprietäre Daten und Geschäftsmodelle auszuschließen. Neben Innovation und Wettbewerbsfähigkeit der Wirtschaft fördert Open Data die gesellschaftliche Diskussion und Teilhabe aller Bürger.

Weiterlesen

© putilov_denis – Fotolia.com

 

Von Gabriele Hildmann, KAIROS GmbH.

Die Vorteile einer Open-Data-Strategie im öffentlichen Bereich sind hinreichend belegt12 und bei Berücksichtigung der datenschutzrechtlichen Anforderungen lassen sich Nachteile kaum erkennen.

Gründe für Open Corporate Data

Im privatwirtschaftlichen Bereich gestaltet sich das Thema der Entwicklung einer Open-Corporate-Data-Strategie durchaus schwieriger. Hier ergeben sich Konstellationen, in denen der gesamtwirtschaftliche Nutzen, der sich aus den Vorteilen für die Gemeinschaft ergibt, durchaus im Gegensatz zum individuellen Nutzen des einzelnen Unternehmens steht.

  1. Vgl. Bundesministerium des Innern (Hrsg.): Open Data Government Deutschland, Berlin Juni 2012.
  2.  Vgl. Konrad-Adenauer-Stiftung (Hrsg.): Open Data – The Benefits, St. Augustin 2016.
Weiterlesen

Verfahren zur Wertermittlung von Datensätzen helfen, das Potenzial von Open Data sichtbar zu machen © Nonwarit – Fotolia.com

 

Von Maximilian Schreieck, Christoph Pflügler, Dr. Manuel Wiesche und Prof. Dr. Helmut Krcmar, Technische Universität München.

Welches Potenzial hat Open Data für Deutschland?

Während Open Data auf der einen Seite viele gesellschaftliche Veränderungen wie beispielsweise die Erhöhung der Transparenz oder eine verstärkte Kollaboration begünstigen kann, bergen frei zugängliche Daten auf der anderen Seite auch ein großes volkswirtschaftliches Potenzial.

Eine durch die Konrad-Adenauer-Stiftung in Auftrag gegebene Studie1 beziffert dieses Potenzial für Deutschland mit unterschiedlichen Schätzwerten, die stark vom weiteren Engagement seitens der deutschen Politik und wirtschaftlicher Entscheidungsträger abhängen. Eine konservative Schätzung geht von einem Potenzial in Höhe von 12,1 Milliarden Euro jährlich aus.

  1. Vgl. Marcus M. Dapp, Dian Balta, Walter Palmetshofer, Helmut Krcmar, Pencho Kuzev (Hrsg.): Open Data. The Benefits – Das volkswirtschaftliche Potential für Deutschland, https://www.kas.de/c/document_library/get_file?uuid=3fbb9ec5-096c-076e-1cc4-473cd84784df&groupId=252038.
Weiterlesen

© Cybrain – fotolia.com

 

Open Data – eine Definition

(aus „Open Data in Deutschland“ der Fachgruppe Wirtschaftliche Potenziale & gesellschaftliche Akzeptanz)

Die Bezeichnung „Open Data“ steht für die Vision, dass Wissen im Interesse der Allgemeinheit für jeden zur freien Verfügung steht, ohne Einschränkung durch Urheberrechte, Patente oder andere Faktoren, die die Datennutzung begrenzen. Häufig bezieht sich „Open Data“ auf Datenbestände der öffentlichen Verwaltung, obwohl der keinen Bezug zur Art und zum Herausgeber der Daten hat. Hier sollte zur genaueren Abgrenzung der Daten öffentlicher Einrichtungen von anderen, ebenfalls dazugehörigen Datensätzen wie beispielsweise denen von Unternehmen aus der Privatwirtschaft, Hochschulen oder Non-Profit-Einrichtungen der Begriff „Open Government Data“ eingesetzt werden.

Weiterlesen

© eyetronic – Fotolia.com

 

Von Nicolas Zimmer, Technologiestiftung Berlin.

Die Digitalisierung ist in unserem Alltag angekommen. Nicht nur Telefone, sondern auch Autos, Haushaltsgeräte, sogar ganze Städte sind dabei, „smart“ zu werden. Das bedeutet auch, dass in den verschiedensten Lebensbereichen immer mehr Daten anfallen. Wasser- und Energieverbrauch, Verkehr, Umwelt und vieles mehr werden digital erfasst und geregelt. Viele der dabei entstehenden Daten sind von öffentlichem Interesse. Sie können zu mehr Transparenz, fundierteren Entscheidungen und einer höheren Lebensqualität beitragen.

Weiterlesen

Dr. Andreas Goerdeler, Bundesministerium für Wirtschaft und Energie © Wolfgang Borrs

 

Von Dr. Andreas Goerdeler.

Das Thema Künstliche Intelligenz (KI) ist aktuell in aller Munde, obwohl die Technologien und Ideen dazu schon seit circa dreißig Jahren existieren. Damals wurde das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) gegründet und die ersten Diskussionen über Expertensysteme damit angestoßen. Es entstanden Ideen zur intelligenten Auswertung von medizinischen Daten – der Arzt bzw. die Ärztin sollte den Computer als Hilfsmittel zur Diagnosestellung einsetzen. Gescheitert sind Ideen wie diese damals an der geringen Leistungsfähigkeit der Chips und Prozessoren, auch an den mangelnden Möglichkeiten, große Datenmengen zu verarbeiten und leistungsfähige Algorithmen zu erzeugen. Auch neuronale Netze waren nicht ausgeprägt genug entwickelt. Man wusste damals noch nicht, wie man am besten mit den Daten umgeht. Infolgedessen ebbte der Hype ab. Aber die Ideen und der Wille zur Weiterentwicklung und zur Forschung blieben.

Weiterlesen

Dr. Alexander Tettenborn, Bundesministerium für Wirtschaft und Energie © Wolfgang Borrs

 

Von Dr. Alexander Tettenborn.

Nach bald vier Jahren erfolgreicher Forschungs- und Entwicklungsarbeit endet in diesen Wochen unser Technologieprogramm „Smart Data – Innovationen aus Daten“. Zum Abschluss lohnt sich gleich in zweifacher Hinsicht ein Blick in die Vergangenheit.

Erinnern sollten wir uns zum einen gerade jetzt an THESEUS, das als großes Vorläuferprogramm mit einem Volumen von 200 Mio. Euro die Grundlagen für gute Forschungsarbeit bis heute gelegt hat und das als eine Art Urknall für Smart Data gelten kann. Als auf der damaligen Abschlusskonferenz wirklich beeindruckende Ergebnisse präsentiert wurden, stand die Frage im Raum, welchen konkreten Nutzen diese Ergebnisse letztlich haben werden. Jetzt, einige Jahre später, konnten in Smart Data die damals aufgebauten Kompetenzen in konkreten Anwendungen genutzt werden. Hier zeigt sich die herausragende Bedeutung der Kohärenz von Grundlagenarbeit über angewandte Forschung bis hin zur Marktreife für unsere Arbeit. Auch die enge Zusammenarbeit mit dem Bundesministerium für Bildung und Forschung liegt hierin begründet. Dass diese für alle Beteiligten großen Mehrwert schafft, konnte auch im Zusammenhang der Forschungsprogramme um Big Data erneut demonstriert werden.

Weiterlesen

Prof. Dr. Wolf-Dieter Lukas, Bundesministerium für Bildung und Forschung © Wolfgang Borrs

 

Von Prof. Dr. Wolf-Dieter Lukas.

Oft werden politische Entscheidungsträger gefragt: „Wie regulieren wir zukünftig Big Data und Künstliche Intelligenz (KI)?“ Die Antwort ist simpel: Erst einmal gar nicht und hoffentlich nie. Technologien unterfallen generell und ganz allgemein keiner Regulierung per se, sondern ihre Anwendung wird im jeweiligen Kontext geregelt. Unser Ziel muss jedoch sein, Big Data und KI im Sinne unserer Werte zu gestalten. Mit Regulierung allein werden wir dieses Ziel nicht erreichen.

Weiterlesen

Dr. Herbert Zeisel, Bundesministerium für Bildung und Forschung © Wolfgang Borrs

 

Von Dr. Herbert Zeisel.

Das Thema Künstliche Intelligenz (KI) erfährt momentan eine enorme Aufmerksamkeit. Es löst gerade in der Öffentlichkeit den Hype um das Thema Big Data ab. Beide Themen gehören jedoch eng zusammen und müssen gemeinsam gedacht werden. Wie beim Thema Big Data muss aber auch beim Thema KI differenziert werden. Auch beim großen Schlagwort KI ist es wichtig, die dazugehörigen Teiltechnologien wie zum Beispiel Big Data, selbstlernende Systeme oder Cyber-Security sowie deren verschiedene Anwendungsfelder zu betrachten. Nur durch eine solche Differenzierung kann man die verschiedenen Rahmenbedingungen und den unterschiedlichen Stand der Technik identifizieren und so entsprechend agieren. So haben wir in Deutschland eine gute Forschungsbasis und zahlreiche Unternehmen, die heute bereits KI nutzen beziehungsweise deren Geschäftsmodell auf KI basiert. Zum Beispiel das Thema Industrie 4.0: Hier sind wir weltweit führend, die Einführung von KI in die betriebliche Praxis ist bereits gestartet. Dabei wird es entscheidend sein, den deutschen Mittelstand bei der Nutzung zu unterstützen. Bei der Nutzung von Massendaten im Consumer-Bereich sind dagegen Firmen wie Google, Amazon, Baidu oder Alibaba Weltspitze. In diesem Bereich wird für uns die Frage nach der Verfügbarkeit von Daten, auch angesichts unserer Datenschutzgesetzgebung, zu einer zentralen Herausforderung – aber bei geschickter Nutzung vielleicht auch zu einer großen Chance.

Weiterlesen

Prof. Dr. Jeanette Hofmann, Weizenbaum-Institut/Wissenschaftszentrum Berlin für Sozialforschung (WZB) © Wolfgang Borrs

 

Von Prof. Dr. Jeanette Hofmann.

In seinem Werk „Seeing Like a State” beschreibt der US Anthropologe und Politologe James Scott anhand historischer Beispiele, wie Staaten die Gesellschaft lesbar machten. Eines dieser Projekte war etwa die Besteuerung der deutschen Forstwirtschaft. Weil man keine Referenzwerte und Erfahrung hatte, begannen Statistikerinnen und Statistiker mit Erhebungen zum Bestand und der wirtschaftlichen Verwertung der Wälder. Ein weiteres Beispiel bildet Frankreich um das 17. Jahrhundert: Da von Region zu Region unterschiedliche Gewichtseinheiten verwendet wurden, führte der zentralistische Staat Standards ein, um seine Untertanen leichter besteuern zu können.

Weiterlesen