5G, die fünfte Mobilfunk-Generation, wird aktuell landesweit ausgerollt. Hiermit wird nicht nur die Kapazität und Abdeckung verbessert. Der Innovationssprung mit 5G ist eine Funk-Plattform für die Realisierung von Funksteuerung kollaborativer Robotik und kabelloser virtueller und augmentierter Realität – das Taktile Internet. Z. Zt. entstehen spannende neue Möglichkeiten in der industriellen Produktion, im Verkehr, am Bau, in der Krankenversorgung und im Agrarbereich – alles neue Anwendungen im professionellen Umfeld. Mit 6G wird die breite Gesellschaft, der Endverbrauchende, von den Innovationen des Taktilen Internets profitieren. Neue Anwendungen der persönlichen mobilen Robotik und der virtuellen Realität werden unser Leben ähnlich revolutionieren, wie es die Einführung des Smartphones getan hat.
Welche Chancen und Herausforderungen stehen der Gesellschaft und der Wirtschaft Europas bevor? Was ist die europäische Stellung innerhalb des internationalen kompetitiven Umfelds? Können wir unseren demokratischen gesellschaftlichen Anspruch fortführen, um neue Chancen für Europa zu erkennen, und was müssen wir tun, um diese auch zu nutzen?
Die Entwicklung von Batterien, insbesondere für portable und für automobile Anwendungen, folgte jahrelang einer klaren Stoßrichtung: Die Batterien sollen mehr Energie auf kleinem Raum speichern können, sie sollen schnell aufladbar, sicher, langlebig und kostengünstig sein. Nachdem die Speicherkapazität der Lithium-Ionenbatterie (LIB) seit ihrer Kommerzialisierung 1991 um den Faktor vier gesteigert werden konnte und der Preis um den Faktor 18 sank, kommt es in neuerer Zeit zu einem Paradigmenwechsel bei den verwendeten Speichermaterialien. So werden die oben genannten Ziele gerade erweitert um die Forderung nach Systemen mit einer nachhaltigen Zusammensetzung. Dabei spielt eine Rolle, dass bis zum Jahre 2030 eine Verzehnfachung der Batterieproduktion erwartet bzw. angestrebt wird und dass bei einigen Rohstoffen wie Kobalt oder Lithium Engpässe befürchtet werden. Soll die Technik auf längere Sicht erfolgreich sein, muss die Aufgabe in Zukunft auf der Basis häufig vorkommender und ungiftiger Rohstoffe gemeistert werden, die gleichzeitig in der Lage sind, die oben genannten Ziele zu erreichen und so die Performance zu erhöhen. In diesem Zusammenhang hat sich in neuerer Zeit ein äußerst fruchtbares Zusammenspiel von Chemie und Engineering ergeben, welches es mittlerweile erlaubt, leistungsfähige Speicher, z. B. für E-Autos, auch mit bereits bekannten nachhaltigen Materialien zu verbauen. Ein neues Innendesign der Batterie erlaubt es heute, die Materialpalette dafür deutlich zu erweitern. Doch die Zeit drängt. Für völlig neu zu entwickelnde Materialien werden deshalb in einigen Ländern erste KI-gesteuerte Anlagen zur beschleunigten Materialentwicklung aufgebaut – unter anderem in Ulm, wo gerade eine weltweit einzigartige, KI-gesteuerte autonome Robotik ihre Arbeit aufnimmt.
Anfang 2002 wurde in Kalifornien eine Firma gegründet, die die “Entwicklung der Menschheit in eine interplanetare Spezies” zur Mission hatte. Dieses Ziel erschien für eine gerade gegründete Firma unerreichbar, zumal das erste Projekt – eine Rakete mit 21 m Länge, 1.8 m Durchmesser und dem Namen Falcon 1 – bescheidene Nutzlasten versprach. Diese Firma war SpaceX, kurz für Space Exploration Technologies.
Im Mai 2002 fing Hans Koenigsmann dort als vierter technischer Mitarbeiter an – zur rechten Zeit um, die frühe Entwicklung dieser mittlerweile bemerkenswert erfolgreichen Firma von Anfang an mitzuerleben und auch mitzubestimmen. SpaceX ging bewusst andere Wege, um anders zu werden – anders als die traditionellen Raumfahrtfirmen.
In den ersten Jahren lernte die Firma, was wirklich hinter der Raumfahrt steckt. Falcon 1 hatte hintereinander 3 Fehlschläge, bis 2008 endlich die Umlaufbahn erreicht wurde. Danach beschleunigten sich die Erfolge von SpaceX. Die wesentlich größeren Launcher Falcon 9 und Falcon Heavy folgten, dann die Wiedereintrittskapsel Dragon, die an die Internationale Raumstation andockt. Die Landung und die Wiederverwendbarkeit der ersten Stufe von Falcon 9 wurden entwickelt, und Falcon 9 und Crew Dragon führten Missionen mit Astronauten und sogar privaten Astronauten aus. Weitere Entwicklungen, die ebenfalls diskutiert werden sollten, sind Starlink (globales Internet) und Starship. Der Erfolg von SpaceX wird auf 2 Ebenen diskutiert – wie funktioniert diese Firma, die nach nur 20 Jahren den Markt dominiert? Und: wohin geht die (Raum-) Fahrt, warum macht die interplanetare Menschheit Sinn, und wann ist es so weit? Der Vortrag wird versuchen, die Zusammenhänge zwischen den Methoden, den Ergebnissen und den Möglichkeiten zu erklären.
Erdbeobachtungsmissionen in der Raumfahrt haben – egal, ob sie der militärischen Aufklärung, der Küstenüberwachung oder der Messung von Kohlendioxid in der Atmosphäre dienen – eines immer gemeinsam: sie ermöglichen einen unvoreingenommenen Blick von oben. Wenn die Menschheit mit Satelliten aus großer Höhe auf den Planeten schaut, verschafft sie sich eindeutige Fakten. Unsere Kultur basiert schlussendlich auf Erkenntnis, auf Empirie. Man gesteht sich ein, dass man nicht alles weiß, dass Beobachtung noch weitere Erkenntnis bringt und dass diese Erkenntnis dann möglicherweise das Verhalten verändert. Mit der neuesten Technologie satellitenbasierter Erdbeobachtung lassen sich diese Veränderungen heute präzise messen und verfolgen. Das ermöglicht es Wissenschaftler:innen, die Folgen unserer Handlungen auf der Erde besser einschätzen zu können und damit der Politik Empfehlungen zu liefern, Gegenmaßnahmen zu ergreifen. Dieses faktenbasierte Verständnis des Systems Erde kann die Entscheidung über Wohl und Wehe unserer Zivilisation maßgeblich beeinflussen.
Mehr denn je sind Unternehmen mit immer komplexeren und brüchiger werdenden Kontexten konfrontiert. Gleichzeitig sehen viele Unternehmen auch die enormen Chancen, die durch die digitale Transformation entstehen. Angesichts dessen stellen sich viele Führungskräfte die Frage: Wie schaffen wir den Brückenschlag von einer mechanistischen Organisationsstruktur hin zu einer Unternehmenskultur, die anpassungsfähige Strukturen und Praktiken hervorbringt?
Angelika Bachmann greift mit der Unternehmenskultur einen Managementaspekt heraus, der erfolgreich als Koordinationsmechanismus eingesetzt werden kann, um neue Denkrahmen, Perspektivenwechsel und mutige Entscheidungen zu ermöglichen. Eine Herausforderung ist dabei das Management der Komplexität, die aus den formellen und informellen Interaktionen aller Unternehmensakteurinnen und -akteure entsteht. Kann und sollte man dabei die individuellen Mindsets der Mitarbeitenden und Führungskräfte (wie) verändern? Anhand anschaulicher Beispiele aus ihrer Coachingpraxis gibt sie Impulse, wie Unternehmen ihre Organisation durch die Einführung einer agilen Unternehmenskultur weiterentwickeln, für sich neue Ressourcen erschließen und ihre Selbstorganisationsfähigkeit und Resilienz steigern können. Nicht zuletzt, wie sich eine Fehler-, Vertrauens- und Innovationskultur nachhaltig gestalten und leben lässt.
Dr. Michael Tagscherer, CTO, Giesecke + Devrient GmbH
Ulrich Keller, Financial Controller, Interim Manager, Commerzbank AG
Detlef Frank, Mitglied des Vorstands, HUK24 AG
Dr. Siegbert Martin, CTO, Tesat-Spacecom GmbH & Co. KG
Prof. Dr. Uli Brödl, Head of Global Clinical Development & Operations, Boehringer Ingelheim Pharma GmbH & Co. KG
Prof. Dr. Florian Gantner, Global Department Translational Medicine & Clinical Pharmacology, Boehringer Ingelheim Pharma GmbH & Co. KG
Dr. Margareta Büning-Fesel, Leitung Bundeszentrum für Ernährung in der Bundesanstalt für Landwirtschaft und Ernährung
Walter Märzendorfer, Vorsitzender des Aufsichtsrats, Medical Valley EMN e.V.
Nico Michels, Senior Vice President Engineering System, Fresenius Medical Care AG & Co. KGaA
Hans-Ulrich Wolf, Executive Vice President, Global Head of IT and Data, EVOTEC SE
Dr. Matthias Trabandt, Head of Group IT, Swiss Life AG
Die Petersberger Gespräche 2018 wurden traditionell von Stephan Huthmacher eröffnet, dem Gründer und Vorstandsvorsitzenden der Comma Soft AG. Schon in seinen Begrüßungsworten setzte der Gastgeber den konstruktiven, nach vorne gerichteten Grundakkord. So wies er darauf hin, dass wir in Deutschland leider dazu neigen, allzu schnell nach der Technologiefolgenkostenabschätzung zu fragen. Der Comma-CEO drehte den Spieß um und priorisierte die Frage, wie hoch wohl die „Technologie-Nichteinsatz-Folgekosten“, für unsere Wirtschaft, für den Wohlstand und sozialen Frieden innerhalb der Gesellschaft wären. Huthmacher forderte einen veränderten Mindset, der zum einen neuen Technologien offen gegenübersteht und zum anderen bereit ist, für die Entwicklung einer Schlüsseltechnologie wie der KI entsprechende Ressourcen zur Verfügung zu stellen. Gute Ideen werden erst dann zu Innovationen, wenn sie sich in Produkten niederschlagen. Huthmacher regte daher an, die Zusammenarbeit von Forschungsuniversitäten mit ausgewählten Unternehmen aus der KI-Branche zu forcieren. So könne gewährleistet werden, dass die Ideen und Visionen der klugen jungen Köpfe in smarte Anwendungen umgesetzt und so schneller auf den Markt gebracht werden. Last but not least hob der Gastgeber die wichtige Rolle von KI als Komplexitätswerkzeug hervor, das vor einigen Jahren noch nicht zur Verfügung stand. Die selbstlernenden, algorithmengesteuerten Systeme bieten eine Chance, Lösungen für hochkomplexe Probleme zu finden wie z.B. Klimawandel, Mobilität, Ernährung oder Umweltschutz. Zum anderen minimieren smarte Assistenten eventuelle Blickverengungen von Managern nach innen und außen und tragen dazu bei, dass bei strategischen Entscheidungen der Fokus geweitet wird.
Prof. Dr. Heinz-Otto Peitgen begleitete die Petersberger Gespräche von Anfang an. Mit seinem zugleich aufmerksamen wie nachdenklichen Moderationsstil prägte er den von Neugier und gegenseitiger Wertschätzung getragenen Geist des interdisziplinären Forums. Moderation begrenzt sich bei Prof. Dr. Peitgen nicht nur auf Zusammenfassung und Überleitung. Sie wird vielmehr zum Brückenschlag zwischen den Themen und Vorträgen, der immer auch Kommentar und Inspiration zugleich ist.
Zwischen den Begrüßungsworten und der Keynote spannte der Moderator Prof. Heinz-Otto Peitgen in seinem Kurzvortrag einen „Denkrahmen“ auf und ging dabei auf den grundsätzlichen Unterschied zwischen Kausalität und Korrelation ein. Ihn machte er zum Kennzeichen eines „gewaltigen Umbruchs“. Basierend auf diesem Oppositionspaar unterschied er unser altes, auf den „Ursache-Wirkung-Beziehungen“ basierendes naturwissenschaftliches Weltbild von der neuen Zeit, die dabei sei, das alte Paradigma in vielen Bereichen zu ersetzen. Ihr „Markenkern“ ist die „Korrelation“, wie sie z.B. in Mustern sichtbar wird, die intelligente Systeme in Datenpools erkennen. Das neue Weltbild bietet sich nun als ein Geflecht oder Netzwerk von ineinander gewobenen Korrelationen dar. Im Gegensatz zum naturwissenschaftlichen Weltbild, in dem der Disput und die Argumentation zentral war, sei es seiner Meinung nach im auf Korrelationen setzenden Weltbild sehr schwierig bis unmöglich, sachlich zu argumentieren. Als Beispiel für das Problematische des neuen Weltbilds führte der Chaosforscher die Klimaerwärmung des Planeten an: Hier können die gleichen Korrelationen z.B. zwischen CO2-Anstieg und Erderwärmung sowohl als Beweis als auch als Gegenbeweis für den Klimawandel dienen, d.h., je nach Perspektive gleichzeitig den Befürwortern als auch den Klimaskeptikern als Beweis für ihre gegensätzlichen Positionen dienen. Somit ersetzten Heuristiken, also Methodendiskussionen, den stringenten naturwissenschaftlichen Beweis.
In meinem Vortrag werde ich zunächst einige Argumente für die These vorstellen, dass nur bewusste Lebewesen im eigentlichen Sinne intelligent denken können. Der Ausdruck „künstliche Intelligenz“ ist demnach irreführend. Denn er suggeriert, dass es technische Artefakte gibt, die intelligent sind. Dies setzt aber voraus, dass Intelligenz kein Privileg von Lebewesen ist, sondern auch nicht-biologischen Systemen wie Smartphones, Suchmaschinen oder Industrierobotern zugeschrieben werden kann. Gegen diese Annahme gibt es sehr gute philosophische Argumente, die in der deutschsprachigen Öffentlichkeit bisher viel zu wenig beachtet wurden.
In einem zweiten Schritt werde ich mich dann der Frage widmen, was das Wesen der unter „K.I.“ subsumierten Systeme der Datenverarbeitung ist. Meine Antwort lautet, dass es sich bei K.I. um Denkmodelle, aber nicht um Denkvollzüge handelt. Die K.I. entstand im Rahmen der Informatik, die ihrerseits aus den Errungenschaften der philosophischen und mathematischen Logik hervorgegangen ist. Diese Disziplinen entwickeln idealisierte Denkmodelle, indem sie untersuchen, wie wir denken sollten, um auf optimierte, rationale Weise Probleme zu lösen. Denkmodelle verhalten sich zum Denken dabei wie eine Karte zum Gebiet.
Im digital fortgeschrittenen Zeitalter hat dies gravierende Konsequenzen. So wie die höher aufgelöste Kartographierung unseres Planeten zu dessen Veränderung im Licht menschlicher Überlebensinteressen führt, modifizieren unsere fortgeschrittenen Denkmodelle unsere Art zu denken. Durch die K.I. verändern wir also unsere eigene Intelligenz. Genaugenommen erweist sich die menschliche Intelligenz als die eigentlich künstliche Intelligenz, die sich im Spiegel ihrer eigenen Artefakte transformiert.
Um diese Prozesse kontrolliert und rational gestalten zu können, ist es unerlässlich, eine Philosophie der K.I. zu entwickeln, die sich nicht von den falschen Heilsversprechen des Silicon Valley davon hinreißen lässt, die Digitalisierung entweder als eine anstehende Schreckensherrschaft der Maschinen zu fürchten oder als die Utopie eines posthumanen Zeitalters der kurz bevorstehenden Unsterblichkeit zu feiern. Beides ist letztlich Unsinn, den man durch philosophische Theoriebildung entlarven kann.
Das Human Brain Project ist ein europäisches Flaggschiff-Projekt, das eine ICT-basierte Forschungsinfrastruktur zum Beschleunigen der Forschung in den Bereichen Neurowissenschaft, Future Computing und Robotik durch visualisierende Gehirnforschung entwickelt. Durch die Integration von modernsten Gehirnmodellen in großangelegten Gehirnsimulationen stehen neue Erkenntnisse aus der Neurowissenschaft den Ingenieuren sofort zur Verfügung, die durch eine neuartige cloudbasierte Simulationsumgebung direkt auf alle Modelle und Daten zugreifen können. Die von dem Neurorobotik-Subprojekt entwickelte Neurorobotik-Plattform ist eine Schlüsselkomponente dieser Umgebung, die simulierte Gehirne mit simulierten Robotern verbindet. Das versetzt nicht nur Neurowissenschaftler in die Lage, Gehirnmodelle auf Verhaltensebene in geschlossenen Aktions-Wahrnehmungsschleifen zu studieren, sondern stellt Ingenieuren insbesondere auch ein einzigartiges Toolset für das Entwickeln von neuartiger, vom Gehirn abgeleiteter KI und Maschinenlernsystemen für Roboter zur Verfügung, die mit dynamischen realen Umfeldern interagieren können. Somit ist es ein entscheidendes Tool für die aufkommenden Felder Embodied Learning und Neurorobotik. Der Vortrag gibt einen Überblick sowohl über die Gegenwart und die Zukunft des Human Brain Project als auch die neuesten Ergebnisse aus dem Neurorobotik-Subprojekt.
Kaum ein Ort, ein Prozess oder eine Fragestellung, für die im Augenblick nicht Künstliche Intelligenz (KI) als Allzweckwaffe für Verbesserungen ins Feld geführt wird. Wie steht es da mit KI in der Medizin und den Lebenswissenschaften? Ohne Anspruch auf Vollständigkeit können wir schon heute Bereiche erkennen, in denen die Anwendung von KI zu einem besseren Verständnis biologischer Prozesse, von komplexen Systemen wie dem Immunsystem und dem Nervensystem, oder von Krankheiten und deren Diagnostik führt. Ohne KI sind internationale Forschungsprojekte, wie der Human Cell Atlas oder das europäische Projekt LifeTime zur vollständigen Kartierung aller menschlichen Zellen, nicht durchführbar. Erstmalig werden wir in der Lage sein, alle Zelltypen und deren Funktionalität im gesunden wie im erkrankten Zustand zu kartieren und zu verstehen, aber nur mit dem Einsatz von KI. Die Diagnostik wird durch KI Verfahren der Mustererkennung völlig verändert werden. Das bezieht medizinische Fächer wie Radiologie genauso ein wie die Pathologie, die Mikrobiologie oder die Virologie. Erste Beispiele zeigen auf, welche Rolle KI und welche Rolle Mediziner bei der Diagnose-Findung in Zukunft haben könnten. Letztendlich wird KI auch dazu beitragen, das Leben selbst besser zu verstehen. Die Komplexität aller Systeme einer Zelle, eines Organs, eines Organismus, eines Individuums oder einer Population von Individuen wird nur mit Hilfe von KI umfassend beschreibbar und damit begreifbar werden.
Mit unerwarteter Dynamik hat China in den letzten Jahren den Nimbus einer auf Plagiaten und Technologieklau fundierenden Volkswirtschaft abgelegt. Plötzlich präsentiert sich China als ein Akteur, der in einigen der international als „Zukunftstechnologien“ apostrophierten Technologiebereichen bereits an der Spitze der globalen Innovationsbewegung steht. Gerade bei der Entwicklung von Künstlicher Intelligenz und der Umsetzung von maschinellem Lernen in Massenmärkten stehen chinesische Unternehmen weltweit vorne. Eine wichtige Rolle für diesen rasanten Aufstieg spielt zweifelsohne das besondere Verhältnis, das die Eliten in Partei, Staat und Unternehmen in Chinas modernem Staatskapitalismus zueinander pflegen. In Europa mit Staunen zur Kenntnis genommene, hoch ambitionierte Planvorgaben erweisen sich bei näherer Betrachtung als von den Eliten gemeinsam ausgearbeitete „Businesspläne“, die Innovationsträgern außergewöhnliche Rahmenbedingungen und hohe Investitionssicherheiten schaffen. Können Deutschland und Europa von diesen Strukturen lernen, oder steht das chinesische Modell im Widerspruch zu unseren Werten und Normen? Ist es mittelfristig überhaupt stabil? Und inwiefern können europäische Unternehmen aktuell an der chinesischen Innovationsdynamik partizipieren und von dieser profitieren?
Die Künstliche Intelligenz (KI) ist derzeit eines der Top-Themen in Wissenschaft und Technik. Seit einigen Jahren sehen wir rapide Fortschritte in der KI, die große Erwartungen, aber auch Ängste für die nahe Zukunft in Politik, Wirtschaft und der Bevölkerung geweckt haben. Dies gilt sowohl für Europa, die USA, als auch für China. China ist dafür bekannt, mittels gezielten Investitionen in Wissenschaft und Wirtschaft, sowie einer schnellen und durchgreifenden Gesetzgebung, bestimmte Bereiche zu fördern. Ein Beispiel hierfür ist die „Made In China 2025“ Initiative von 2015, die den Anteil der heimischen Komponenten in High-Tech Produkten von derzeit 40% auf 70% steigern will. Im Juli vergangenen Jahres hat der chinesische Staatsrat den “New Generation Artificial Intelligence Development Plan” verkündet, dessen Ziel es ist, China bis 2030 zum Weltführer in der Künstlichen Intelligenz zu machen. Der Plan beschreibt vielfältige Instrumente, um anhand einheimischer Innovationen eine innovationsgetriebene Wirtschaftsentwicklung zu erreichen. Neben gezielter Wirtschaftsförderung und Gesetzgebung ist ein wichtiger Ansatz dieses Programms, die Entwicklung der einheimischen Wissenschaft und Forschung, sowie die Förderung der inländischen Talente. Des Weiteren gibt es in China auch Tech-Giganten wie Tencent, Alibaba oder Baidu, sowie viele Startups, die, protektiert durch die chinesische Regierung, in KI investieren. Dies weckt im Westen die Sorge, dass China den Westen in der KI-Entwicklung überholen könnte. Prof. Dr. Schwertfeger berichtet über seine Erfahrungen in China, die dortige rapide Entwicklung und Durchsetzung neuer Technologien und der KI.
Die Petersberger Gespräche 2017 wurden traditionell von Stephan Huthmacher eröffnet, dem Gründer und Vorstandsvorsitzenden der Comma Soft AG. Nach der Begrüßung der Vortragenden spannte er einen Bogen von den Möglichkeiten und Chancen der Künstlichen Intelligenz über die Herausforderungen z.B. für den Arbeitsmarkt bis hin zur Frage nach der Vertrauenswürdigkeit von Algorithmen. Wie lassen sich die Ergebnisse der Algorithmen basierten Systeme nachvollziehen, mit denen sie unsere Entscheidungen unterstützen? Wie lässt sich kontrollieren, ob die zugrunde gelegten Daten neutral, diskriminierungsfrei und ohne unbewusste oder manipulative Verzerrungen sind? Wie lassen sich Blackbox-Algorithmen durchleuchten und ihr Rechenprozess transparent machen? Wie könnten Auditverfahren konzipiert sein, mit denen KI-Anwendungen in besonders kritischen Bereichen wie z.B. dem Öffentlichen Dienst oder der Verteidigung auf den Prüfstand gestellt werden können?
Prof. Dr. Dr.-Ing.h.c. Heinz-Otto Peitgen begleitete die Petersberger Gespräche von Anfang an. Mit seinem zugleich aufmerksamen wie nachdenklichen Moderationsstil prägte er den von Neugier und gegenseitiger Wertschätzung getragenen Geist des interdisziplinären Forums. Moderation begrenzt sich bei Prof. Dr. Peitgen nicht nur auf Zusammenfassung und Überleitung. Sie wird vielmehr zum Brückenschlag zwischen den Themen und Vorträgen, der immer auch Kommentar und Inspiration zugleich ist.
Auf dem diesjährigen Forum ging Prof. Dr. Peitgen unter anderem der Frage nach der Vertrauenswürdigkeit von Algorithmen basierten Systemen nach und stellte zur Diskussion, inwieweit Auditierungsverfahren überhaupt notwendig seien. Man würde bereits heute automatisierten und selbststeuernden Systemen Vertrauen entgegenbringen, wie z.B. beim Autopiloten im Flugzeug der Fall. Darüber hinaus schlug Prof. Dr. Peitgen vor, den Begriff „Künstliche Intelligenz“ durch „Cognification“ zu ersetzen.
In 2 Jahrzehnten, so schätzt man – ist es soweit, und Künstliche Intelligenz übertrumpft den Menschen in fast allen Bereichen. Vielleicht erleben wir diese sogenannte Singularität aber schon früher. Werden dann superintelligente Systeme unsere Weltprobleme lösen und die Welt optimal regieren, oder bleibt das ein unerfüllter Traum? Und was passiert mit unseren Arbeitsplätzen? Wird es den Menschen noch brauchen? Werden wir leben wie Götter oder wie Haustiere, oder von Robotern achtlos vernichtet werden wie Ameisen, fragte einst Steve Wozniak, der Mitbegründer von Apple. Wir ahnen schon, dass die Künstliche Intelligenz nicht nur die Wirtschaft, sondern auch die Gesellschaft durcheinander wirbeln wird. Neben der digitalen Transformation braucht es die gesellschaftliche Transformation. Wie aber kann diese aussehen, um fit für die Zukunft zu werden? Ich erläutere, dass wir neue Arten von digitalen Plattformen benötigen, um unsere Gesellschaft nachhaltig und krisenfest zu machen. Um auf ein neues Level von Wirtschaft, Gesellschaft und Kultur zu gelangen, braucht es außerdem eine digitale Transformation des Geld- und Finanzsystems und Maßnahmen, die zu einer nachhaltigen Kreislaufwirtschaft und Sharing Economy führen, damit die begrenzten Ressourcen des Planeten auch in Zukunft reichen. Ich erläutere, dass sich die faszinierenden Möglichkeiten digitaler Technologie nicht mit allgegenwärtigen superintelligenten Systemen erschöpfen, sondern dass die eigentliche digitale Revolution erst noch kommt – jene, die jeden befähigt, bessere Entscheidungen zu treffen, kreativer und innovativer zu sein, sich besser zu koordinieren und zu kooperieren. Ko-Kreation, Ko-Evolution und kollektive Intelligenz sind die Erfolgsrezepte der Zukunft. Europa könnte Weltmarktführer in dieser zweiten Phase der Digitalisierung werden.
Die technischen und konzeptionellen Möglichkeiten zur KI nehmen kontinuierlich zu. Der Reifegrad, die Skalierbarkeit und die Stückkosten für KI-basierte Lösungen erweitern Lösungsräume und Anwendungsszenarien. Veränderungsoptionen für Firmen ergeben sich bei der grundsätzlichen Ausgestaltung des eigenen Geschäftsmodells, auf der Ebene der Prozesse im Unternehmen und bei der Optimierung von Produkten oder externen und internen Services. Die Unterschiedlichkeit der Chancen führt dazu, dass Unternehmen verschiedenartige Voraussetzungen dafür schaffen müssen, die in hoher Geschwindigkeit entstehenden Chancen zu nutzen. Technologiegetriebene Innovation bedeutet immer auch die Überprüfung von Anwendungsszenarien, deren Wirksamkeit und die Möglichkeit zur operativen Skalierung. Die Grenzen des eigenen Geschäftsmodells sind dabei in der Regel neu zu definieren. Ebenso ergeben sich neue Konstellationen zur Zusammenarbeit mit Partnern und die Notwendigkeit zur Ausgestaltung der für die Zukunft wichtigen Kernkompetenzen im Unternehmen. Abgesehen von Firmen und Institutionen, die sich im Kern mit KI beschäftigen, ist das Thema allerdings kein Selbstzweck, sondern immer ein Hebel, um einen gewollten Nutzen zu generieren, der klassisch nicht herstellbar ist.
Was passiert, wenn wir auch die Entscheidungen den Maschinen überlassen.
Nicht nur operative Prozesse und Tätigkeiten werden immer stärker digitalisiert und automatisiert, sondern auch die ur-menschliche Domäne der Entscheidungsfindung.
Entscheidungsträger werden seit vielen Jahren durch eine Datenbereitstellung in Business Intelligence Werkzeugen unterstützt. Doch die reine Verfügbarkeit von Daten führt nicht immer zu stärker faktenbasierten Entscheidungen und reicht in einer zunehmend digitalisierten Welt auch nicht mehr aus, wettbewerbsfähig zu bleiben. Die Analysefähigkeit von Algorithmen und Modellen wird daher momentan so weit ausgebaut, dass ihre Voraussagen und Empfehlungen den menschlichen Entscheidungsträger zunächst immer besser unterstützen, schließlich aber auch überflüssig machen können. Denn die Vision eines datengetriebenen Unternehmens erfordert konsequent auch einen hohen Grad an Entscheidungsautomatisierung. Der Pfad dorthin scheint aufgrund der immer unübersichtlicheren Datengrundlagen und des Druckes auf immer schnellere Entscheidungen ebenso unausweichlich wie problematisch.
Erfolgreich werden diejenigen Unternehmen sein, welche sowohl Potentiale und Chancen der Entscheidungsautomatisierung erkennen und systematisch für sich nutzbar machen, aber auch die inhärenten Risiken und Gefahren verstehen und entschärfen.
Wir stehen an der Schwelle von Technologiewellen, die es in dieser Geschwindigkeit und Wucht so noch nie gab. Chancen für neue Geschäftsmodelle, Chancen, sich anders zu organisieren, sich neu zu erfinden, Chancen am Wettbewerb vorbei zu ziehen – einerseits. Aber gibt es auch Chancen für die Gesellschaft? Welche Herausforderungen müssen wir meistern, um den technischen Wandel auch zum Erfolg für alle Menschen werden zu lassen? Wie können wir in Technik und Gesellschaft dafür sorgen, dass die Utopien wahr werden, nicht die Dystopien? Der Weg dorthin führt über eine Rückbesinnung auf die Ideale der europäischen Aufklärung. Anstatt weiter kleinteilig die neu aufkommenden technischen Merkmale von Systemen reglementieren zu wollen, müssen wir zu einer Ergebnis- und Prinzipien-orientierten Politik der Regulierung zurückkehren. Was fehlt, ist die pragmatische Abbildung der einst erfolgreichen Prinzipien auf die neuen Randbedingungen. Es gilt, die bereits implementierten und erprobten Vereinbarungen unseres gesellschaftlichen Zusammenlebens auch für das „digitale“ Leben in vernetzten Systemen mit Hilfe positiver Denkansätze verfügbar zu machen. Sie sind die dringend notwendigen Stabilitätsfaktoren in der von Fortschritt und Innovation überhitzten, chaotischen Welt.
Mit der digitalen Transformation gehen wir immer schneller auf eine Welt zu, die sich wie wahr gewordene Science Fiction anfühlt. Augmented und Virtual Reality, Big Data und das Internet der Dinge, allgegenwärtige intelligente digitale Assistenten (AI) und künstliche Intelligenz (KI), Deep Learning und Cognitive Computing, die sich exponentiell entwickelnde Digitalisierung, Automatisierung und Roboterisierung werden unsere Welt – und speziell Europa – in den nächsten 5–8 Jahren dramatisch verändern. Ich denke, dies wird zum Großteil positive Konsequenzen haben, was z.B. den Sieg über Krebs oder Alzheimer durch Genetic Engineering oder ein Eindämmen des Klimawandels durch einen radikalen Wandel des Energie-Ökosystems mit einschließt. Eines steht fest: Die kommenden und dramatisch exponentiellen technologischen Sprünge werden fundamentalen Einfluss auf alle unsere Lebensbereiche haben. So zum Beispiel darauf, wie wir arbeiten, was wir wissen und verstehen müssen, wie wir miteinander kommunizieren und uns, unsere Produkte und Ideen vermarkten, wie wir forschen, innovative Produkte und Prozesse entwickeln und wie wir unsere Unternehmen führen. Die zentrale Frage, vor der viele Unternehmen kapitulieren, ist aber: Was daran ist Hype – und wie lässt er sich von einer wahrscheinlich eintretenden Zukunft unterscheiden? Was sind die größten Chancen und Möglichkeiten und was die größten Herausforderungen, die wir erwarten und auf keinen Fall ignorieren dürfen?
Gerd Leonhard vertritt die These, dass sich die Menschheit in den nächsten 20 Jahren mehr verändern wird als in den vergangenen 300 Jahren. Der Vortrag wird die wichtigsten Zukunftsszenarien aufzeigen und mögliche Wege skizzieren, die wir – höchstwahrscheinlich – nicht erst in 20, vielmehr schon in den kommenden fünf bis zehn Jahren gehen werden.
Was tun Sie als Führungskraft, wenn „Industrie 4.0“ auf die Welt der „Internet-basierten Dienstleistungen“ trifft? Sich im Vorstandszimmer darauf berufen, dass man für Mathematik und Technik ja seine Leute hat? Oder sich doch in die technischen Details eingraben? Werden sowohl „Industrie 4.0“ als auch „Internet-basierte Dienstleistungen“ unabweisbare Chancen sein? Oder sollte man diese Themen doch als abzuwendendes Risiko begreifen? Was verändert sich am Werteversprechen Ihres Unternehmens unter den Rahmenbedingungen von „Industrie 4.0“ und „Internet-basierten Dienstleistungen“? Was sind die Aufgaben der Führung, um die erforderliche Technik- und Dienstleistungskompetenz zu definieren? Wieviel Sicherheit ist für das Produkt- und Dienstleistungsangebot erforderlich, wieviel lohnend und wieviel leistbar? Wie sehen Architekturen aus, die die stetige Weiterentwicklung der eigenen Lösungsangebote fördern und zugleich Intellectual Property schützen helfen? Wieviel Dialog mit heutigen Marktbegleitern ist erforderlich, um das gesamte Ökosystem voranzubringen? Ab wann kann Standardisierung nützlich und ab wann hinderlich sein? Wie erkennen Sie mögliche Bedrohungen für Ihr Geschäftsmodell und die Zeit für einen eventuellen Wandel? Welche Grundeinstellung kann dem zugrunde liegen? Wie lässt sich die Vorstellung der „Ambidextrous Leadership“, der Gleichzeitigkeit von Exploitation und Exploration, umsetzen? Welche Kompetenzentwicklung ist für die Mitarbeiter wünschenswert und was heißt das für die Unternehmenskultur? Die Gestaltung dieses Wandels ist die zentrale, wenngleich ungelöste Führungsaufgabe unserer Zeit. Statt aber letzte Antworten zu erwarten, sollte man sich der Auslotung verschiedener Antwortmöglichkeiten hingeben, denn Gewissheit steht erst am Ende des Diskurses.
In den 45 Sekunden, die es Sie kosten wird, diesen Text zu lesen, werden etwa 180.000.000 E-Mails versandt, 125.000 Stunden Video auf YouTube abgespielt und 2.800.000 Facebook-Einträge „geliked“ worden sein. Wir leben in einer Zeit unvorstellbarer Mengen von Daten, die jeden Tag generiert und transferiert werden. Sie sind Manifest des größten Motors, den das, was wir Wirtschaft nennen, jemals gesehen hat: die digitale Revolution. Wir erleben eine radikale Transformation aller Bereiche unserer Gesellschaft, deren Grundlage das Empowerment von mehr und mehr Menschen auf diesem Planeten durch den Uplink zum Netz ist. Es gilt, die Potentiale und Chancen dieser einmaligen Chance für Wohlstand, Gerechtigkeit und Teilhabe auszuschöpfen, für eine Zukunft mit Zukunft. Und es gilt, diese Zukunft vor den Kräften vergangener Systeme zu schützen, die durch anlasslose Massenüberwachung Gefahr laufen, Geschichte zu wiederholen. Nicht zuletzt für die Generation, die zwischenzeitlich 11.000.000 Nachrichten über WhatsApp verschickt hat.
Nach der Elektrifizierung und „Elektronifizierung“ geht der Maschinen- und Anlagenbau mit hohem Tempo in ein Zeitalter der industriellen Digitalisierung und Vernetzung. Die Informations- und Kommunikationstechnik (engl. kurz ICT) sorgt für einen Innovationsschub und erweitert die Möglichkeiten nicht nur der Fabrikautomatisierung. Die Anbieter für Automatisierungstechnik erleben einen Boom und neue Wachstumschancen, weshalb auch Anbieter für Unternehmens-Software und andere ICT-Dienstleister das Produktionsumfeld für sich entdecken. Sich selbst parametrierende Produktionsmaschinen, selbstorganisierende Systeme und Konzepte wie „Cloud Computing“ oder „Big Data“ stellen die alten Konzepte um CIM in den Schatten. Gleichwohl suchen viele der auf Symposien und Kongressen vorgestellten Ideen um Industrie 4.0 noch ihre Nutzer. Nicht alles, was möglich ist, ist auch sinnvoll. Anhand von drei Anwenderberichten und Szenarien, die Ideen aus Industrie 4.0 aufgreifen, soll dargestellt werden, wie diese Suche heute in Industrieunternehmen abläuft und auf welche Geschäftsmodelle sich Anwender, Unternehmen und die Industriegesellschaft freuen dürfen oder worauf sie sich einstellen müssen – ganz wie man will.
Anregende und spannende Gespräche gab es im Anschluss an die Vorträge in der Podiumsdiskussion. Teilnehmer und Referenten diskutierten über das facettenreiche Thema.
Folgt man führenden Vertretern aus Trendforschung, Human Ressources, Unternehmensorganisation oder den Neurowissenschaften, so kann Die Deutsche Kammerphilharmonie Bremen als Modell für ganzheitliches Management dienen und damit für eine Herangehensweise, die den Herausforderungen des 21. Jahrhunderts besonders gut gewachsen ist. Ganzheitliche Konzepte innerhalb von Organisationen tatsächlich auch umzusetzen, gehört mit zu den schwierigsten Aufgaben innerhalb eines zukunftsfähigen Managements. Es erfordert den Mut, in Mitarbeiterführung und Teaming neues Terrain zu betreten und in Dissonanzen, Oppositionspaaren sowie multiplen Managementperspektiven zu denken. Es bedeutet, das Gegensätzliche zusammen zudenken und es ergebnisorientiert und zielführend umzusetzen. Der ganzheitliche Weg ist ein schwieriger, aber lohnender Weg. Er erscheint ohne Alternative, wenn es darum geht, das Potential Einzelner zu entwickeln, sie zu Hochleistungsteams zu verschmelzen und so unisono Spitzenleistungen zu erreichen.
https://www.youtube.com/watch?v=IVWLH-NeQQM
„Our deepest fear is not that we are inadequate. Our deepest fear is that we are powerful beyond measure. It is our light, not our darkness that most frightens us.“ (Marianne Williamson) A man caught between animal and machine. Sins of emotion and sins of ratio. Technology as a servant, technology as a master. The backlash of creations–subject-object reversal in theology, technology, myths and science-fiction. What does science fear? Can we do everything (morally) that we can (technically) or is it more according to „if you can, then you must“? More specifically, how does the crisis of growth-capitalism affect our faith in the pursuit of new and/or better products per se? Is economy (and democracy!)–within our system of market economy–possible without growth? Is growth and the belief in its necessity as a driving force for the wellbeing of our community (prosperity) really just a mere construct? Are there alternatives to growth and the “Insatiability of Capitalism”? And for how long will economy sustain without growth? How should the government and the company behave to tame it‘s manic-depressive tendencies?
Unternehmenslenker erkennen im „datengetriebenen“ oder „digitalen“ Unternehmen ihre Zukunft und ersinnen neue Geschäftsmodelle und Prozesse auf Basis von Big Data. Technologen haben zur Umsetzung dieser Ideen das nötige Instrumentarium in Form von alten und neuen Datenmanagement- und Analysewerkzeugen zur Verfügung. Und doch ist die bessere Nutzung von Daten – dem wichtigsten Rohstoff des 21. Jahrhunderts – selbst in erfolgreichen Unternehmen nicht einfach. Die Befähigung von Menschen und der Umbau der Organisation sind erfolgskritisch, um ökonomische Notwendigkeiten und technologische Fähigkeiten zusammenzubringen. Der Vortrag zeigt aus der Wahrnehmung eines Wirtschaftsinformatikers und Marktanalysten wie Big-Data-Strategien an der Schnittstelle aus fachlichen und technischen Umsetzungsideen scheitern oder erfolgreich werden und wie der Mensch als „missing link“ zwischen Big Data und dem New Business besser einbezogen und unterstützt werden kann.
Anregende und spannende Gespräche gab es im Anschluss an die Vorträge in der Podiumsdiskussion. Teilnehmer und Referenten diskutierten über das facettenreiche Thema "Faktor Mensch: Ökonomie und Innovation im Zeitalter von Big Data".
These: Die Natur des Menschen begründet sich u.a. in der Angst vor dem Versagen oder dem Rückschritt. Ist das der natürliche Antrieb für eine wachsende Prosperität der Wirtschaft und Menschheit im Allgemeinen?
Die Wahrnehmung von Wahrheit. Wie hoch ist das Risiko, im Zeitalter von Big Data, dass Menschen Wahrheiten erzeugen, die keine Wahrheiten sind?
Menschen streben nach dem Sinn ihrer Tätigkeit. Glauben Sie, dass das soziale Miteinander und Engagement Ihres Orchesters ein entscheidender Motivator dafür ist, dass es zu Höchstleistungen fähig ist?
Big Data im Kontext eines realen Business Case: In welchem Verhältnis steht das Kosten-Nutzenverhältnis von analytischen Erkenntnissen zur Erfahrungs- oder Bauchentscheidung?
Woher kommt letztendlich die Innovation: Durch mehr Unternehmertum, werten wir mehr Daten klüger aus oder gibt es einen ganz anderen Ansatz?
https://youtube.com/watch?v=pxdIvsgwPAM%3Flist%3DPLohVXJ3OkvfsGGzsQbooIUzsGIlv2NXeq
Welche Metapher könnten Sie sich vorstellen für die Beziehung Mensch und Big Data, Big Data und Mensch?
Ein Business Case und die damit zusammenhängenden Wettbewerbsvorteile. Die Frage, die sich bei Big Data stellt: Worin besteht ein nachhaltiger Wettbewerbsvorteil? Oder: Gibt es ihn überhaupt?
Wie lange kann dauerhafte Wettbewerbsfähigkeit gut gehen? Wie kann man aus einer stabilen Erfolgsposition heraus verhindern, dass man sich der Innovation gegenüber verschließt?
Statement von Heinz-Otto Peitgen zu Werten und Wertentwicklung in der Weltwirtschaft, auch im Hinblick auf die kulturelle Vielfalt
Faktor Mensch: Welche Beispiele können Sie uns nennen, wo Sie dieses Thema Big Data und Einbeziehung von Mensch schon festgestellt haben?
Ein Vorschlag für eine Metapher: Big Data ist der Informationssauerstoff einer zunehmend digitalisierten Welt. Wer diesen Sauerstoff atmet, wird mehr und Besseres leisten können -- egal, ob Menschen, Maschinen oder Unternehmen.
Ein Dirigent spielt eine große Rolle, sein Orchester zu Hochleistungen zu führen. Wie lautet daher das Führungsverständnis: Wird das Erfolgsmodell für andere Orchester kopiert oder neu erfunden?
Die IT-Verbundgruppe SYNAXON hat seit sieben Jahren Wikis im Einsatz, in denen nicht nur jeder alles sehen, sondern in denen auch jeder alles ändern kann, ohne dass er dafür eine Freigabe braucht. In diesem Wiki hat es bei durchschnittlich 130 Mitarbeitern über 400.000 Änderungen in Organisationsdokumenten gegeben. Dabei ist es nicht ein einziges Mal zu einer Änderung gekommen, bei der Führungskräfte eingreifen mussten. Im Wiki kann nur unter echtem Namen gearbeitet werden. Nun hat SYNAXON die Software Liquid Feedback eingeführt. Hier können alle Mitarbeiter sicher und anonym Initiativen einbringen und darüber abstimmen lassen. Die Unternehmensleitung hat sich verpflichtet, erfolgreiche Initiativen umzusetzen. Sie hat sich lediglich ein Vetorecht eingeräumt. Im Vortrag wird über die Erfahrungen der ersten sieben Monate seit Einführung berichtet.
Dezentralisierung und Autonomie, Mitbestimmung und Selbstorganisation sind Begriffe, die aus der Management-Literatur nicht mehr wegzudenken sind. Die Allgegenwart des Netzes belebt die alte Diskussion erneut: Liquid Democracy ist gefragt, der Ruf nach dem Ende von Hierarchie und Autorität wird laut, und Vernetzung ist das Gebot der Stunde. Andererseits: Starke Führung ist ebenso gefragt, Kontrolle wird gefordert – bis hin zum regulierenden Eingriff staatlicher Organe. Erlebt gar das "klassische Management" eine Renaissance? Wie mächtig darf der Mächtige sein und wie darf er seine Macht einsetzen? Eine eindeutige Lösung wird es nicht geben, eine Balance zwischen den Extremen muss immer wieder neu gefunden werden. Die Systemtheorie kann uns vielleicht helfen, zumindest einige Leitplanken zu entwickeln, mit denen wir ein Abdriften in die Extreme des praktisch nicht mehr Beherrschbaren vermeiden können.
Intuition galt im abendländischen Denken einst als die sicherste Form der Erkenntnis, während sie heute als fragwürdige Richtschnur des Handelns belächelt wird. Unser rationales Dogma ist "erst wägen, dann wagen" und "erst denken, dann handeln". Warum urteilen dennoch Unternehmer immer wieder "aus dem Bauch heraus", und wieso verlässt sich Otto Normalverbraucher bei der Wahl eines Lebenspartners auf Gefühl statt Logik? In diesem Vortrag gebe ich einen Einblick in unsere Forschung, die zeigt, dass intuitive Entscheidungen genauso unverzichtbar sind wie Berechnung und Überlegung. Bauchentscheidungen können sogar zu besseren Ergebnissen führen als komplexe statistische Software-Pakete. Weniger ist oft mehr.
Die meisten Manager wissen, dass Unternehmen und andere Organisationen komplexe, adaptive Systeme sind. Aber wenige verstehen, was dies für die Art und Weise bedeutet, wie Organisationen geführt werden sollten. Komplexitätsdenken bedeutet, dass ein Spektrum von Perspektiven, die miteinander in Konflikt stehen, wertvoller ist als ein einheitlicher Ansatz. Es erklärt, dass für eine kontinuierliche Verbesserung nicht nur Prognosen und Anpassungen erforderlich sind, sondern auch kreative Erkundung (Exploration). Und es besagt, dass Innovation zumeist durch Exaltation geschieht, d. h. durch Abwandlung bestehender Ideen, sodass sie in einen neuen Kontext passen. Das erfolgreiche Führen von Unternehmen im 21. Jahrhundert erfordert ein Verständnis dafür, wie Komplexität bewältigt und genutzt werden kann. Dieser Vortrag umreißt die Möglichkeiten, wie agiles Management die Entscheidungsfindung verbessern kann – und was Manager von Software-Entwicklern lernen können.
The rise of Big Data expresses the most important change in the nature of knowledge since Bacon, or possibly even since writing. Over the past couple of hundreds of years, facts have been granted an increasingly important role in science, policy, and culture. Facts have become the bricks of knowledge – the bedrock that settles all disputes. But, as knowledge increasingly takes on the properties of the network that is its new medium, data are taking on much of the role of facts. The creation of Data Commons in particular is enabling a type of knowing that breaks with tradition in fundamental ways: abundant, never entirely settled, linked rather than contained, and thorougly collaborative. This change in our state of mind about knowledge will affect not just science, but every institution that claims to know what's best for its citizens, customers, clients, patients…
Komplexe Datenmengen gut zu visualisieren, bedarf weit mehr als einer guten "optischen" Darstellung. Das Design ist ein wichtiger Aspekt, aber eben nur ein Aspekt des Ganzen. Mindestens genauso wichtig ist eine klare Story, eine eindeutige Aussage, die hinter dem Design steht. Über die "Geheimnisse" des Story-Tellings in Verbindung mit First-Class Design wird Jonathan Spencer aus dem BBC News Studio berichten und hilfreiche Anregungen für Unternehmen liefern, die Sie in Ihrem Umgang mit Daten unterstützen.
Claudia Sommer berichtet, wie Greenpeace durch Facebook-Kampagnen Resonanz in der Bevölkerung erzeugt und so Nischenthemen in den Mainstream bringt. Die dahinter stehenden Mechanismen und das notwendige Verständnis im Umgang mit Social Media lassen sich problemlos auch auf kommerzielle Themen übertragen. Kern des Vortrages sind Resonanzanalysen: Sommer beschreibt, wie eine Facebook-Kampagne aufgesetzt sein sollte, damit sie Wirkung erzielt, wie die Interaktion und Moderation während der Kampagne aussehen sollte und wie die Ergebnisse verwendet werden.
Bei dem schweren Erdbeben im vergangenen Jahr in Haiti, an das wir uns sicher noch alle erinnern, hatte die Kooperation zwischen Ushahidi und dem Deutschen Roten Kreuz Premiere. Wie das Deutsche Rote Kreuz das aus Kenia stammende Echtzeit-Datenerfassungs- und Visualisierungstool im Krisengebiet genutzt hat, welche Fragestellungen es zu lösen galt und wie es sich auf die Effizienz der Einsatzkräfte und der Einsatzmittel ausgewirkt hat, darüber wird Christian Hörl berichten. Er konzentriert sich dabei auf den potenziellen Nutzen beim Transfer dieser Anwendung auf logistische Fragestellungen in Unternehmen.
Das Zur-Verfügung-Stellen und das Nutzen von Open Data wird aktuell vor allem im Bereich der öffentlichen Hand vielfach diskutiert und auch bereits erfolgreich eingesetzt. Sei es im öffentlichen Nahverkehr, bei der Müllabfuhr, zur Regulierung im Straßenverkehr, im Straßenbau oder auch in verschiedenen Service-Bereichen der öffentlichen Hand. Open Data im kommerziellen Bereich steckt dagegen noch in den Kinderschuhen – Tendenz jedoch stark anwachsend. Das wohl bekannteste Beispiel ist der Minenbetreiber Goldcorp in Kanada. Welche Modelle im Open-Data-Bereich denkbar sind und welchen Nutzwert sie in der kommerziellen Anwendung haben, darüber wird dieser Beitrag aufklären.