Veränderungsfähigkeit in der Ära des Auto sapiens.
Autointelligente Systeme, Immersion und technologiebasierte Zukunftskonzepte.
Veranstaltungsdatum: 21.09.2024
Stephan Huthmacher
„Die größte Gefahr in unruhigen Zeiten ist nicht die Unruhe selbst, sondern das Handeln mit derLogik von gestern.“ Vor dem Hintergrund des rasanten technologischen Wandels und der allgegenwärtigen Digitalisierung zeigt sich, dass der Satz des US-amerikanischen Managementgurus Peter Drucker nichts von seiner Gültigkeit verloren hat. Anders formuliert: Die Unternehmen profitieren nur dann optimal von der Einführung digitaler Technologien, wenn sie ihre eigene n Denkweisen, Strukturen, ihre Prozesse oder gleich ihr Geschäftsmodell gleichzeitig mit verändern. Die Erfahrung zeigt: Wenn die Digitalisierung nicht von innen kommt, kommt die Disruption von außen.
Der mächtige ‚Wind of Change‘ stellt viele Unternehmen vor wichtige Fragen. Es geht um den Kurs, und es geht darum, die richtigen Segel zu setzen, um diesen Wind für sich zu nutzen und das Unternehmen erfolgreich ans Ziel zu bringen. Welche der digitalen Technologien können die eigene Wettbewerbsfähigkeit stärken? In welchen Unternehmensbereichen, in welchem Umfang und vor allem wie sollen sie eingesetzt werden, um die maximal möglichen Zuwächse an Innovation, Agilität und Effizienz zu erzielen?
Die Kardinalfrage lautet allerdings: Wie können wir die Veränderungsfähigkeit und -bereitschaft unserer Unternehmen stärken? Wie können wir mit dem rasanten Wandel in immer mehr Bereichen umgehen? Sind wir bereit für KI-Leadership, Change und Transformation? Bieten unsere Denkweise, unsere Unternehmenskultur sowie die Art und Weise, wie wir unser Business betreiben, die richtigen Hebel für Veränderung? Wie viel von unserer Komfortzone möchten wir aufgeben, um uns zu verändern? Wie können wir die Einführung insbesondere der Generativen KI steuern? Schließlich erfahren wir derzeit die größte Veränderung der Arbeit seit Windows, Office,
Internet, Mobile Computing und der Cloud.
Es steht fest: Die (Generative) KI ist gekommen, um zu bleiben. Sie hat nicht nur die Fragen danach befeuert, ob KI-Systeme jemals ein Bewusstsein haben werden, sondern auch, wie schnell sie sich weiterentwickeln werden. Sie ist so multimodal einsetzbar, dass wir inzwischen so etwas wie ’Beziehungsarbeit’ leisten und unser Verhältnis zu den autointelligenten Systemen neu definieren müssen.
Die Generative KI hat schon jetzt ein so großes Automatisierungspotenzial, dass wir viele Chancen vertun, wenn wir sie nur als Werkzeug betrachten. Richtig angewandt und als Teammitglied verstanden, kann sie zum unverzichtbaren und viel wissenden Agenten werden. Dessen Aufgabe besteht dann zunehmend darin – in unserem Sinne und von uns autorisiert –, selbstständig Entscheidungen zu treffen oder uns bei den Entscheidungsprozessen zu unterstützen. Also im besten Sinn: autosapient zu sein.
Praktisch unter dem Radar des Hype-Themas Generative KI entsteht mit dem Metaverse eine weitere Technologie, die mit hoher Dynamik
zahlreiche Prozesse in Wirtschaft, Medizin und Gesellschaft verändern wird. Dabei kommt dem Industrial Metaverse als disruptiver Zukunftstechnologie innerhalb der produzierenden Wirtschaft eine herausragende Rolle zu. Diese transformative, auf Immersion aufbauende neue Technologie baut mit den digitalen Zwillingen auf ein technologisches Konzept auf, das über die Industrie hinaus anwendbar ist. In der Industrie ist mithilfe dieses KI-basierten und weiterentwickelten Konzepts das industrielle Metaverse jetzt schon dabei, Ideenfindung, Entwicklung, Planung, Umsetzung und Wartung von Produkten, von ganzen Produktionsstraßen und sogar Fabriken von Grund auf zu verändern. Und dies ist nur der Anfang.
Sowohl die Generative KI als auch das (industrielle) Metaverse sind auf immer leistungsfähigere Prozessoren und auf innovative Spezial-Architekturen angewiesen, die zum Beispiel auf einem Co-Design von Hard- und Software aufbauen. Neuromorphe Chips und biologisch inspirierte „KI-Maschinen“ erweisen sich nicht nur als sehr schnell. Mit ihren Billionen von synthetischen Neuronen sind sie so komplex, dass sie in der Lage sind, das Brain-Machine-Interface nachhaltig zu verändern.
Alle Technologien benötigen Rechenleistung, und diese wiederum enorm viel Strom. Daher wird fieberhaft nach Technologien und Konzepten gesucht, wie die benötigte Energie möglichst günstig und nachhaltig zur Verfügung gestellt werden kann. Neue, realitätsbezogene und chemiebasierte Konzepte einer nachhaltigen Energiegewinnung begründen das Konzept einer Energiewende, die wirtschaftlich und vor allem machbar ist. Wie schafft man es, angesichts des Dauerfeuers täglich neuer Nachrichten das Informationsrauschen von den Tatsachen, den Zahlen, Daten und Fakten zu unterscheiden? Qualitätsmedien sind dabei unverzichtbar: Sie sortieren, prüfen, analysieren und filtern die vielen diffusen News und bieten Orientierung. Über all dem schwebt die Frage: Gibt es noch so etwas wie eine verbindliche gemeinsame Realität? Wer legt wann fest, was als real zu gelten hat? Wie geht der seriöse Journalismus mit diesem Rauschen um, damit er nicht selbst Gefahr läuft, von ihm verschluckt zu werden?
Ich wünsche uns sehr, dass wir mit unserer diesjährigen Themenauswahl und den hochkarätigen Vortragenden einen signifikanten Ausschnitt unserer sich ständig wandelnden Realität in vielen interessanten Facetten beleuchtet haben und wünsche uns einen anregenden Austausch und viele inspirierende Gespräche.
Geist und Künstliche Intelligenz
Künstliche Intelligenz wird gegenwärtig zumeist als Maschinelles Lernen verstanden. Im Schatten von ökonomisch und sozial einflussreichen Aspekten von praktisch realisierter, ingenieurswissenschaftlicher KI-Forschung stellt die Idee der Künstliche Intelligenz aber auch den zeitgenössischen Ausdruck eines radikalen und bedeutsamen philosophischen Projekts dar: Wie sind Geist, Bewusstsein und Intentionalität in der Natur realisiert? Wie lassen sie sich mathematisch fassen und als kausale Strukturen charakterisieren? Nahezu unreflektiert vom traditionellen philosophischen Diskurs hat die KI bemerkenswerte praktische Fortschritte auf dem von Aristoteles, Leibniz, Frege, Piaget und Wittgenstein eingeschlagenen Weg gemacht. Es ist nicht unbedingt einfach, diesen Fortschritt angemessen zu charakterisieren und zu bewerten, zumal Psychologie und Neurowissenschaft dazu neigen, die Natur von Geist und Bewusstsein in Ermangelung geeigneter Methoden und Begriffe zu ignorieren. Die kognitionswissenschaftliche Perspektive von „Geist als Maschine“, die der KI zugrunde liegt, wird in unserem Kulturraum vor allem als eine unzulässige Verkürzung unseres lebendigen, kreativen Bewusstseins und unserer spirituellen Erfahrung auf ein mechanistisches, robotisches Menschenbild wahrgenommen. Dr. Joscha Bach möchte einerseits zeigen, dass es sich dabei um ein Missverständnis handelt und wie wir die Konzepte der KI benutzen können, um eine moderne Metaphysik des Geistes zu entwickeln. Andererseits will er der Frage nachgehen, was heutigen KI-Systemen zum autonomen, sich selbst vervollkommnenden Geist fehlt, ob KI Bewusstsein braucht und welche ethischen Konsequenzen sich daraus ergeben.
Vertrauen und Wahrheit im Zeitalter der KI: Zukunftsperspektiven für Journalismus und Forschung
Nicht zuletzt die Pandemie hat uns vor Augen geführt, wie wichtig es im Angesicht großer globaler Herausforderungen und Krisen ist, dass die Öffentlichkeit verlässliche und fundierte Informationen erhält. Partizipation in demokratischen Gesellschaften erfordert nicht nur das Wissen darüber, wie unsere Welt beschaffen ist, sondern auch, wie wir sie gestalten können und welche Folgen und Risiken das mit sich bringt.
Wissenschaftliche Forschung als Produktionsstätte von Wissen und Wissenschaftsjournalismus zur Kommunikation dieses Wissens in die Öffentlichkeit spielen hier zentrale Rollen – und müssen sich vor dem Hintergrund der Generativen KI-Technologien gleichzeitig in diesen Rollen völlig neu finden und definieren. Angesichts der unüberschaubaren Fluten widersprüchlicher, unvollständiger, verzerrter oder schlicht falscher Informationen, denen wir täglich ausgesetzt sind, droht der Verlust einer gemeinsamen gesellschaftlichen Realität als Handlungsbasis.
Die Existenz und das Verständnis solch einer Realität war bislang eng mit dem Vertrauen in Experten und Medien verknüpft. Das aber scheint nun zusehends zu erodieren. Was bedeuten diese Entwicklungen für den Forschungsbetrieb und die Kommunikation und Vermittlung seiner Ergebnisse? Welche Veränderungen sind nötig, damit der Journalismus weiterhin seine wichtige gesellschaftliche Rolle erfüllen kann? Und welche Chancen liegen gleichzeitig in der fortschreitenden Automatisierung, die KI heute möglich macht?Neuromorphe Chips, ultraschnelle Neurorechner, bioinspirierte Brain-Machine-Interfaces – wie nahe sind wir an der Gehirnsimulation?
Die Frage ist nicht neu, dafür angesichts der exponentiell gestiegenen Bedeutung der Künstlichen Intelligenz aber umso drängender: Wird die Forschung jemals in der Lage sein, das menschliche Gehirn mit seinen 100 Milliarden Nervenzellen und 100 Billionen Synapsen zu simulieren? Am Lehrstuhl für hochparallele VLSI-Systeme und Neuromikroelektronik nähern sich Prof. Dr.-Ing. Christian Georg Mayr und sein Team mit ihren ultraschnellen Neuroprozessoren und künstlichen „Neuronen“ der lange als unlösbar geltenden Komplexität des menschlichen Gehirns immer mehr an. Allein in ihrem bisher als existierenden Prototyp vorliegenden „Spinnaker-2“-Rechner werden im Endausbau fünf Millionen Arm-Prozessoren rund zehn Milliarden Neuronen und zehn Billionen Synapsen simulieren. Die Erwartungen des Teams um Prof. Mayr sind daher hoch, dass er mit seinem Ansatz der bioinspirierten Künstlichen Intelligenz die KI auf eine neue Leistungs- und Effizienzstufe heben wird. Mithin also Algorithmen und Hardware von Superrechnern am Beispiel des Gehirns auszurichten und damit etwa pharmakologische Wirkstoffentwicklung, Optimierungsalgorithmen im Smart Manufacturing, oder große Sprachmodelle um Größenordnungen schneller berechnen zu können.
In seinem Vortrag wird der Wissenschaftler auch darauf eingehen, was sich aus gehirninspirierter Rechentechnik wiederum für neuartige Ansätze für Schnittstellen zwischen den Nervenzellen und der Elektronik (Brain-Machine-Interface) finden lassen. Ein natürlicher Sinn (Tasten, Sehen, Hören) liefert ins Gehirn eine typische Datenrate bis 1 Mbit/s. Die besten aktuellen Cochlear- oder Retinaimplantate erreichen 100 Bit/s. Auch hier liegen also mehrere Zehnerpotenzen zwischen der natürlichen „Sprache“ des Gehirns und unseren derzeitigen Interpretationsansätzen. Es ist übrigens kein Zufall, dass die Spinnaker-Plattform im Rahmen des europäischen „Human Brain Projects“ entstanden ist und weiterentwickelt wird. In diesem und ähnlichen Projekten arbeitet Prof. Mayr eng mit Neurowissenschaftlern, um sowohl vom Gehirn für neuartige Rechneransätze inspiriert zu werden als auch diese Rechneransätze wieder in der neurobiologischen Forschung (etwa bei den Implantaten) einzusetzen.
The Industrial Metaverse – Hype, Hope or Reality?
Als im Jahr 2021 Meta seine Vision des Metaverse vorstellte, wurde dies als ein mutiger Vorstoß in die Virtualisierung unserer Lebenswelt und in eine erweiterte Benutzererfahrung gewertet. Er zielte hauptsächlich auf den Spiele-Kontext und verlor schon bald sein Momentum. Dies so sehr, dass im vergangenen Jahr bereits der „Tod des Metaverse“ verkündet wurde.
Blieb das Social Metaverse im „Hype“ stecken, hat mit dem industriellen Metaversum eine neue transformative Technologie ihren Realitätscheck mit Auszeichnung bestanden. Im Gegensatz zum sozialen Metaverse geht es seiner industriellen Spielart darum, einen gemeinsamen virtuellen Raum zu schaffen, um Aufgaben und Probleme in der realen Welt zu lösen. Dabei steht dieses Konzept erst am Anfang und ist nicht allein auf industrielle Anwendungen beschränkt, wie der Einsatz der digitalen Zwillinge in der Medizin und in anderen Bereichen zeigt.
Im Zentrum steht die bereits länger bekannte Technologie der digitalen Zwillinge. Sie wurde durch fortschrittliche KI, leistungsstarke Rechner, modernste Sensoren und 3D-Scanner weiterentwickelt. Die Möglichkeit, die reale Welt in einem digitalen Gegenstück selbst mit ihren physikalischen Eigenschaften 1:1 abzubilden, ermöglicht eine fundamentale Neugestaltung traditioneller Prozesse wie Produktentwicklung, Planung und Implementierung von Produktionsstraßen und sogar ganzer virtueller Fabriken. Diese Möglichkeit der iterativen Entwicklung hin zur optimalen Lösung ermöglicht eine neue Größenordnung an Innovation, Flexibilität, Effizienz, Schnelligkeit sowie an Kosten- und Ressourcen-Ersparnis.
Nico Michels wird die Grundelemente dieser transformativen Technologie vorstellen und an realen Beispielen aufzeigen, wie man zu einer sinnvollen und wertstiftenden Verwendung des Industrial Metaverse kommt.
Wissenschaftsbasierte Konzepte der Energiespeicherung – und damit einer Energiewende 2.0, die umsetzbar ist.
An der Dekarbonisierung und am Umstieg auf erneuerbare Energien führt längerfristig kein Weg mehr vorbei. Das Problem: Grüne Energie haben wir zwar im Überfluss, aber zur falschen Zeit und am falschen Ort. Das Einzige, womit wir die Volatilität als den eigentlichen Engpass grüner Energie adressieren können, ist die Lösung des Speicherproblems.
Damit eine Energiewende 2.0 gelingt, muss die Chemiewissenschaft mit einbezogen werden. Der zentrale Gedanke ist, den Wasserstoff dort zu erzeugen, wo die natürlichen Voraussetzungen für grüne Energie besonders günstig sind – in der Regel außerhalb Deutschlands und der EU. Wie bringt man den Wasserstoff zu uns? Indem der Energieträger dort in einem zweiten Schritt in Ammoniak als chemischem Träger mit einer besonders hohen Dichte gebunden wird. Damit wird er transportabel und lässt sich problemlos an die Orte bringen, an denen er benötigt wird.
Eine chemische Batterie hat eine 150fach höhere Energiedichte als die herkömmliche Silizium-Ionen-Batterie. Damit ließen sich Volatilität und Speicherung als die Hauptprobleme erneuerbarer Energien realistisch lösen. Zugleich ist der Vortrag ein Plädoyer für eine gesamtsystemische Betrachtung der Energiewende. Zu ihren Grundlagen gehört auch die CO2-Rückgewinnung als neuer Energiequelle für die Industrie. Dies geht nur über die Begründung eines Kohlenstoffkreislaufs, der mit einer fundamentalen Neubewertung des heutigen Abfallproduktes CO2 einhergehen wird.
Prof. Schlögl macht deutlich, dass eine Energiewende 2.0 nur Hand in Hand mit wissenschaftlicher Erkenntnis und der aktiven Bündelung der Politik im globalen Maßstab realisiert werden kann. Vor allem muss der Staat die Rahmenbedingungen dafür schaffen, dass die privaten Akteure die Energiewende vollziehen und aktiv an ihr mitwirken.