Rückschau auf die 16. Petersberger Gespräche
Stephan Huthmacher
Unsere Fusion aus Kongress und Salon bietet zum 16. Mal eine Plattform für Begegnung, Gespräche und Horizonterweiterung.
Ein inspirierender Austausch am Puls der Zukunft
Es ist der 21. September in Bonn, der heutige Samstagmorgen macht dem Herbst alle Ehre und verspricht, ein schöner und sonniger Tag zu werden. In der historischen Villa Hammerschmidt mitten in Bonn versammeln sich heute Entscheider aus Wirtschaft, Wissenschaft und Technologie, um an den von Comma Soft veranstalteten 16. Petersberger Gesprächen teilzunehmen.
Meine Erwartungen sind groß, wie auch meine Vorfreude, besonders nach dem stimmungsvollen Dinner und dem gestrigen Konzert im Rahmen des Beethovenfestes Bonn. Dieser Auftakt mit dem Beethoven Orchester Bonn unter der Leitung von Dirk Kaftan war sehr inspirierend und hat uns auf den heutigen Tag perfekt eingestimmt.
In dem Moment, in dem ich heute dieses immer wieder aufs Neue beeindruckende, an den Rhein grenzende Areal der Villa Hammerschmidt betrete, muss ich nochmals daran denken, warum ich dieses Forum vor nunmehr fast zwei Jahrzehnten ins Leben gerufen habe. Es ist eine großartige Gelegenheit, einmal im Jahr Menschen, Erkenntnisse, Erfahrungen und Ideen aus den unterschiedlichsten wissenschaftlichen Disziplinen, technologischen Bereichen und philosophischen Themengebieten zusammenzubringen. Die Petersberger Gespräche wurden so seit ihrem Start 2005 zu einer Plattform für den Puls der Zukunft und sie sollten noch so manches Thema entscheidend prägen.
Im Laufe der Jahre wurde unser Kongress zum Brückenbauer zwischen all diesen Domänen und Themen, mehr noch, zum ganzheitlichen Forum, an dem sich die jeweiligen Führungspersönlichkeiten miteinander austauschen können. Für mich ist das ein sehr starker Treiber. Denn gerade in Zeiten, die derart unbeständig, volatil und komplex sind und welche die maximale unternehmerische Veränderungsfähigkeit erfordern, halte ich sowohl den fachlich-interdisziplinären als auch den persönlichen Austausch für essenziell.

Die Erwartung
Wenn man so viel Energie in ein Event steckt, wie mein Comma Soft-Team, Moderator Prof. Heinz-Otto Peitgen und ich in die 16. Petersberger Gespräche, sind die Erwartungen an sein Gelingen natürlich groß.
Auch im Jahr 2024 sollte unsere Kombination aus Kongress und Salon wieder als hybrides Ereignis stattfinden: Zum einen als ein vibrierender Ort des Austauschs über zukunftsweisende Technologien, neueste wissenschaftliche Ansätze und Wissenstransfer. Zum anderen – mindestens ebenso wichtig – als ein Ort der zwischenmenschlichen Begegnung: für Gespräche, Diskussionen, gemeinsamen musikalischen Genuss und wertvolle Zeit miteinander.
Das Motto der diesjährigen Petersberger Gespräche
DeepTech-Technologien wie Generative KI und Quantencomputing: Die Themencluster des Vorjahres setzen wir 2024 nahtlos fort. Im Mittelpunkt stehen die Herausforderungen und Chancen, die durch Technologien und Zukunftskonzepte wie die Generative KI, die Entwicklung von Neurochips oder das Industrial Metaverse entstehen. Sie alle verbindet unser diesjähriges Motto: „Veränderungsfähigkeit in der Ära des Auto sapiens. Autointelligente Systeme, Immersion und technologiebasierte Zukunftskonzepte.“
„Willkommen bei den 16. Petersberger Gesprächen!“
In meiner Begrüßungsansprache um 9.00 Uhr gehe ich auf dieses Thema ein und betone, wie wichtig die Veränderungsfähigkeit unserer Unternehmen für ihre eigene Zukunftsgestaltung ist. Dabei ist es mir wichtig, zu betonen, dass es eine Frage der Wettbewerbsfähigkeit ist, neue Technologien wie Generative KI rechtzeitig anzuwenden, dabei ein Neugier-getriebenes Mindset zu schaffen sowie die eigenen Führungskräfte und Mitarbeitenden zu befähigen, mit diesen Werkzeugen zu arbeiten – weit produktiver als bisher. Denn Generative KI bietet alle Vorteile einer niederschwelligen Technologie; damit ist sie prädestiniert für den Mittelstand und Familienunternehmen.
Ich beobachte die technologische Entwicklung sehr genau und bin über unsere eigene GenAI-Lösung Alan direkt in sie involviert. Daher bin ich fest davon überzeugt, dass unser Verhältnis zu den Maschinen immer enger werden wird. Wir können heute unmöglich wissen, welche Formen diese Beziehung vielleicht schon in naher Zukunft annehmen wird, doch eines ist sicher – diese Entwicklung ist unumkehrbar. Daher schließe ich meine Eröffnungsansprache mit der Feststellung, dass es essenziell ist, „dass wir unsere Fähigkeiten als Menschen mit den Fähigkeiten der Maschinen zusammenbringen und neue, produktive Formen der Co-Intelligenz entwickeln.“ Schließlich ist „die KI ist nicht nur gekommen, um zu bleiben. Sie ist auch gekommen, um zum ergänzenden Teil von uns und den Prozessen in unseren Unternehmen zu werden.“
Unmittelbar im Anschluss an meine Eröffnungsansprache übergebe ich das Wort an unseren langjährigen Moderator Prof. Heinz-Otto Peitgen. Die Petersberger Gespräche verdanken ihm, seinem unermüdlichen Einsatz, seinen kreativen Ideen und seiner kunstvollen, kenntnisreichen Moderation sehr viel. Es gäbe unendlich viel über ihn zu sagen – doch möchte ich dieses Thema an dieser Stelle überspringen und am Ende dieser Zusammenfassung darauf zurückkommen.
Ein kleiner Ausblick sei aber erlaubt: Heinz-Otto Peitgen leitete nicht etwa direkt zur Keynote über, sondern schlug einen faszinierenden Bogen über das Thema Mandelbrot-Fraktale und über ein beeindruckendes Video. Näheres dazu berichte ich später, nach meinen Zusammenfassungen der Vorträge. Dort gehe ich auch darauf ein, wie kreativ Heinz-Otto Peitgen seine Liebe zur Musik für die Individualisierung seiner Anmoderation eingebracht hat.
Vortrag #1: Dr. Joscha Bach: Menschlicher Geist und Künstliche Intelligenz
In seiner fesselnden Keynote widmet sich der Kognitionswissenschaftler und KI-Forscher Dr. Joscha Bach einer wichtigen Frage unserer Zeit: Wie nah ist die heutige Technologie daran, die Grenze zum Bewusstsein künstlicher Systeme zu überschreiten?
Um die historische Tiefe dieser Fragestellung zu beleuchten, zieht Bach die Theorien bedeutender Philosophen und Mathematiker heran, darunter: Ludwig Wittgenstein, Alan Turing, Kurt Gödel, Marvin Minsky und Aristoteles als „erster KI-Forscher“. Die Bezüge sind komplex und inspirierend zugleich und laden dazu ein, über die Beziehung zwischen Mathematik, Geist und Materie, Mensch und Maschine neu nachzudenken.
LLMs auf dem Weg zur Geist-Ähnlichkeit
Obwohl die Frage offenbleibt, ob KI-Modelle Bewusstsein erlangen können, betont Bach, dass moderne KI-Modelle bereits über Fähigkeiten verfügen, die sie unserem Geist annähern. So sind sie in der Lage, einen „inneren Monolog und … Selbstreflexion“ zu entwickeln – und „multimodal“: „Das heißt, dass die ganzen Modalitäten unserer Wahrnehmung – Sehen, Sprache, Berührung, Emotionen – alle in einem einzigen Modell in Echtzeit abgebildet sind – und … dieses Modell in Echtzeit mit uns interagieren kann.“
Bach stellt im Laufe seines Vortrags die provokante Frage, ob simulierte mentale Zustände denn wirklich weniger real seien als unsere eigenen. Angenommen, ein LLM wäre in der Lage, zu simulieren, „wie es wäre, wenn da ein bestimmter Gesprächspartner wäre, der sich selbst … zusammen mit der Umgebung wahrnimmt, der einen Selbstreport hat über seine mentalen Zustände.“ Wären „diese simulierten Zustände“ dann wirklich „simulierter als unsere eigenen?“
KI als Co-Intelligenz und Werkzeug für globale Herausforderungen
Zum Abschluss unterstreicht Bach, dass die fortlaufende Entwicklung der KI alternativlos ist. Er lenkt damit die Diskussion auf die entscheidende Frage der Co-Intelligenz – dem idealen Zusammenspiel von Mensch und Maschine: „Sind wir in der Lage, diese Maschinen, die wir bauen, so in das Leben einzubinden, dass sie Teil davon werden können und dem Leben dienen?“
In seinem Schlussappell betont Joscha Bach, dass die KI in erster Linie als Werkzeug zur Lösung globaler Probleme gesehen werden sollte. Unser Umgang mit der neuen Basistechnologie entscheidet über nichts Geringeres als über die Zukunft unserer Spezies: „Für mich ist es eine sehr positive Sicht, weil ohne die KI … diese Gesellschaft, diese Zivilisation … zum Scheitern verurteilt ist.“
Was für ein Schluss-Statement! KI und DeepTech werden zweifellos dazu beitragen, einige der sogenannten Menschheitsprobleme zu lösen – wenn auch möglicherweise neue Herausforderungen schaffen. Das Verhältnis von Geist und KI ist äußerst komplex, doch genau hier liegt auch die Stärke des Forschungszweigs. Er hält uns einen elektronischen Spiegel vor, der uns helfen kann, das Menschliche in uns noch besser zu erkennen. Eine essenzielle Frage aus Joscha Bachs Keynote hallt nach: Wie definieren und gestalten wir als Menschen unseren Umgang mit der Co-Intelligence? Und wo ziehen wir die Grenze zwischen Mensch und Maschine?
Wie schwierig diese Balance ist, zeigt sich nicht zuletzt in unserer Neigung, der KI und smarten Robotern zu vertrauen und emotionale Bindungen zu ihnen aufzubauen. Dabei geht es nicht nur um soziale Roboter, die in Krankenhäusern, Seniorenheimen oder gegen die Einsamkeit eingesetzt werden und in Japan längst Alltag sind. Es geht auch um die suggestive Kraft eines Gesprächs bzw. Chats mit einem der großen Sprachmodelle. Solche Dialoge können leicht vergessen lassen, dass hinter den scheinbar kenntnisreichen und oft einfühlsamen Antworten kein Mensch, sondern eine Maschine steckt – ohne jegliches Verständnis von uns und der Welt.
Das Thema bleibt hoch spannend – und es geht nahtlos weiter. Ich freue mich nun auf den Vortrag von Dr. Sibylle Anderl, Co-Ressortleiterin „Wissen“ bei der ZEIT, der uns mit anderen Aspekten unserer Auseinandersetzung mit der Welt der KI konfrontieren wird.

Vortrag #2: Dr. Sibylle Anderl: Vertrauen und Wahrheit im Zeitalter der KI
Im ersten Teil ihres Vortrags beschäftigt sich die Astrophysikerin, Philosophin und Wissenschaftsjournalistin bei Die Zeit, Dr. Sibylle Anderl, mit der Frage: Wie lässt sich das „Ideal der Objektivität“ in der Wissenschaft beim Einsatz Generativer KI bewahren? Wie schafft Wissenschaft Vertrauen – und wie droht sie es zu verspielen?
Weil die KI anfänglich unkritisch „nicht mehr als Werkzeug, sondern als ernst zu nehmender Kollege“ in den Veröffentlichungen aufgetaucht sei, darf sie inzwischen „nicht mehr als Co-Autor aufgeführt …, sondern muss in den methodischen Abschnitten der wissenschaftlichen Papers ganz klar und transparent aufgeführt werden.“ Dennoch werde die KI in Einzelfällen weiter eingesetzt, ohne ihre Mitwirkung kenntlich zu machen, so beim Verfassen wissenschaftlicher Studien oder bei Gutachten. Fatalerweise seien dies „Stellen im Prozess wissenschaftlichen Erkenntnisgewinns, die ganz zentral wichtig sind für die Zuverlässigkeit von Wissenschaft und entsprechend für das Vertrauen, das wir der Wissenschaft entgegenbringen“.
Unter anderem entsteht laut Anderl darüber hinaus das „Risiko wissenschaftlicher Monokulturen des Wissens“. Dies geschehe durch den unkritischen Rückgriff auf die LLMs und den damit einhergehenden Verlust der „epistemischen Diversität“.
Gleichzeitig erkennt die Astrophysikerin in der KI ein „großes Potenzial, die wissenschaftliche Forschung effizienter … und an vielen Stellen auch besser zu machen.“
Mehr Zeit für die „menschliche Perspektive“ im Journalismus
Im zweiten Teil ihres Vortrags geht Anderl auf den Umgang des Journalismus mit KI ein. Und diskutiert auch die sehr spannende, uns alle betreffenden Frage: „Wird der Journalismus irgendwann überflüssig?“
Die Wissenschaftsjournalistin zeigt sich optimistisch. So gäbe es eine Reihe journalistischer Formen, die gegen die Automatisierung „robuster sind als andere“. Neben Reportagen zähle dazu auch der Investigativ-Journalismus, wo die „menschliche Perspektive“ deutlich gemacht wird. Ferner gibt die Journalistin ihrer Hoffnung Ausdruck, „dass wir durch einen zunehmenden Einsatz von KI im Journalismus wirklich Zeit und Ressourcen sparen können durch Automatisierung und dass uns das Raum und Freiheit gibt, ebendiese anspruchsvolleren Formate“. Zweifelsohne sei die KI daher „jetzt eine ganz, ganz wichtige, weitere Stellschraube und ein wichtiger Faktor, den wir im Blick haben müssen“.
Doch ohne Vertrauen geht es nicht. Dazu Anderl: „Wenn wir eine geteilte Wahrheit weiter haben wollen, wenn wir alle in einer gemeinsamen Welt leben wollen, in der wir miteinander diskutieren können und gemeinsam an Problemen arbeiten wollen, dann erfordert das Vertrauen.“
Für die Medien stellt die Generative KI eine besondere Herausforderung dar, denn sie greift mit ihren Fähigkeiten der Recherche und der Sprachgestaltung direkt in das Kerngeschäft des Journalismus ein. Ähnlich verhält es sich mit der Wissenschaft. Daher freue ich mich auf das nun folgende Gespräch zwischen Anderl und KI-Forscher Bach aus dem Silicon Valley.
Gespräch zwischen Sibylle Anderl und Joscha Bach über die Voraussetzungen für die Akzeptanz von KI im Wissenschaftsbetrieb
Im Fokus des Gesprächs stehen auch einige kritische Themen. Besonders interessant: die Überlegungen Sibylle Anderls und Joscha Bachs zur Akzeptanz der KI bei ihrer Anwendung im Wissenschaftsbetrieb.
So spielt es für Bach „eine große Rolle …, wie weit das Individuum bereit ist, Verantwortung zu übernehmen, zum Beispiel für Ehrlichkeit und Integrität und die auch einzufordern. Aus meiner Sicht ist die Verfügbarkeit und der Einsatz von KI nicht problematisch, sondern die Entscheidungen, die wir diesbezüglich treffen – und wie weit wir für diese Entscheidungen auch Verantwortung übernehmen und uns selbst vor dieser Verantwortungsübernahme dann nicht drücken.“
Die Lösung bestehe darin, eine „neue Vertrauensgrundlage zu schaffen. Wir können den KI-Output nicht konsistent watermarken. Einfach deswegen, weil die Bad Actors keine Watermarks verwenden werden. Was wir watermarken müssen, ist der Output von denjenigen, denen wir vertrauen. Wir müssen den menschlichen Output watermarken.“
Damit geht eine der zentralen Forderungen Bachs einher, und zwar die nach einer einwandfreien Identifizierbarkeit von Herausgeberschaft, Autorenschaft bzw. Urheberschaft: Der „menschliche Herausgeber, Editor, derjenige, der die epistemologische Kette überwacht, der muss identifizierbar sein, damit wir ihm vertrauen können. Der muss mit seinem Namen einstehen, der muss eine Brand haben, die Wert besitzt. Das gilt auch für den Wissenschaftler.“ Bachs Fazit: „Wir müssen zurückkommen zur Verantwortung des Individuums in dem größeren Betrieb.“ Und, so Bach weiter, Vertrauen gibt es nicht ohne Verantwortung: „Das einzelne Individuum muss accountable sein.“
Auf die Frage seiner Gesprächspartnerin danach, wie groß diese Gefahr sei, bleibt Bach nicht ohne Optimismus: „Es wird Systeme geben, die durch den falschen und unverantwortlichen Einsatz der KI sich verschlechtern und auch kaputtgehen. Es wird auf der anderen Seite neue Entwicklungen geben, die im Widerspruch dazu stehen und zu positiven Dingen führen, die wir jetzt auch noch nicht absehen können.“
Künstliche Intelligenz, ob generativ oder klassisch in Form von Deep Learning und Mustererkennung, ist in zweierlei Hinsicht unersättlich: Sie hungert nach immer mehr Daten und nach immer mehr Rechenleistung, verbunden mit einem immer effizienteren Chip-Design. Diesem zweiten „Hunger“ widmet sich der nun folgende Vortrag. Er verspricht, wieder viele neue Erkenntnisse und Anregungen zu liefern – doch wie gut, dass wir uns nach den intensiven Vorträgen des Vormittags in einer entspannten und kommunikativen Kaffeepause erfrischen und sammeln konnten.

Vortrag #3: Prof. Christian Mayr: Neuromorphe Chips, ultraschnelle Neurorechner, bioinspirierte Brain-Machine-Interfaces – wie nahe sind wir an der Gehirnsimulation?
Gleich zu Beginn seines Vortrags erklärt Prof. Christian Mayr, Lehrstuhlinhaber für Hochparallele VLSI-Systeme und Neuromikroelektronik an der TU Dresden, den Grund für die Faszination, die das Gehirn als „Supercomputer“ auf ihn ausübt: „Weil das Hirn die dichteste, die energieeffizienteste und auch eine robuste Informationsverarbeitungsmaschine ist. … Und ich will wissen, warum.“
Mayrs Grundthese: KI ist keineswegs nur ein „Informatik-Thema“. Vielmehr sei „die Explosion der KI vor zehn Jahren … eigentlich ein Hardware-Thema.“ So werde ihre „nächste Evolution mindestens als Hardware-Software Co-Design wiederkommen … die wird nicht rein aus den Algorithmen kommen.“
Schnittstelle zum Gehirn – der Weg zu technologischen Durchbrüchen
Um Fortschritte etwa bei Implantaten zu machen, bleibe nur ein Weg: das „Interfacing zum Gehirn“. Unser Gehirn sei dabei „eine Blaupause für die KI“ und ist „10 bis 100 Millionen Mal energieeffizienter als alles, was wir im Moment an Rechentechnik auf die Strecke bringen“.
Selbst ein Supercomputer mit seinen 100.000 Kernen sei noch viel zu langsam. Der neuromorphe SpiNNaker 2 dagegen, verfügt über 10 Millionen Kerne. Laut Mayr ist da „noch lang nicht Ende Gelände“. Er fordert „ein Paradigma, mit dem sich … so hohe Parallelität, ähnlich wie im Hirn, überhaupt sinnvoll einsetzen lässt“.
Supercomputer taugten kaum dafür, dafür umso mehr das Quantencomputing. SpiNNaker 2 komme in seinen Leistungsdaten da schon sehr nahe, das System sei „praktisch wie ein Quantencomputer, eine GPU, eine CPU, all rolled into one. Das ist eine sehr hybride Maschine. Weil das eben ein bisschen reflektiert, was das Hirn auch macht.“
Energieeffizienz, die mehr ist als nur Stromersparnis
Damit aber Moonshot-Projekte wie Neuroimplantate möglich sind, muss der Energieverbrauch der Prozessoren drastisch reduziert werden. Ein Neuroimplantat, das „einen Teil des Gehirns“ ersetzt, „muss auch in Milliwatt unterzubringen sein, weil ich sonst das Gewebe zu stark erwärme. Das heißt… ich brauche Rechentechnik, die so effizient und so komplex ist, so dicht wie das Hirn, sonst kriege ich auch kein anständiges Implantat zustande.“
Einer der Wege dazu ist verteiltes Rechnen. Das bedeutet, dass ein KI-Rechner sich am „Hirn-Prinzip“ orientiert, wenn eine „spezielle Ressource in irgendeiner Form nicht gebraucht wird, die dieser Prozessor bereitstellt, dann frisst er kein Gras, dann ist er vom Strom abgeschaltet.“
DeepMind ist „seit diesem Sommer in diese Richtung unterwegs“, so Mayr. „[Deren] extrem fokussierte Large Language Modelle machen, dass ich dann für jeden Query … nur ein Tausendstel von diesem Netzwerk in Betrieb nehmen muss.“ Nicht ohne Stolz berichtet der Forscher aus Dresden in diesem Zusammenhang davon, dass Googles DeepMind mit seinem Lehrstuhl kooperiert, um „dieses Ding auf SpiNNaker zu mappen. … Das heißt, die brauchen eine Hardware, die dieses Feingranulare“ darstellt. Eine, die „diese Ressourcen vorhalten und sie nur dann aktivieren kann, wenn sie gebraucht werden – das haben die schlicht und ergreifend nicht.“
Anwendungsmöglichkeiten von Neuroprozessoren
Mayr stellt eine Reihe an Anwendungsmöglichkeiten und medizinischen Durchbrüchen vor, die sich durch die hochleistungsfähigen, parallel rechnenden asynchronen Maschinen eröffnen. Neben der Neuentwicklung von (Cochlea-)Implantaten oder dem „Rückgrat-Überbrücken für Paraplegiker“, hebt Herr Mayr die Bedeutung der Neurorechner für die Wirkstoffforschung hervor. Diese sei um den „Faktor 50- bis 100-mal schneller“ als auf einer GPU. Dieser Leistungsschub eröffne der „personalisierten Wirkstoffentwicklung“ und etwa bei der Entwicklung individualisierter und „perfekter Krebsmittel“ gänzlich neue Möglichkeiten, auch, weil die Entwicklung durch die komprimierte Entwicklungszeit endlich bezahlbar wird. „Wenn wir das von Wochen auf Minuten runterbekommen im selben Rechenzentrum, dann ist das ein Business Case.“
Es ist ein in hohem Maße informativer und dichter Vortrag. Ein Satz bleibt mir besonders in Erinnerung: „Das Gehirn ist eine Blaupause für KI.“ Wenn man Christian Mayr in seiner Aussage folgt, dass das Gehirn zehn bis hundertmal effizienter ist als moderne Rechentechnik, dann wird mir klar, welchen Weg auf Energieeffizienz optimierte KI noch vor sich hat.
Der Vortrag zeigt aber auch, welche Anschlussfähigkeit und wissenschaftliche Potenz wir in Deutschland entwickeln können. Unsere Grenzen setzen wir uns selbst, indem wir solche Entwicklungen nur unzureichend fördern. Die Folge ist, wie Mayr in der anschließenden Podiumsdiskussion anmerkte, dass Investoren aus Übersee dieses Potenzial erkennen und bereits dabei sind, die dringend benötigten Summen zu investieren.
Das spiegelt für mich die Situation in Deutschland vielfach wider. In dieser Hinsicht bemerkt auch Moderator Peitgen aufschlussreich: „[Mayr] ist total überzeugend und ich bin einfach begeistert von dem, was er uns erzählt hat, im Hinblick auf das, was sich in Dresden tut, und wir können hoffen, dass das weitergeht, dass er nicht doch irgendwann abbiegt und ein Flugzeug nimmt und ähnlich wie Herr Bach.“ Daraufhin Mayr: „Echt schlechtes Gewissen hier, ja. Das Flugzeug hat schon angeklopft.“ Mit anderen Worten, wer da „anklopft“, sind Investoren aus Übersee, die den Ausnahmeforscher und sein Team mit besonders attraktiven Rahmenbedingungen zu sich locken.
Nach den drei Vorträgen haben wir uns die Mittagspause redlich verdient. Ich freue mich auf den Gedankenaustausch, vielleicht schon erste Impressionen unserer Gäste – und natürlich auf unseren nächsten Vortrag. Er führt uns in eine noch neue Technologie ein, die alle Merkmale besitzt, um die nächste Basistechnologie zu werden.

Vortrag #4: Nico Michels: The Industrial Metaverse – Hype, Hope or Reality?
Nico Michels, Head of Digital Enterprise bei Siemens Digital Industries Software, macht in seinem Vortrag deutlich, wie sich das Industrial Metaverse von einer Consumer-Anwendung aus dem Gaming zu einer wettbewerbskritischen Basis-Technologie in der Industrie und darüber hinaus entwickelt hat.
Beim industriellen Metaverse geht es laut Michels um eine signifikante Steigerung der Effizienz und Produktivität bei gleichzeitiger Zeit- und Kostenreduktion durch „Modellbildung, Simulation“ und die „Virtualisierung der Ingenieursarbeit“. So seien bei Fabrikplanungen „mindestens 20, 30 Prozent Produktivitätssteigerungen drin durch Vorweg-Simulationen.“ Hinzu kämen die „hohe Flexibilisierung und … Energieeinsparungen in [vergleichbaren] Dimensionen“. Michels führt eine Reihe von fotorealistischen Anwendungsbeispielen auf, etwa Simulationsmodelle einzelner Produkte – wie etwa Prothesen – als auch ganzer Fabriken, die virtuell und in Echtzeit erstellt werden können.
Digital Twins – von Vorabplanung zum operativen Tool
Ursprünglich sollten die digitalen Zwillinge lediglich bei der Planung und Erstellung der Fabrik für einen Sprung an Effizienz und Flexibilität sorgen. Heute erzeugen sie, so Michels, virtuell auch „jeden Morgen quasi eine durchrechnende Fabrik … als wenn man sie wieder komplett neu bauen würde“. Was also früher als „Vorwegplanung“ beim Bau einer Fabrik gemacht wurde, „wird jetzt parallel mitlaufend zum operativen Betrieb der Fabrik gemacht“.
Auf der hyperrealistischen Animation einer bis ins Detail virtuell erstellten Fabrik führt Michels vor: „Hier ist man jetzt in der Lage … mit moderner VR-Technik, verteilt über alle Standorte, diese Fabrik virtuell zu begehen.“ Dies bedeute, „wir treffen uns mit unseren Kollegen von allen Ecken der Welt virtuell in dieser Fabrik und diskutieren Themen.“
Es brauche eine ganze Reihe an „Key-Enablern und …Technologien“, um das Industrial Metaverse nicht nur lokal, sondern auch „über Standorte hinweg“ zu betreiben. Neben den digitalen Zwillingen und dem IoT nennt Michels das Edge- und Cloud-Computing, KI und Machine Learning, XR-Technologien (VR und AR), 5G- und 6G-Netzwerke sowie Blockchain. Über die Technologie hinaus seien auch besondere Skills und die „Befähigung in der eigenen Mannschaft“ unabdingbar.
Realität – statt Hype or Hope
Am Ende des Vortrags gibt der Siemens-Ingenieur darauf eine klare Antwort: „Ist das jetzt ein Hype oder ist das ein Hope? … Ich sage mal, Realität – und für viele Firmen noch ein bisschen die Hoffnung. Aber für uns und auch für unsere Kunden … ist das keine Diskussion mehr darüber, ob man das macht, sondern nur noch, wie schnell man das geordnet ins Unternehmen reinbekommt.“
Vorhin sprach ich vom zweifachen Hunger der KI, dem nach Daten und dem nach immer schnelleren und leistungsfähigeren Chips. Doch es gibt noch ein weiteres Hungergefühl sowohl der KI als auch insgesamt des DeepTech-Bereichs – den nach immer mehr Energie.
Schon bald beträgt der globale Strombedarf der Rechenzentren vier bis fünf Prozent des gesamten Energieverbrauchs, Tendenz ansteigend. Unter Hochdruck suchen Forschungseinrichtungen und Unternehmen nach neuen Konzepten. Diese sieht etwa Google im Betrieb von Mini-Kernkraftwerken, die zuverlässig die benötigte Energie liefern und die Emissionen senken sollen. Eine andere Hoffnung wären hoch energieeffiziente, das Gehirn modellierende Chip-Architekturen wie Christian Mayrs SpiNNaker 2.
Auch wenn es sich dabei um Gigawatt statt Milliwatt wie bei den neuromorphen Chips handelt – im nächsten Vortrag werden wir sehen, dass Energieersparnis und Energiewende auch ohne Kernenergie unter intelligentem Einsatz von Chemie möglich sind.

Vortrag #5: Prof. Robert Schlögl: Wissenschaftsbasierte Konzepte der Energiespeicherung – und damit einer Energiewende 2.0, die umsetzbar ist.
Gleich zu Beginn entfaltet der Chemiker Prof. Robert Schlögl eine tiefgehende Chemie-basierte Argumentationskette und bricht leidenschaftlich die Lanze für ein neues Denken hinsichtlich Energiewende, Energiespeicherung und Entwicklung neuer Kraftstoffe.
Ammoniak – eine steile Karriere vom Düngemittel zum Energiespeicher
Schlögl macht keinen Hehl daraus, dass er Wasserstoff als Energieträger kritisch sieht: Seine Energiedichte sei zu gering und der Transport ineffizient. Umso mehr spricht er sich für Ammoniak als bevorzugten Energieträger der Energiewende 2.0 aus. Ammoniak ist ein Gas, in das der mithilfe von (idealerweise grünem) Strom erzeugte Wasserstoff umgewandelt und gespeichert wird. Am Zielort angekommen, kann dieser wieder in Wasserstoff zurückverwandelt werden.
Dies bringt laut Schlögl einen Effizienzgewinn um den Faktor 2. Seine Prognose: „Ammoniak [wird] wahrscheinlich ein sehr wichtiger Energieträger der Zukunft sein.“ Schafft man es, den dafür benötigten Strom nicht nur grün zu erzeugen, sondern auch dort, wo er aufgrund geografischer und klimatischer Gegebenheiten am günstigsten hergestellt werden kann, so wird es „diesen Weltmarkt für grüne Energie in Form von Ammoniak geben“.
Chemische Batterie aus Methanol
Nicht minder interessant waren die Argumente für den Einsatz von Methanol, ein laut Schlögl „sehr guter Kraftstoff“. Seine Energiedichte beträgt mit 4,8 kWh/l allerdings nur die Hälfte von Diesel. In einer solchen „chemischen Batterie“ stecke demnach um ein Vielfaches mehr Energie als in einer Lithium-Batterie.
Rahmenbedingungen durch den Staat
Nach einem kritischen Exkurs zum grünen Stahl unter Nutzung von Wasserstoff stellt Schlögl zum Schluss seinen 12-Punkte-Forderungskatalog an die Politik vor. Sein wichtigstes Anliegen ist, dass die Rolle des Staates fest definiert ist – und damit auch die Rahmenbedingungen. Niemand, so seine These, wird so hohe Investitionen wagen, deren Abschreibung über 30 Jahre läuft, wenn sich ständig die Rahmenbedingungen ändern. Ferner sei der Staat in der Pflicht, geeignete infrastrukturelle Voraussetzungen zu schaffen: „Das größte Problem, warum die Energiewende nicht weitergeht, ist die fehlende Infrastruktur.“
Schlögls Schlusswort hat es in sich. „Das Allerbeste, was wir tun können mit unserem Geld: Mach eine Energiewende und sorg dafür, dass die ganze Welt davon profitiert.“
Auf mich wirkt der Vortrag sehr dynamisch. Ich nehme in jedem Satz wahr, dass dort vorn jemand steht, der eine klare Vision verfolgt – und eine Mission hat. Diese findet unter anderem in dem bereits erwähnten 12-Punkte-Forderungskatalog an die Politik ihren Ausdruck. (Für weitere Einzelheiten empfehle ich den vollständigen Vortrag auf unserem YouTube-Kanal)
Beispiele für die Umsetzung
Nochmals spannend wird es, als unser Moderator Heinz-Otto Peitgen im Anschluss an Schlögls „Schlussrakete“, wie er den Vortrag wertschätzend nennt, die Frage stellt: „Wie ist es denn mit der Realität … und der Umsetzung?“
Das erste Thema, das Schlögl daraufhin als Realitätscheck aufführt, ist das „Methanolauto“. So werde seit neun Jahren vom Bundesministerium für Bildung und Forschung (BMBF) ein Projekt gefördert, „in dem wir demonstrieren, dass wir aus den Stahlwerksabgasen der Firma ThyssenKrupp das Methanol machen, mit dem dieses Auto fährt“, immerhin „eine Tonne Methanol pro Tag, also … nicht im Labormaßstab“. Das Interesse an dieser Technologie sei groß, bei der Umsetzung sei in Deutschland Eile geboten, mahnt Schlögl. Das Projekt wird durch ein „Industrie-Konsortium“ durchgeführt, das aus 18 Unternehmen und zwei akademischen Partnern besteht, also in einem sehr ernst zu nehmenden, professionellen Maßstab – „das hat nichts mit Doktoranden zu tun“, so Schlögl.
Das zweite Thema sei Ammoniak, der heute schon „an mehreren Stellen in der Welt großtechnisch für Energiespeicherung … produziert“ wird. Schlögl nennt in erster Linie Australien, Chile und die USA. In Europa sei die Stadt Rotterdam der Hauptumschlagsplatz. Sie hat ihren ehemaligen Kohle-Hafen abgerissen und an dessen Stelle einen Ammoniak-Hafen samt Tanks mit einer Lagerkapazität von vielen Millionen Tonnen errichtet.
Soweit zum Ausland. Schlögls Schlussfolgerung für Deutschland: „Die Frage ist, wie wir damit umgehen – und das wird stark davon abhängen, ob es uns gelingt, eine Infrastruktur aufzubauen, schnell genug, dass wir die Anwendung dieses Wasserstoffs und dieses Ammoniaks bei uns demonstrieren können, bevor das andere Länder tun.“
Der Forscher verweist dabei auf das „heftige Rennen mit Amerika“ und die dortige Unterstützung dieses Projekts (ebenso wie anderer zukunftsweisender Projekte und Technologien) durch den Inflation Reduction Act. Wie immer gehen die USA pragmatisch an das Thema heran: „Die Idee ist nicht, so zu arbeiten wie wir, sondern die wollen direkt ganz viele Wasserstofftankstellen bauen und vor allen Dingen ihre Lkws auf Wasserstoff umstellen.“
Die zusätzlichen Informationen, die durch die Frage von Heinz-Otto Peitgen nach der Realisierungsreife angestoßen wurden, ergänzen für mich perfekt den ohnehin schon überaus anspruchsvollen Vortrag von Robert Schlögl und seinen Ansatz für eine Energiewende 2.0. Sie schlagen eine Brücke zur realen Umsetzbarkeit und runden das Thema praxisorientiert ab.
Damit schließe ich meine Zusammenfassung des Vortragsteils und der Gespräche unter und mit den Referierenden ab. Vortrag für Vortrag, Gespräch für Gespräch – was für ein Tag voller inspirierender und bereichernder Momente!
Nun geht es weiter in die Diskussionsrunden, wo wir die Themen des Tages reflektieren und in kleinen Gruppen intensiv diskutieren. Anschließend treffen wir uns wieder, um den Tag mit einem festlichen Dinner abzuschließen. Der krönende Abschluss wartet dann mit einem Jazzkonzert des Iiro Rantala Standards Trio im Rahmen des Jazzfests Bonn auf uns.

Die hohe Kunst der Moderation
Doch möchte ich nicht schließen, ohne nochmals die großartige Moderationsleistung, ja, die regelrechte Ars Moderandi von Prof. Heinz-Otto Peitgen zu würdigen, die er heute einmal mehr unter Beweis gestellt hat. Wie schon so oft hat er auch die diesjährigen Petersberger Gespräche maßgeblich geprägt und sie zu etwas Besonderem gemacht.
Mit leichter Hand und intellektueller Nonchalance verstand er es, nicht nur die Referenten vorzustellen und einzuführen, sondern auch die teils sehr unterschiedlichen Vorträge inhaltlich und thematisch miteinander zu verknüpfen. Das i-Tüpfelchen: Peitgen knüpfte mit seiner Moderation nicht nur ein intellektuelles, sondern auch ein menschliches Band, das den ganzen Vortragsteil des heutigen Tages durchzog.
So sehr auch in den jeweiligen Diskussionen kontroverse Meinungen vorgebracht werden – auch die diesjährigen Petersberger Gespräche wurden von einer großen gegenseitigen Zuwendung und Wertschätzung, von Neugier und echtem Interesse getragen – an den Inhalten und aneinander.
Das gilt für die Petersberger Gespräche insgesamt, doch auf den diesjährigen Petersberger Gesprächen findet seine Moderation ihren kreativen Höhepunkt. Heinz-Otto Peitgen frönte seiner Liebe zur Musik und wählte aus dem musikalischen Fundus für jeden Vortragenden ein eigenes Stück, das ihn und sein Thema besonders charakterisiert. Dieses spielte er zur Einstimmung zwischen jeder Anmoderation und jedem Vortrag ab. Dieses individualisierte musikalische Tagging schlug im Auditorium genauso wie bei den zuerst verblüfften und dann beglückten Vortragenden ein.
Moderator Heinz-Otto Peitgen sorgt für einen Gänsehautmoment
Mit seiner Moderation sorgt Heinz-Otto Peitgen auch für einen unvergesslichen Gänsehautmoment – etwas, das es so auf unserem Kongress noch nicht gegeben hat.
Was war passiert?
Während seiner Anmoderation und vor der Keynote von Joscha Bach zeigte Peitgen ein Video, das in beeindruckender Detailtiefe einen unendlichen Zoom in das sich ständig verändernde und doch gleichbleibende Mandelbrot-Fraktal präsentierte. Damit wollte er in Anlehnung an den Mathematiker Kurt Gödel und als skeptische Vorwegnahme auf den KI-Forscher aus dem Silicon Valley – die Grenzen des „Komputablen“, des Berechenbaren, aufzeigen.
Sichtlich überrascht ging Joscha Bach gleich zu Beginn seines Vortrags spontan auf das Thema Mandelbrot-Fraktale ein. Er erzählte, wie ihn eine GEO-Titelstory in den 1990er-Jahren nachhaltig beeindruckt hat. Diese ausführliche, mit neuartigen Aufnahmen bebilderte Reportage stellte das damals in Europa noch weitgehend unbekannte Mandelbrot-Fraktal vor und weckte seine Neugier. So stark, dass er schon als Schüler begann, sich monatelang mit der Welt der komplexen Zahlen zu beschäftigen. Rückblickend beschrieb er den GEO-Artikel als einen wichtigen Auslöser für seinen weiteren Lebensweg.
Doch damit nicht genug. Etwas Ähnliches berichtete zwei Vorträge weiter Prof. Christian Mayr: „Meine Eltern hatten die GEO abonniert. Und da war mal ein schöner, großer Artikel über Fraktale drin. Da war ich, glaube ich, elf, zwölf. Ich habe mir dann von Mandelbrot dieses Buch ‚The Fractal Geometry of Nature‘ geholt. Und ich bin dann auch teilweise nicht mehr davon losgekommen.“
Der Clou: Nach der Abmoderation von Mayrs Vortrag überraschte unser Moderator Peitgen das Publikum und erst recht Joscha Bach und Christian Mayr, indem er sich als der Autor genau dieses einflussreichen GEO-Artikels vor etwa 30 Jahren outete. Er erzählte von seinen vielen Begegnungen mit Benoît Mandelbrot und den Umständen, die zur Entstehung der Geschichte geführt hatten.
Es ist wohl nicht übertrieben, zu sagen: Mit dieser Veröffentlichung prägte Prof. Heinz-Otto Peitgen nachhaltig den Lebensweg der beiden späteren Top-Wissenschaftler. Bei beiden entfachte er als Jugendliche einen Funken, der heute als Feuer weiterlebt und viel Licht in ihre Fachgebiete bringt.
Dass sich die heutigen Wissenschaftler ausgerechnet auf unserem Forum begegneten und dabei eine solche Verbindung entdeckten, war eine wunderbare Fügung, mehr noch, echte Serendipität. Doch genau solche Begegnungen sind es, die ich mit den Petersberger Gesprächen fördern möchte: Menschen nicht nur miteinander in Kontakt zu bringen, sondern sie auch einander näherzubringen – über die vielen, vielen inspirierenden Eindrücke und Anregungen hinaus, die dieser Tag geboten hat.
YouTube-Kanal der Petersberger Gespräche
Meine Zusammenfassung der Vorträge, Gespräche und Interviews ist längst nicht vollständig. Ich hoffe dennoch, dass sie Sie motiviert, sich die vollständigen Aufzeichnungen der Vorträge nochmals anzuschauen. Besuchen Sie dazu einfach unseren YouTube-Kanal oder unsere Homepage der Petersberger Gespräche auf Petersberger Gespräche 2024. Hier finden Sie auch die Vorträge und Themen der früheren Jahre.
Ausblick
Wie immer gilt: Nach den Petersberger Gesprächen ist vor den Petersberger Gesprächen. Ich freue mich darüber, wie atmosphärisch, inspirierend und inhaltlich relevant unser Kongress auch in diesem Jahr war. Und ich spüre, wie sehr ich jetzt schon in Gedanken bei den 17. Petersberger Gesprächen am 27. September 2025 bin. Ich bin davon überzeugt, dass unser Kongress, wie schon die vielen Jahre davor, erneut einer der Höhepunkte der frühherbstlichen Event-Saison sein wird.