Handlungsfeld 7: KI-SICHERHEIT, BLACKBOX-ALGORITHMEN, KONTROLLE UND DATENQUALITÄT

 

      1. Vertrauen ist gut – ist Kontrolle besser?

        Einerseits Chance, anderseits Risiko – angesichts der Janusköpfigkeit der Künstlichen Intelligenz stellt sich die Frage, wie wir mit den schon heute sichtbaren Schattenseiten der KI umgehen können und sollen. Im Gegensatz z.B. zu einem Motor, den wir auseinandernehmen und in seiner Funktion verstehen oder zum Software-Quellcode, den wir lesen und in seiner Logik nachvollziehen können, liegt das Zustandekommen der Ergebnisse einer KI-Applikation oft im Dunkeln. Oft haben wir nur die Wahl, den Ergebnissen der automatisierten Prozesse ganz zu vertrauen – oder das System gar nicht zu benutzen. Kontrolle ist für Außenstehende nicht möglich.

      2. „Bestärkendes Lernen“ selbständig und kaum mehr nachvollziehbar

        Besonders intransparent erscheint die Algorithmen-Blackbox beim sogenannten „Reinforcement Learning“. Es handelt sich dabei um eine besonders effiziente Methode innerhalb des tiefen Maschinellen Lernens. Zum Training benötigt die KI nur ein Minimum an Daten, reagiert hauptsächlich auf Verstärkung und erkennt allein aufgrund von Feedback, wie weit sie sich dem definierten Ziel genähert hat, um dann ihr Verhalten iterativ anzupassen. Damit erlernt und erwirbt das KI-System Fähigkeiten, ohne dass sie ihm vom Menschen einprogrammiert worden sind.

      3. Kontrollier- und Nachvollziehbarkeit der Algorithmen-Blackbox

        Bei aller Faszination von der Leistungsfähigkeit der Künstlichen Intelligenz – immer deutlicher sehen wir die Gefahr, dass sich diese Lernprozesse mit steigendem Automatisierungsgrad von außen kaum mehr oder nur sehr schwer beeinflussen und steuern lassen.  Mit ihren für Außenstehende (und auch für so manchen Forscher oder KI-Entwickler) verblüffenden Fähigkeiten stellen uns die selbstlernenden Systeme vor die Frage, über welche Methoden und Ansätzen sich intelligente, von Algorithmen gesteuerte KI-Systeme auf ihre Zuverlässigkeit und Neutralität testen und kontrollieren lassen. Ist eine derartige Kontrolle überhaupt möglich? Wie, wo und womit kann man von Außen in Prozesse eingreifen, die automatisiert ablaufen? Geht das überhaupt? Falls was schiefläuft – genügt hier der einfache Ausschaltknopf? Falls ein solcher vorhanden sein sollte – wer ist durch wen dazu autorisiert, ihn zu betätigen?

      4. Automatisierte Entscheidungsvorbereitung und diskriminierungsfreie Daten

        Besonders bei KI-Assistenzsystemen zur Vorbereitung und Unterstützung menschlicher Entscheidungen ist die Kontrolle der KI-Prozesse eine wichtige, wenn auch technologisch, rechtlich und ethisch herausfordernde Aufgabe. Sie muss gelingen, denn je mehr automatisierte, Algorithmen basierte Anwendungen eingesetzt werden und je stärkeren Einfluss sie auf unsere Entscheidungen nehmen, desto mehr müssen wir darauf vertrauen können, dass die ihnen zugrundeliegenden Rechenprozesse neutral und die verwendeten Daten diskriminierungsfrei sind.

      5. Wie einer Algorithmen-Blackbox vertrauen?

        Bezogen auf den Output und das Vertrauen in die Algorithmen Systeme stellen sich uns dabei folgende Fragen:

        • Wie kann man dem Urteil eines autonom lernenden intelligenten Systems vertrauen, das anhand von Daten trainiert wurde, deren Ursprung, Menge und Qualität man nicht kennt?
        • Wie lassen sich die Ergebnisse nachvollziehen, wenn das System alle Daten und Informationen durch Algorithmen verarbeitet, deren spezifische Logik man nicht einsehen und verstehen kann?
        • Wie kann ich einer Blackbox vertrauen?
        • Wie können wir sicher sein, dass die Ergebnisse das sind, was sie zu sein vorgeben – und nicht etwa dazu da, uns zu manipulieren und zu einem bestimmten Verhalten zu bewegen?
        • Wie können wir bei tief und bestärkt lernenden KI-Systemen ausschließen, dass sie sich irgendwann verselbständigen und aufgrund einer eigenen Ziellogik Ergebnisse hervorbringen, die wir weder beabsichtigt haben noch in ihrem Zustandekommen nachvollziehen können?
        • Nicht zuletzt: Lässt sich z.B. das Konzept der Betriebsbewährung, wie es z.B. bei Atomkraftwerken gilt, auch auf die Künstliche Intelligenz übertragen? Dergestalt, dass unüberblickbare und hochkomplexe Systemkonfigurationen als eine Art Blackbox weiterlaufen und funktionieren – und wir so Vertrauen in ihre Zuverlässigkeit fassen?
      6. Kontrolle ist gut – ist Vertrauen besser?

        Bei all den berechtigten Fragen sollten wir für uns jeweils genauestens prüfen, wo Misstrauen gegenüber den intelligenten Assistenten und Systemen angebracht und wo Vertrauen gerechtfertigt ist. Schlussendlich kommen wir nicht umhin, den automatisierten, uns in unseren Unternehmen wie privat in immer stärkerem Maße umgebenden Systemen schon bald ebenso zu vertrauen wie schon heute z.B. Autopiloten in Flugzeugen, intelligent geschalteten Verkehrsampeln oder sonstigen Assistenzsystemen.

      7. KI-Audits, Prüfverfahren und Zertifikate 

        Wir sind der Überzeugung: Vertrauen und Kontrolle schließen sich nicht aus. Um Risiken zu minimieren brauchen wir Kontrollmöglichkeiten sowie unabhängige Test- und Prüfverfahren, Zertifikate und Audits. So wäre z.B. ein ‚Gütesiegel‘ denkbar, mit dem die zugrunde gelegten Daten für den Einsatz in KI-Systemen qualifiziert werden können. Es hätte die Aufgabe, Neutralität und damit Eindeutigkeit, Verzerrungs- und Diskriminierungsfreiheit der Ergebnisse zu bestätigen oder auf mögliche Nebeneffekte und -wirkungen hinzuweisen

      8. „Erklärbare KI“ und die Decodierung der Blackbox 

        Einen möglichen Ansatz  für die KI-Sicherheitsforschung sehen wir in den Ergebnissen des neuen Forschungszweigs der „Explainable AI“ (XAI). Es geht dabei um die Entwicklung von wissenschaftlich abgesicherten Testverfahren darüber, welche Inputdaten ‚gefahrlos’ und welche unzulässig sind. Speziell designte Testverfahren könnten dazu führen, dass man den Anteil der Algorithmen an den Entscheidungen oder Ergebnissen herausdestillieren und so nachvollziehen kann, wie welche Ergebnisse in welchem Prozessabschnitt zustande gekommen sind.

      9. Nutzbringende KI und ethische Richtlinien

        In eine ähnliche Richtung zielt die Initiative „Beneficial AI“ des Future of Life Institutes, der namhafte Wissenschaftler und Unternehmer beigetreten sind. Diese Initiative hat Richtlinien und Prinzipien für die ethisch basierte Entwicklung und den Einsatz von Künstlicher Intelligenz erlassen. Weitere Ansätze fordern wiederum einen allgemeingültigen Wertekonsens für KI-Entwickler sowie -Forscher und schlagen eine Charta aus sinnvollen Prinzipien vor. Demnach müssen die KI-Systeme z.B. fair, zuverlässig und sicher sein, dann die Privatsphäre einschließen, alle Menschen einbeziehen und in Bezug auf Verantwortlichkeit klar adressierbar sein.

      10. Big Data und KI als potentielle „Mathe-Vernichtungswaffen“ 

        Für welche der Verfahren wir uns letztendlich entscheiden – wir sollten die Anwendungskriterien für Big Data und KI-Anwendungen nochmals überprüfen und gegebenenfalls verbindlich definieren. So ließe sich vermeiden, dass sie sich bei unreflektierter Handhabung zu unkontrollierbaren „Weapons of Math Destruction“ (Cathy O’Neil) entwickeln. Damit sind Anwendungen gemeint, deren Algorithmen auf Basis nicht einsehbarer Daten sowie einer für Außenstehende nicht nachvollziehbaren Logik über wichtige Aspekte unserer Existenz mitentscheiden. So liegt eine große Gefahr darin, dass Korrelation und Ursache miteinander verwechselt werden und das Ergebnis einer Datenanalyse und des Rechenprozesses verfälschen.

      11. Datenneutralität für verzerrungsfreien KI-Output

        Verzerrungen in den Daten führen zu Verzerrungen in den Ergebnissen – mit mitunter gravierenden, existentiellen Folgen für die Anwender der KI-Systeme und die Betroffenen selbst. Nicht von ungefähr stellen automatisierte Systeme zur Entscheidungsvorbereitung besonders hohe Anforderungen an die Datenqualität. Damit die „Empfehlungen‘ eines KI-Systems neutral bleiben, müssen die Daten vor allem wert- und diskriminierungsfrei sein. Sie dürfen niemanden z.B. seines Glaubens, seiner Nationalität oder Hautfarbe, des Wohnorts, des Geschlechts oder der sexuellen Orientierung willen bevorzugen oder benachteiligen – auch wenn es sich nicht vermeiden lässt, dass statistische, auf Erfahrung basierende Korrelationen in die Ergebnisse einer KI notgedrungen einfließen müssen, schließlich ist das das Material, anhand dessen sie lernt und ihre Schlüsse zieht.

      12. Verantwortlichkeit, Rechenschaft und Haftung

        Wir befürworten es zwar, wenn Unternehmen, KI-Forscher und Mitarbeiter auf gemeinsame Werte verpflichtet und eingeschworen werden – idealerweise weltweit. Der ethische Aspekt der Verantwortung sollte allerdings um den juristischen Tatbestand der Verantwortlichkeit ergänzt werden – und damit um den der Haftung und Haftbarkeit, wie wir sie von Herstellern anderer technologischer Systeme her kennen. Das Ziel sollte sein: Anwendungen mit Künstlicher Intelligenz müssen für die Anwender berechenbar bleiben und genau das leisten, was zu leisten sie versprechen. Falls nicht, müssen die Menschen und Unternehmen, die diese Systeme entwickeln, zur Rechenschaft gezogen werden können. Auch hier idealerweise supranational oder gleich weltweit.

  1.  
Fehler beim Ausfüllen des Formulars! Bitte überprüfen Sie Ihre Eingaben und versuchen Sie es erneut.

* Bitte alle gekennzeichneten Felder ausfüllen.