Was wir von KI-Modellen für Extremwetterfolgen über den Umgang mit KI allgemein lernen können
Markus Pössel
Es wird niemanden überraschen, dass maschinelles Lernen und künstliche Intelligenz ein wiederkehrendes Thema beim diesjährigen Heidelberg Laureate Forum waren – von den Vorträgen der Preisträgerinnen und Preisträger über das Workshop-Programm bis hin zu einem kurzen Einblick in die Nutzung von KI durch SAP bei der Freitagssitzung auf dem SAP-Campus. Ein Beispiel, das ich besonders interessant fand, kam in der „Hot Topic“-Diskussion über den Klimawandel zur Sprache, und zwar als Teil der Arbeit eines der Diskussionsteilnehmer, Jakob Zscheischler vom Helmholtz-Zentrum für Umweltforschung. Zscheischler untersucht „zusammengesetzte Wetter- und Klimaereignisse“ – kurz gesagt, negative Auswirkungen wie Waldsterben, Ernteausfälle oder besonders große Waldbrände, die durch eine Kombination von Faktoren, einschließlich des Klimawandels, entstehen. Wie aber beeinflussen die Teile des komplexen Mixes aus verschiedenen Triebkräften die negativen Folgen? Das ist die große Frage.
Heutzutage ist naheliegend, bei der Suche nach einer Antwort an KI oder maschinelles Lernen als mögliches Werkzeug zu denken. Maschinelles Lernen ist sehr gut darin, für komplexe Situationen dieser Art gute Vorhersagen zu treffen, also etwa als Input die entsprechenden Umweltbedingungen (im weitesten Sinne) zu bekommen und dann auszugeben, welche Folgen zu erwarten ist. Allerdings ist ein Modell, das so etwas leisten kann, für sich genommen erst einmal eine Blackbox: Der Computer wird auf einen bestimmten Datensatz trainiert, bildet die Verbindungen seines inneren neuronalen Netzes bzw. seiner inneren neuronalen Netze, und nachdem das Training abgeschlossen ist, wird das resultierende System auf neue Daten angewendet. Man kann testen, wie gut das System ist, z. B. bei der Extrapolation aus den gegebenen Daten oder bei der Ableitung von etwas Bestimmtem aus den Daten, indem man einige bekannte Daten, die nicht im Trainingssatz enthalten waren, zum Testen zur Seite legt. Die eigentliche Arbeit führt das System im Verborgenen aus.
Einblicke in die Blackbox
Insofern: Selbst wenn man sein Modell durch eine entsprechende Lernphase erfolgreich dazu gebracht hat, den richtigen Umwelt- und anderen Bedingungen die richtigen Folgen zuzuordnen – ist das Modell damit mehr als “nur” ein heuristisches Werkzeug? Sollte das Modell darüber hinaus Teil der wissenschaftlichen Forschung sein, stoßen wir auf einen Widerspruch. Für die Forschung ist entscheidend, dass wir verstehen, was vor sich geht. Ein „dieser Teil unseres Arguments ist eine Blackbox“ ist an dieser Stelle inakzeptabel; nicht grundsätzlich anders als der berühmte Cartoon von Sidney Harris, bei dem ein mathematischer “Beweis” als Schritt 2 “Und dann geschieht ein Wunder“ enthält. Oder mit einem moderneren Beispiel illustriert: Wir wollen nicht das Forschungs-Äquivalent eines KI-generierten Pilzführers.
Vorhang auf für das interpretierbare maschinelle Lernen, interpretable machine learning (IML)! Dabei wird das Modell, das gelernt hat, z. B. Umweltbedingungen mit negativen Auswirkungen zu verknüpfen, als das Gegenteil einer Blackbox behandelt. Es geht darum, zu verstehen, wie das Modell funktioniert und wie wir die Verknüpfungen verstehen können, die es während seiner Lernphase zwischen den verschiedenen Umweltbedingungen einerseits und den Folgen andererseits hergestellt hat. Auf der einfachsten Ebene ist das die verallgemeinerte Version eines ganz klassischen Vorgehens: Man findet eine lineare Korrelation zwischen zwei relevanten Größen und versucht daraufhin, den zugrundeliegenden Mechanismus zu ergründen, der zu dieser Korrelation führt.
Der Vorteil von maschinellem Lernen besteht darin, dass das Modell, sobald es seine Lernphase abgeschlossen hat, ja direkt zur Verfügung steht, und man es testen, seinen Output in Abhängigkeit von verschiedenen Eingaben analysieren und ganz allgemein damit experimentieren kann. Eine Reihe von Analysemethoden des IML beruhen auf genau dieser Art von virtuellem Experiment: Man variiert die Eingabeparameter ein klein wenig und beobachtet, wie sich dadurch die Ausgabe verändert. Auf Grundlage der sich ergebenden “Karte von Abhängigkeiten” (genauer: Gradienten) kann man dann Interpretationen formulieren, was das Modell im Hintergrund tut. Andere Methoden versuchen, einem Modell wie einem neuronalen Netz sozusagen direkt „unter die Motorhaube“ zu schauen: Was passiert während der verschiedenen Schritte zwischen Input und Output? Welche Aktivierungsmuster lassen sich in den verschiedenen Ebenen erkennen, und wofür könnten sie im Zusammenhang mit der physikalischen Situation stehen, die das Modell kodieren soll?
Die Notwendigkeit einer konstruktiv-skeptischen Grundhaltung
Das IML-Beispiel ist dabei nur Teil eines deutlich größeren Gesamtbildes, eine mögliche Variante einer „konstruktiv skeptischen“ Haltung gegenüber den Blackboxes von maschinellem Lernen bzw. KI. Wir täten gut daran, uns solch eine Haltung ganz allgemein zu eigen zu machen. Die betreffenden Modelle, ob sie nun gelernt haben, Umweltursachen und ihre komplexen Folgen zu verknüpfen oder Texte auf der Grundlage großer Sprachmodelle zu extrapolieren, sind in erster Linie Werkzeuge. Aber sie sind von Natur aus keine Werkzeuge, die ihre Begründungen, ihre Argumente oder irgendeinen Einblick in die Art und Weise, wie sie zu ihren Ergebnissen kommen, in einfach auslesbarer Weise mitliefern würden.
Das heißt nun aber: Wann immer Verlässlichkeit, Belastbarkeit und Verifizierbarkeit der Ergebnisse wichtig sind, müssen wir selbst die nötige zusätzliche Arbeit leisten. Das gilt bei IML oder auch in einfacheren Situationen, etwa bei der Überarbeitung einer automatischen Übersetzung – dieser Text hier beispielsweise ist eine von mir überarbeitete Version der von DeepL erstellten Übersetzung der englischen Fassung des Blogbeitrags. Dieser zweite Schritt, diese Extra-Arbeit wird umso wichtiger, je gefährlicher die Folgen sind, wenn das Modell etwas zusammenfantasieren würde, was jenseits der Realität liegt – siehe das Beispiel mit dem Leitfaden für (angeblich) essbare Pilze. Ob wir die zusätzliche Arbeit vernünftig einplanen und erledigen oder ob wir uns blind (und möglicherweise technikgläubig) auf die Ergebnisse solcher Modelle verlassen, dürfte darüber entscheiden, ob die neuen Werkzeuge im Endeffekt mehr Schaden unserer Welt anrichten als sie Nutzen bringen.
The post Was wir von KI-Modellen für Extremwetterfolgen über den Umgang mit KI allgemein lernen können originally appeared on the HLFF SciLogs blog.