Zur
Bedeutung der theoretischen Meteorologie und Klimatologie bei der Erforschung
der Atmosphäre und bei der Beurteilung von Geoengineering-Maßnahmen
Was
Begriffe wie "Theorie" oder "Hypothese" bedeuten, wird
höchst unterschiedlich beurteilt, wie man z.B. sieht, wenn man etwa die
entsprechenden Diskussionsseiten bei Wikipedia anklickt. Umgangssprachlich
werden "Theorien" und "Hypothesen" oftmals als Gegensätze
zu "Tatsachen" und "Wahrheiten" angesehen. Diese Sichtweise
widerspricht vollständig den naturwissenschaftlich Möglichkeiten. Popper (1934)
hat bewusst gemacht, dass die Methode der Naturwissenschaft gar nicht darauf
hinauslaufen kann, "Tatsachen" und "Wahrheiten" zu
beweisen, sondern "nur" darauf, durch experimentelle Befragung der
Natur "Theorien" und "Hypothesen" zu erhärten. Dass
allerdings die Begriffe "Theorie" und "Hypothese" völlig
gleichwertig sind, wie im obigen Satz spontan angenommen, wird auch innerhalb
der Naturwissenschaft nicht immer so gesehen. Mir sind in zahlreichen Lektüren
hauptsächlich zwei abweichende Ansichten aufgefallen:
1)
Theorien und Hypothesen unterscheiden sich durch die Anzahl und die Güte der
bereits erfahrenen experimentellen Erhärtungen:
Theorien sind empirisch besser erhärtet als Hypothesen.
2)
Theorien und Hypothesen unterscheiden sich durch die Allgemeinheit ihrer
Aussagen (unabhängig davon, wie sehr sie bereits empirisch erhärtet worden
sind): Theorien beschreiben ein Zusammenwirken mehrerer Hypothesen, wodurch sie ein höheres Erklärungspotenzial
erhalten.
Offenbar
können nicht gleichzeitig beide Unterscheidungsmerkmale gelten, so dass ich
persönlich gleiche oder ähnliche Definitionen für beide Begriffe bevorzuge, wie
ich es auch in den nachfolgenden Ausführungen tun werde.
Richtig ist, dass Fortschritte in den Naturwissenschaften eines erfolgreichen Zusammenspiels zwischen Theoriebildungen und Experimenten bedürfen. Genauer gesagt, wird erst durch dieses Zusammenspiel ermöglicht, "Hypothesen" aufzustellen, welche so lange als "gültige theoretische Naturbeschreibungen" gelten, wie sie durch Experimente nicht "falsifiziert" werden können (Popper 1934). Eine "Nicht-Falsifizierung" ist aber keine Verifizierung, denn sie schließt nicht aus, dass bei einem anderen Experiment (z.B. unter anderen Anfangs- und Randbedingungen oder unter anderen sonstigen Grenzbedingungen) doch eine Falsifizierung erfolgen könnte. - Man kann das umständliche Wort "Nicht-Falsifizierung" durch die Begriffe "Evaluierung" oder "Validierung" der Theorie ersetzen, oder auch durch das oben schon benutzte anschauliche Wort "Erhärtung" der Theorie.
Theorie und Experiment bedingen sich gegenseitig: Ohne Theorien kann der Experimentator kaum Mess-Serien "erfinden", die systematisch und aussagekräftig bestimmte Parameter der Theorie variieren. Und wenn er dennoch Messungen macht, kann er die Messergebnisse nicht in Form von Naturgesetzen zusammenfassen, die ein Erklärungspotenzial haben, sondern er kann nur die Messergebnisse in Form von "endlosen" Zahlenkolonnen festhalten. Ohne Experimente können Theorien noch nicht einmal validiert werden - geschweige denn verifiziert, was sowieso nicht zum Repertoire der Naturwissenschaft gehört. Auch die zu allgemein anerkannten Naturgesetzten mutierten Theorien sind letztendlich keine verifizierten Theorien, sie sind allerdings dermaßen oft validiert worden, dass ein Zweifel an ihnen nicht mehr aufkommt. Man kann z.B. jede technische Anwendung eines Naturgesetzes als ein Falsifizierungsexperiment ansehen: Wenn nun unser Fernseher mal nicht funktioniert, dann steckt wohl eher ein technischer Fehler dahinter als eine soeben erfolgte Falsifizierung der physikalischen Gesetze, die das Fernsehen erst ermöglichen.
Man ist natürlich versucht, das bewährte Zusammenspiel zwischen der allgemeinen theoretischen Physik und der Experimentalphysik auf die Meteorologie - als spezielle Physik der Atmosphäre - zu übertragen. Aber wir können hier die atmosphärischen Parameter zur Durchführung systematischer "Reihen" von Experimenten leider nicht frei einstellen! Wir können nur das eine Experiment beobachten, dessen Parameter die Natur selbst vorgibt.
Die theoretische und die messende atmosphärische Physik ist also in einer schwierigen Situation, da das Experiment als notwendiger Grundvoraussetzung der naturwissenschaftlichen Methode fehlt, oder zumindest stark eingeschränkt ist. Häufig wird gesagt, dass man zwar nicht mit der Atmosphäre selbst, jedoch mit Modellen der Atmosphäre Experimente machen könne. Das bedeutet aber keinesfalls, dass man Theorien so erhärten könnte, denn die Modelle sind ja selbst Theorien, die lediglich in einer Programmiersprache kodiert worden sind, wobei auch noch Approximationen an der "reinen" Theorie unvermeidlich waren. Eine Theorie mithilfe ihrer eigenen Kodierung zu evaluieren, zuzusagen mithilfe der "zweiten Wahl" dieser Theorie - wie soll das gehen? Wie könnte denn zur möglichen Falsifizierung einer Hypothese ein Instrument eingesetzt werden, das nichts anderes als die numerische Form der eigentlich zu falsifizierenden Hypothese selbst!
Aber umgekehrt "geht
noch was": Wenn nämlich die Aussagen einer kodierten Theorie, die
Modellergebnisse also, mit Folgerungen aus einer sehr allgemeinen, an den
Grundlagen der Physik orientierten Theorie übereinstimmen, so ist das Modell
zwar wiederum nicht verifiziert, aber es ist doch in gewissem Sinne erhärtet
worden, wenn auch nicht im experimentellen Sinn! Zumindest sollte dadurch die
"Daseinsberechtigung" für Wetter- und Klimatheorien weiterhin gegeben
bleiben, auch für "zugespitzte" Vertreter der Popperschen
Richtung, welche nicht falsifizierbare Theorien eher in den Bereich der
Philosophie verlegen würden als sie im Bereich der Naturwissenschaften zu
belassen. Das gilt z.B. auch für die Stringtheorie, zu deren experimenteller
Validierung Teilchenbeschleuniger benötigt würden, die größer wären als die
Erde, und auch für Bereiche, in denen sich Experimente aus ethischen Gründen
verbieten (wie z.B. in der Humanwissenschaft).
Eine Theorie aber, die allgemeiner und umfassender ist eine experimentell nicht falsifizierbare Theorie, kann selbst in die Rolle eines Falsifizierungsinstrumentes schlüpfen, und das umso mehr, je mehr sie auf allgemein anerkannten grundlagenorientierten Prinzipien basiert. Wenn auch nicht "flächenmäßig abdeckend", so aber doch "nadelstichartig" ist eine solche Nicht-Poppersche "Ersatz-Evaluierung" in der modernen atmosphärischen Modellierung längst gängige Praxis. Ein Beispiel: Eine anerkannte sehr allgemeine theoretische Aussage ist der Satz von der globalen Erhaltung der Energie. Sie ist deswegen so allgemein, weil sie nach dem Noether'schen Theorem auf dem Axiom der Zeitsymmetrie beruht: "Die physikalischen Gesetze sind invariant gegenüber Zeitverschiebungen". Wenn also die Überprüfung eines Modellergebnisses ergibt, dass die globale Energie nicht erhalten geblieben ist, die Modelltheorie also der umfassenderen Theorie der Zeitsymmetrie widerspricht, ist die kodierte Theorie falsifiziert worden, ohne dass auch nur ein einziger Vergleich mit einem Messexperiment durchgeführt wurde.
Aber wiederum gilt: Auch wenn sich eine Konsistenz mit der globalen Energieerhaltung bestätigt, ist dadurch die kodierte Theorie zwar evaluiert worden, (einmal mehr erhärtet worden), aber nicht verifiziert worden! Nun gilt es, möglichst viele weitere nadelstichartige Nicht-Poppersche "Ersatz-Evaluierungen" durchzuführen, etwa die Modell-Konsistenz bezüglich der Wirbelgrößen zu überprüfen, welche nach Névir (1998) auf der gleichen fundamentalen Stufe stehen wie die Energie. - Aber wenn man solche Nadelstiche immer weiter verdichten möchte und dabei eine "quasi flächendeckende" Evaluierung anstreben möchte, benötigt man auch "mehr" grundlagenorientierte Theorie! Zwar kann das Problem der fehlenden experimentellen Validierung durch Validierung mithilfe allgemeinerer Theorien nur gelindert, aber nicht beseitigt werden. Aber sie schaffen doch einen gewissen Ersatz für mangelnde experimentelle Falsifizierungsmöglichkeiten. Natürlich tun sie das nachhaltig nur dann, wenn man weiterhin die Forschung in der Theorie vorantreibt!
In der öffentlichen Wahrnehmung sieht
man das allerdings oft anders. Was sagt z.B. Wikipedia zu diesem Thema? Bei
einer Recherche im April 2012 fand ich zum Stichwort "theoretische
Meteorologie" einen Artikel, der nur 64 Worte umfasste, eigentlich sogar
nur 38 Worte, denn 26 Worte waren schon verbraucht für Satz "Heutzutage rückt die theoretische Meteorologie immer mehr in den
Hintergrund, da moderne meteorologische Problemstellungen meistens nur noch
mit Methoden der numerischen Strömungsmechanik
(CFD) bearbeitet werden können" .
Dass "CFD" (vermutlich für
"computational fluid dynamics") nichts anderes ist als eine
in einer Programmiersprache formulierte theoretische Meteorologie oder Hydrodynamik,
wird hier übersehen, und auch, dass zur theoretischen Meteorologie nicht nur
Strömungsmechanik gehört, sondern auch
Thermodynamik, Strahlungstheorie, Luftchemie, Systemtheorie, Chaostheorie,
Komplexitätstheorie und nicht zuletzt Klimatheorie. - Dem Begriff "Globale
Erwärmung" werden hingegen nicht 38, sondern 10167 Worte gewidmet (und
eine Audio-Datei). Also: Einem Teilgebiet auch der theoretischen
Meteorologie wird fast das 300-fache des Raumes zur Verfügung gestellt, der
der theoretischen Meteorologie selbst gewidmet ist. - Zum Stichwort
"theoretische Klimatologie" gab es 51 Worte. Die Suche nach dem
Stichwort "Klimatheorie" wurde mit der Frage beantwortet, ob man
vielleicht die Suchanfrage "Keimtheorie" gemeint habe. Auch das
Stichwort Klima-Theorie" (also mit Bindestrich) war nicht
vertreten.
Ich halte das für ein Indiz einer
ausufernden Unterschätzung der Rolle, die die Theorie spielen könnte und
müsste, z.B. auch bei der Bewusstmachung der vernetzten und nichtlinearen
Zusammenhänge in unserer Atmosphäre. - Ich weiß, ich könnte das bei Wikipedia
selbst korrigieren. Aber ich habe keine Lust, eine solche Korrektur gleich
wieder von einem dem Zeitgeist verpflichteten Bearbeiter gelöscht zu
bekommen.
Die Klima-Theorie kann uns zwar nicht
sagen, wie sich das Klima entwickeln wird, sie kann aber - neben der oben
beschriebenen Rolle als "Ersatz-Validierung" für fehlende
experimentelle Validierung - z.B. die Menschen auch davor bewahren,
"Geo-Engineering" zu befürworten, ein Begriff, über den schon viel zu
laut nachgedacht wird. Es ist relativ "leicht", die vielen subjektiv
einstellbaren Parameter eines jeden Klimamodells so auszurichten, dass der
Vorteil dieses Geo-Engineering in Modellrechnungen "bewiesen" wird.
Die "Gefahr", dass die so erhaltene Modellaussage "so kann man
die Welt retten" von einer fundamentaleren Theorie falsifiziert werden
könnte, ist bei der allgemeinen Geringschätzung der Theorie nur
minimal. Unser Zeitgeist ist ausgerichtet auf Praxis, auf vermeintliche Fakten und auf Daten,
nicht auf ein - zugegebenermaßen oft nicht ohne gewisse Anstrengungen und
Konzentrationen zu erlangendes - theoretisches Verständnis komplexer Vorgänge.
Andererseits wäre die tatsächliche Durchführung einer Geo-Engineering- Maßnahme nichts anderes als ein experimentelles Falsifizierungs-Experiment nach Popper. Dieses würde allerdings nicht in dieser Absicht durchgeführt werden, es hätte ja im Falle einer Falsifikation fatale Folgen: eine "gelungene" experimentelle Falsifizierung dieser "Rettungs-Theorie" könnte den Planeten für den Menschen unbrauchbar machen. Vielmehr würde das Experiment unter der irrigen Annahme durchgeführt werden, dass die "Rettungs-Theorie" keine Validierung nötig hätte.
Literatur:
Névir, P. (1998): "Die Nambu-Felddarstellungen der Hydro-Thermodynamik und ihre
Bedeutung für die dynamische Meteorologie".
Habilitationsschrift, Berlin.
Popper, K.R. (1934): "Die Logik der Forschung", Wien