In Nordafrika greift der Geist der Revolution um sich. In meinem Büro ist alles friedlich und auf Systemerhalt ausgerichtet. Bereits zwei Stockwerke über mir sind die Fronten allerdings weiter weit weniger klar. Wenn man sich mit Professor Pavel Kroupa unterhält, ist der Geist der Revolution plötzlich auch in unserem Argelander Institut für Astronomie greifbar. Pavel Kroupa redet oft vom Scheitern des etablierten Systems, von der Notwendigkeit von Alternativen und von den Mechanismen, mit denen Systemgegner an ihrer Arbeit gehindert werden.
Die “Freiheitsgöttin”, Vorbild der Marianne. Quelle: Education Civique Juridique et Sociale
Wenn sich Pavel Kroupa derart in Rage redet, diskutiert er allerdings nicht über Politik. Sein Thema ist die so genannte „Dark matter crisis”, d.h. die Krise des etablierten, kosmologischen Standardmodels, dem so genannten „Lambda Cold Dark Matter Concordance Cosmological Model” (LCDM CCM). Dieses Modell macht Aussagen über die Entwicklung und Zusammensetzung des Universums, und scheint überaus gut mit der Mehrzahl kosmologischer Beobachtungsdaten überein zu stimmen. Die in ihm enthaltenen freien Parameter konnten in den letzten Jahrzehnten sehr präzise bestimmt werden, so dass die Geschichte unseres Universums im Großen und Ganzen recht gut verstanden zu sein scheint. Der Schönheitsfehler ist bekanntlich die Notwendigkeit zweier bisher völlig unverstandener Größen: der dunklen Energie und der dunklen Materie, die zusammen etwa 96% des Energie-Materie Inhalts des Universums ausmachen.
Dunkle Materie ist insbesondere notwendig, um die Rotationskurven von Galaxien zu erklären und zusätzliche Masse in Galaxienhaufen zu liefern. Man braucht dunkle Materie, damit sich die beobachtbare Materie in Galaxien so bewegt, wie sie es nach Newton sollte. Dennoch gibt es auf der Skala von Galaxien Probleme mit dem CCM Modell. Insbesondere die Eigenschaften von Satelliten-Galaxien, kleinen Galaxien, die größere Galaxien wie die Milchstraße begleiten, können durch das Standardmodell nicht erklärt werden. Hier setzt Pavel Kroupa an. Er nimmt die Probleme des Standardmodells zum Anlass, sich für alternative kosmologische Modelle einer modifizierten Gravitation auszusprechen, wie z.B. MOND (modifizierte Newtonsche Dynamik) oder MOG (modifizierte Gravitation). In seinem Streitgespräch mit Prof. Simon White im letzten November hier in Bonn, in dem Argumente für und gegen eine Abkehr vom Standardmodell diskutiert wurden, verglich Pavel Kroupa die heutige Situation der Kosmologie mit derjenigen der Kopernikanischen Wende. Auf seiner Homepage führt er darüber hinaus als Analogien die Entwicklung der Quantenmechanik und den Übergang zur Relativitätstheorie an. Dies alles sind klassische Beispiele wissenschaftlicher Umbrüche, wissenschaftlicher Revolutionen. Aber wie kommt man überhaupt darauf, als Wissenschaftler im Kontext der Physik über Revolutionen zu sprechen?
Quelle: “Garching Simulation”, Jenkins et al. 1998, Astophysical Journal
Der Begriff der wissenschaftlichen Revolution wurde geprägt durch Thomas Kuhn und sein 1962 erschienenes Buch „The Structure of Scientific Revolution”. Eine der Hauptthesen des Buches ist, dass die Entwicklung der Wissenschaft nicht so verläuft, dass durch Wissenschaft kumulativ einfach immer mehr Wissen angehäuft wird. Stattdessen sieht Kuhn radikale Brüche in der Geschichte der Wissenschaft, die verhindern dass man sagen kann, dass man immer mehr weiß. Man weiß einfach „anderes”. Es ändern sich wissenschaftliche Methoden, der wissenschaftliche Gegenstandsbereich, wissenschaftliche Begriffe und wissenschaftliche Maßstäbe. Dies alles führt gemäß Kuhn dazu, dass es keine Verständigung zwischen vor- und nachrevolutionärer Wissenschaft gibt. Man ist in Hinsicht auf bestimmte Fragen einfach verschiedener Meinung, und es gibt keine Instanz, die in der Lage wäre zu entscheiden, wer Recht hat. So gibt es beispielsweise sowohl im Rahmen des Standardmodells als auch im Rahmen modifizierter Gravitationstheorien Beobachtungen, die nicht erklärt werden können. Welche sieht man als die entscheidenden an? Ist es „schlimmer”, wenn die Eigenschaften von Satellitengalaxien nicht erklärt werden können, als wenn die Theorie gegebenenfalls komplizierter wird und Schwächen auf großen Skalen hat?
Letztendlich endet man bei Fragen der persönlichen Gewichtung, und das macht die Stimmung im Umfeld wissenschaftlicher Revolutionen gerade so stark emotional aufgeladen. Wo es keine eindeutigen Argumente mehr gibt, kann man nicht mehr überzeugen, sondern nur noch überreden. Dazu kommt, dass sich das Potential neuer Theorien erst voll entfalten kann, sobald der Wissenschaftsbetrieb ausreichend Ressourcen für eine detaillierte Ausarbeitung des neuen Ansatzes bereitstellt. Der Grund, dies zu tun, kann aber immer nur der Glaube an das Potential der neuen Theorie sein. Ob dieser Glauben wirklich gerechtfertigt ist, kann sich erst im Nachhinein herausstellen. Um das „Wagnis” einer neuen Theorie wirklich einzugehen, und sich vom Etablierten abzuwenden, muss die Unzufriedenheit mit den bestehenden Verhältnissen groß genug sein. Sich vom Mainstream abzuwenden birgt immer ein Risiko, es bringt Unsicherheit und die Gefahr, für immer aus der wissenschaftlichen Gemeinschaft ausgeschlossen zu werden.
Die Notwendigkeit einer allgemeinen Unzufriedenheit mit dem bestehenden System ist neben der Aufspaltung der Community in verschiedene Lager nach Kuhn einer der Punkte, der die Analogie zu einer politischen Revolution passend macht. Auch in der Politik muss die Unzufriedenheit einen gewissen Wert erreicht haben, damit das Volk keinen anderen Ausweg mehr sieht, als auf die Straße zu gehen.
Die Debatte: Simon White (links), Pavel Kroupa (rechts) und Hans-Peter Nilles im November’s Bethe Colloquium 2010. Quelle: Marcelo de Lima Leal Ferreira
Und genau wie in der Politik versucht das etablierte Wissenschaftssystem seine Stellung möglichst lange zu verteidigen. So wie Mubarak versuchte, durch minimale Zugeständnisse an die Demonstranten seinen Präsidentenstatus möglichst lange zu verteidigen, gibt es auch in Wissenschaft die Strategie, den Gültigkeitsbereich der in Frage stehenden Theorie einzuschränken und Probleme durch ad hoc Annahmen zu entschärfen. Ob die Einführung von dunkler Energie und dunkler Materie auch bereits als solche ad hoc Annahmen und damit als Anzeichen zukünftig schwindender Macht des CCM Modells zu sehen sind, oder ob es einfach nur eine Frage er Zeit ist, bis sich im Rahmen der etablierten Theorie eine Antwort auf die Frage nach deren Natur finden wird, muss sich zeigen.
In Ägypten ist Mubarak gestürzt, Gaddafi wackelt. Das Standardmodell hingegen ist bislang fest an der Macht. Man wird sehen, ob und falls ja wann die Unzufriedenheit innerhalb der Kosmologie so stark sein wird, dass wir auch hier eine Revolution erleben können, oder ob sich das Standardmodell dauerhaft als zutreffende Beschreibung des Universums erweisen wird.
Vor einigen Jahren bin ich auf...
Vor einigen Jahren bin ich auf einen Zusammenhang gestoßen, der auch für das physikalische Weltbild relevant sein kann. Meine privaten Forschungen beziehen und bezogen sich auf neue Methoden und Modelle im Umfeld der Künstlichen Intelligenz, mit der ich früher beruflich zu tun hatte. Die Situation dort im Hinblick auf die Modellierung intelligenten Verhaltens ist grob vergleichbar mit derjenigen, der die Physiker gegenüberstehen. Immer leistungsfähigere Rechner mit gigantischen Prozessor- und Speicher-Ressourcen verdecken nur das fundamentale Problem: Seit zwanzig Jahren gibt es keinerlei substantielle Fortschritte im Verständnis intelligenten Verhaltens.
Aber was hat das mit Physik zu tun? Nun – Intelligenz ist eng mit dem vagen Begriff Bewusstsein verwandt. Es ist einfach so, dass man nirgendwo eine starre Grenze ziehen kann, ab der intelligentes oder bewusstes Verhalten unterstellt werden kann. Egal wo man sie zieht: Immer stellt man fest, dass auch jenseits der willkürlich gezogenen Linie dieses Phänomen höchst wahrscheinlich existiert. Damit kann die unvoreingenommene Hypothese nur lauten, dass die Erscheinung bewussten Entscheidens und Verhaltens auf jeder Skala beobachtbar sein muss. Es ist eine Frage der Sichtweise und der Definition des Phänomens (für Intelligenz und Bewusstsein gibt es keine allgemein anerkannte Definition, so dass die Wissenschaft hier noch große Freiheiten genießt).
Kurzum – ein Modell für intelligentes Verhalten sollte bis hinein in die Physik sinnvoll anwendbar sein.Aus diesem Ansatz heraus hatte ich 2008 das Modell eines Schwarms von Software-Agenten entwickelt, dass in der Simulation erstaunliche Eigenschaften zeigt. In einer Außensicht (die Schwarmformation, wenn man so will) verhält es sich exakt so, wie man es bei der Messung des Spins eines Elektrons erwarten würde. Nachdem ich den Schwarm einer Anspannung, die durch einen Operator bestimmt wird, aussetze, fällt er nach einiger Zeit in einen von zwei Zuständen. Welcher das ist, beruht auf Zufall. Nur die Eintrittswahrscheinlichkeit lässt sich exakt aus dem Anfangszustand des Schwarms und den Symmetrieeigenschaften des Operators ermitteln.
Die Schwarmindividuen durchlaufen während dieser Messung einen Zufallsprozess ähnlich einer Brown’schen Bewegung, deren Dynamik im statistischen Mittel sich mit den mathematischen Hilfsmitteln der Allgemeinen Relativitätstheorie beschreiben lässt.
Das Modell kann dann für die Physik tatsächlich relevant sein, wenn man akzeptiert, dass unser Universum sich aus quantenmechanischer Sicht in einem Messprozess befindet und Zeit prinzipiell in Schritten vonstatten geht. Als Erweiterung des Kopenhagener Standardmodells lässt es die QM vollkommen intakt. Nur die Allgemeine Relativitätstheorie gilt nur für die Mittelwerte aller Bewegungen und exakt nur in der Nähe (was immer das heißen mag) von großen Massen.Es wäre zumindest interessant einmal abzuschätzen, ob dieser Ansatz die Notwendigkeit von dunkler Materie/Energie reduzieren oder sie sogar überflüssig machen könnte.
Und mir gäbe es die Sicherheit, mit der Modellierung echten intelligenten Verhaltens einen bedeutenden Schritt vorangekommen zu sein. Zu dem Modell gibt es ein mathematisches Paper „Dual Reality“ und die Simulation. Beide findet man auf der oben angegebenen Seite.
Im Artikel wird gefragt, ob...
Im Artikel wird gefragt, ob die Einführung von Dunkler Energie und Dunkler Materie bereits “ad hoc Annahmen” seinen. Annahmen? Ja. In beiden Fällen wurde deren Existenz angenommen, um im jeweils allgemein anerkannten physikalischen Weltbild die Beobachtungen in Einklang mit dem Weltbild zu bekommen. Die Annahmen werden aber dann erst zu Gewissheiten, wenn die indviduelle Existenz nachgewiesen ist, d.h. z.B. im Falle der Dunklen Materie muss die Existenz von mindestens einer Teilchensorte nachgewiesen werden, die die erforderlichen Eigenschaften aufweist und auch(!) in der erforderlichen Menge vorkommt. Gerade der zweite Punkt wird in der Literatur bisher vollkommen vernachlässigt (oder vielleicht gerne übersehen?). Sind die Annahmen “ad hoc”? Das sind sie sicherlich nicht, was man fairerweise anmerken muss. Denn in beiden Fällen handelt es sich durchaus um legitime Plausibilitätsüberlegungen. Fritz Zwicky bemerkte damals halt, dass Galaxienhaufen dynamisch zu heiss sind unter der Annahme(!), dass sie virialisiert seien. Unter der Annahme, dass noch eine dominierende Komponente von nicht sichtbarer Materie vorhanden ist, ist die Dynamik der Galaxienhaufen im Einklang mit dem Virialsatz. So weit, so gut. Problematisch wird es aber dann, wenn ein Weltbild, dass auf Annahmen und eben nicht auf bewiesenen Gewissheiten basiert, weitere Annahmen eingeführt werden, um neu aufgedeckte Diskrepanzen zwischen dem sich entwickelnden Weltbild und den immer detailierter werdenen Beobachtungsergebnissen zu erklären.
Nun reichen selbst Dunkle Materie und Dunkle Energie ja noch nicht einmal mehr aus, um das Universum erklären zu können. So wird z.B. Inflation gebraucht, um
das Horizontproblem in den Griff zu bekommen. Und um die Unterpopulation der Voids mit Zwerggalaxien oder die Existenz von zu schweren Galaxienhaufen bei großer Rotverschiebung zu erklären, wird mittlerweile schon eine “Dunke Kraft” vorschlagen. Prinzipiell jagt dabei ein Epizykel den nächsten.
Die beliebte und weit verbreitete Argumentation der Kosmologen ist aber, dass unser kosmologisches Weltbild ja richtig sein muss, weil es die Beobachtungen erklärt. Und genau da liegt der Hund begraben. Aus A, dem kosmologischen Weltbild, folgt B, die Beobachtungen. Die Implikation, A->B, ist aber nicht equivalent zu B->A (aus den Beobachtungen folgt das kosmologische Weltbild), sondern nur aus nicht B folgt nicht A.
Dass ein solches Weltbild, dass zunächst einmal mit reinen Annahmen erweitert wird, erforscht wird, ist in der Tat nichts Verwerfliches. Teuflisch wird es aber dann, wenn die Erforschung von Alternativweltbildern mit der Begründung unterdrückt wird, die Ingredienzen des Standard Models seien ja durch die Beobachtungen bewiesen, was sie ja eben nicht sind, und die alternativen Weltbilder hätten ihre Probleme.
Wahrscheinlich ist einer der Gründe für die Unterdrückung der Erforschung von alternativen Weltbildern der Selbsterhaltungstrieb für die eigene Forschung: Wenn der Konkurrent mit seinem Alternativweltbild richtig liegt, dann habe ich mit meinem Standardmodel mein Leben lang einem Phantom nachgejagt. Das kratzt zum Einen natürlich an dem eigenen Ego. Zum Anderen werden dann natürlich für das falsche Standardmodell keine Mittel mehr bereit gestellt und die Standardkosmologen wären arbeitslos. Dem kann ganz einfach dadurch vorgebeugt werden, wenn die dominierende Mehrheit der Standardkosmologen Finanzierungen von Alternativforschung blockiert. Das ist im gegenwärtigen Begutachtungsverfahren ein Leichtes. Denn ein Antrag für ein alternatives Forschungsvorhaben wird mit nahezu hundertprozentiger Wahrscheinlichkeit einem Vertreter des Standardmodells zur Begutachtung vorgelegt.
Da im Artikel explizit die Uni Bonn erwähnt wird, möchte ich hinzufügen, dass ich dort diese und ähnliche Arten von Unterdrückung selbst mitbekommen habe. Sie nennt sich eine traditionelle Universität und ist anscheinend sehr stolz auf die internen Hierarchien, insbesondere auch zwischen den Professoren. Institute werden von der Leitung eher nur bestehend aus den paar W3 Professoren gesehen, alles andere ist irrelevant. Wenn es da also einen “W3 Lieblingsprofessor” der Leitung gibt, dann würde es mich nicht wundern, wenn Geldkürzungen, wie sie hier beschrieben werden (@Peter_Tailor & @sherbst), einfach mal auf Kommando nach Absprache mit der Leitung passieren können. Traurig! Dafür steht ja auch die Uni Bonn nicht hoch in den internationalen
Rankings: https://www.timeshighereducation.co.uk/world-university-rankings/2010-2011/top-200.html
Immerhin gibt es in der...
Immerhin gibt es in der Astrophysik noch die Möglichkeit, abweichende Theorien zu veröffentlichen (habe gerade einen Artikel von P. Kroupa besorgt) und Streitgespräche wie das beschriebene oder Vorträge z.B. im allgemeinen Kolloquium der ESO zu halten. Je nach Teilbereich ist dabei allerdings der Ton mehr oder weniger rauh, und es wurden leider auch Wissenschaftler mit bekannt abweichenden Ansichten von Konferenzen ausgeschlossen (Bonner werden sich denken können, wen ich meine).
Auf der anderen Seite gibt es auch Selbstverstärkungsmechanismen von Theorien – und die haben nicht unbedingt mit ihrer Stichhaltigkeit zu tun. Ein extremes Beispiel ist mE die heutige theoretische Teilchenphysik, wo es wohl tatsächlich wissenschaftlicher Selbstmord ist, irgend etwas anderes als Stringtheorie zu betreiben – und das, obwohl sie nach weit über zwanzig Jahren intensiver Arbeit bislang keine einzige der Forderungen erfüllt, die man traditionellerweise an eine physikalische Theorie stellt.
Der ständige Zwang, für Drittmittel und Evaluationen einen hohen “Paper count” bzw. “Impact Factor” vorzuweisen, führt nicht nur zu Ideenrecycling sondern auch zu angepaßten Mainstreamarbeiten, die weniger Aufwand bei der Diskussion mit den Herausgebern und Referees bedeuten. In der Zeit, die wir mit solchen Diskussionen über einen Umrechnungsfaktor zugebracht haben (bei einer Arbeit, die hauptsächlich Beobachtungsergebnisse beschrieb), hätten andere zwei oder drei Artikel mehr geschrieben – nun gut, es war für Nature, da hat es sich gelohnt…
In einem anderen Gebiet, das ich kenne, ist seit gut 15 Jahren nichts passiert, obwohl die dort übliche Theorie die Beobachtungen schon seit langem nicht annähernd erklären kann (nun gut, es gilt als Randthema – sagen wir wie vielleicht Bahrain -und alle sind sich darüber einig, daß ein neuer Ansatz außerordentlich schwierig ist).
Ein Status wie die deutsche Professur oder auch ein gesicherter Schreibtisch kann da die notwendige Unabhängigkeit geben – ich denke da zB an Persönlichkeiten wie Hoyle, die Burbidges, Arp… eine “politische Person” wie oben beschrieben auf einer Professur kann aber auch dank ihrer “Unangreifbarkeit” die gesamte wissenschaftliche Entwicklung in einem Institut blockieren.
Falls sich das kosmologische...
Falls sich das kosmologische standardmodel tatsächlich in einer derart schwerwiegenden krise befindet, stellt sich die frage, warum man/frau ihm nicht schokolade anbietet. alternativ kuchen.
Ebenso ist der umgang mit dem corpus delicti der krise fragwürdig: Nachdem explizit konsens darüber herrscht, dass dark matter massiv vorhanden sein muss, sich aber rigoros bedeckt hält, spricht alles für deren schüchternheit, vielleicht mimosenhaftigkeit. Ergo muss sie positiv konditioniert, nicht gejagt, sondern angelockt werden – mit pudding. O.k., ich höre schon das aufstöhnen der kritiker: dark matter ist schon übergewichtig genug. Gut, dann wenigstens mit joghurt light. Gibts mit 0% Fett.