Weihnachten naht, das Jahr neigt sich dem Ende zu, und ob man will oder nicht wird man Zeuge eines allgemeinen Dranges, Vergangenheit und Zukunft in eine gewisse Ordnung zu bringen. Überall werden Jahresrückblicke erstellt und die Highlights von 2012 gesammelt, gleichzeitig werden die Horoskope in den Zeitschriften immer länger und kategorienreicher, Vorsätze und Pläne für 2013 werden geschmiedet, und man würde allzu gerne wissen, was das neue Jahr wohl bringen wird, so ganz konkret.
Dieser Wunsch, in die Zukunft blicken zu können, ist natürlich nicht neu und mitnichten auf die Zeit des Jahreswechsels beschränkt. Auch Wissenschaftler, die weder Horoskope noch anderen Hokuspokus als eine Quelle von Wissen anerkennen, haben ein Interesse daran, die Entwicklung ihres Faches vorhersehen zu können, wenn nicht aus Neugierde, dann zumindest um langfristig planen zu können. Nun weiß man natürlich, dass derartige Vorhersagen alles andere als einfach sind. Historiker wissen ein Lied davon zu singen, wie oft die Wissenschaft der letzten Jahrhunderte gerade dann überraschende Wendungen vollzogen hat, wenn die Wissenschaftler besonders stark davon überzeugt waren, die Zukunft zu kennen. Legendär ist beispielsweise die Max Planck in München 1874 zuteil gewordene Berufsberatung, im Zuge derer Physikprofessor Philipp von Jolly ihm vom Studium der Physik ausdrücklich abgeraten hatte, weil es auf dem Gebiet der Physik nichts Neues mehr zu entdecken gäbe. Planck wurde bekanntlich trotzdem Physiker und zeigte durch die Entdeckung der Energiequantelung eindrücklich, dass Jolly mit seiner Einschätzung vollkommen falsch gelegen hatte. Philosophen wie Thomas S. Kuhn haben derartige historische Lektionen zum Anlass genommen, den diskontinuierlichen Charakter von Wissenschaft zu betonen. Wissenschaft kann demnach eben nicht verstanden werden als ein kontinuierliches Immer-mehr-Wissen (das eine gewisse Vorhersagbarkeit aufweisen würde), sondern man muss immer wieder mit Brüchen rechnen, die all das, was bis dahin als zutreffend angenommen wurde, über den Haufen werfen.
Abbildung: Ein Blick in die Zukunft astronomischer Zukunft.
Trotz all dieser warnenden Vorzeichen gibt es nach wie vor Physiker, die bereit sind, Prognosen in Bezug auf die längerfristige Zukunft ihres Faches abzugeben. Der Astrophysiker Martin Harwit hat beispielsweise 1981 in seinem Buch „Die Entdeckung des Kosmos – Geschichte und Zukunft astronomischer Forschung ” (Nature Letter 1984) eine ganz erstaunlich konkrete Untersuchung der Frage veröffentlicht, wo wir mit unserer astronomischen Forschung stehen, d.h. wie viel wir schon wissen, und wie viel im Universum noch unentdeckt ist.
Harwits Thesen lauten in Kurzform: 1) Wir wissen, wie viele astronomische Beobachtungen prinzipiell möglich sind, und daher können wir abschätzen, wie viele wir davon realisiert haben. 2) Aus der Entdeckungsgeschichte der uns bekannten kosmischen Phänomene können wir abschätzen, wie viele kosmische Phänomene es insgesamt gibt. 3) Wenn wir den Verlauf der Entdeckungshäufigkeiten aus Feldern wie der Geographie oder der Zoologie auf die Astronomie übertragen können, dann werden wir im Jahr 2200 bereits 90% aller kosmischen Phänomene kennen.
Abbildung: Hubble eXtreme Deep Field: Wie viel Unentdecktes mag im Kosmos noch auf uns warten? (Credit: NASA; ESA; G. Illingworth, D. Magee, and P. Oesch, University of California, Santa Cruz; R. Bouwens, Leiden University; and the HUDF09 Team)
Derart gewagte Thesen machen natürlich neugierig auf ihre wissenschaftliche Begründung. Wichtiger Startpunkt für Harwits Überlegung ist die Tatsache, dass die Astronomie weitgehend eine Beobachtungswissenschaft ist. Das beobachtete System sendet von selbst Informationen aus, ohne dass der Beobachter es direkt manipulieren kann. Nach Harwit bleibt dem Beobachter damit nur eine Grundsatzentscheidung zu treffen: er versucht, die vom Himmel empfangenen Signale zu verstehen, oder er ignoriert sie. Damit hat die Astrophysik eine scheinbar einfachere Struktur als die Experimentalwissenschaften, die in der ungeheuren Vielfalt möglicher Experimente eine größere Komplexität in Bezug auf die potentiell zur Verfügung stehende empirische Information aufweist.
Was den beobachtenden Astronomen an Information zugänglich ist, scheint demnach vergleichsweise übersichtlich. Es gibt eine endliche Anzahl von Informationsträgern, die uns aus dem Universum erreichen können. Harwit beziffert die Anzahl ihrer Arten auf fünf: elektromagnetische Strahlung, kosmische Teilchenstrahlung, Meteore und Meteoriten, Neutrinos und Antineutrinos sowie Gravitationswellen. Diese Informationsquellen können wir anhand von Beobachtungen auswerten, sie sind unsere einzige Möglichkeit, empirisch etwas über die Phänomene des Universums zu lernen. Eine konkrete, elementare astronomischen Beobachtung ist dann durch die Wahl eines dieser Informationsträgers definiert, zusammen mit einer Reihe weiterer Parameter, die teilweise durch den Beobachter gesetzt werden und teilweise durch die konkrete Technologie vorgegeben sind. Dazu zählen die Wellenlänge oder Energie des Trägers, die räumliche Auflösung des Beobachtungsinstrumente, die zeitliche Auflösung, also der minimale Abstand von zwei Pulsen, der noch detektiert werden kann, oder die spektrale Auflösung, also der minimale Abstand verschiedener Wellenlängen, der aufgelöst wird. Der entscheidende Punkt dabei ist, dass alle Parameter, die eine Beobachtung definieren, jeweils nur einen endlichen Bereich möglicher Werte besitzen. Das liegt beispielsweise an Beschränkungen durch die Heisenbergsche Unschärferelation, die Beschaffenheit der Informationsträger oder die Nicht-Reduzierbarkeit der beobachteten Komplexität. Anders ausgedrückt: die Gesamtzahl aller möglichen astronomischen Beobachtungen in einem gegebenen Zeitraum ist gemäß Harwitt endlich. Angenommen, das Universum ist homogen und isotrop, also überall und in alle Richtungen gleichförmig, so gilt diese Aussage auch unabhängig von der Wahl eines gegebenen Zeitpunktes und Ortes.
Abbildung: Durchlässigkeit der Atmosphäre für elektromagnetische Wellen: die Information, die uns aus dem Universum erreichen kann, unterliegt einer Reihe von Beschränkungen.
Wenn man den endlichen Raum aller möglichen Beobachtungen derart konkret abschätzt, kann Harwit daraufhin feststellen, dass zum Zeitpunkt seiner Untersuchung etwa 5 Prozent sämtlicher elektromagnetischer Beobachtungsmöglichkeiten realisiert wurden. Zusammengenommen mit den vier anderen Informationsträgern neben elektromagnetischer Strahlung schätzt er den Stand der entwickelten Beobachtungsverfahren auf 1 Prozent aller überhaupt möglichen Verfahren. Harwits nächste Frage ist nun, was wir darüber hinaus in Bezug auf die Vollständigkeit unseres astrophysikalischen Wissens schließen können. Wie viele der existierenden Phänomene im Universum haben wir bereits entdeckt und wie viele warten noch auf uns?
Dafür muss Harwit zunächst objektiv definieren, was als ein eigenständiges Phänomen anzusehen ist. Seiner Definition zufolge sind zwei Phänomene zu unterscheiden, wenn sich mindestens eines ihrer Beobachtungsmerkmale um einen Faktor 1000 unterscheidet. Beispielsweise umfassen offene Sternhaufen zwischen 100 und 1000 Sterne, während Kugelsternhaufen sich aus 100.000 bis 1.000.000 Sterne zusammensetzen. Beide stellen somit laut Definition zwei verschiedene Phänomene dar. In dieser Zählweise kommt Harwit auf eine Zahl von etwa 43 bekannten kosmischen Phänomenen. Manche dieser Phänomene wurden nicht nur einmal entdeckt, sondern auf verschiedenen, voneinander vollkommen unabhängigen Wegen, beispielsweise einerseits bei optischen Wellenlängen, andererseits im Radiobereich.
Diese Tatsache der Existenz von unabhängigen Wiederentdeckungen nutzt Harwit für den finalen, statistischen Schritt seines Arguments. Man stelle sich vor, man sammelt Fußballaufkleber. Solange die Sammlung noch klein ist, unterscheiden sich die vorliegenden Aufkleber, aber ab einer gewissen Größe der Sammlung bekommt man mehr und mehr Aufkleber doppelt. Sofern man auf Duplikate stößt, kann man nach Harwit schließen, dass die Menge aller gedruckten Fußballmotive endlich ist, sonst wäre das Auftreten von Duplikaten unwahrscheinlich. Gleichzeitig werden sich die Duplikate im Vergleich zu den nur einmal vorliegenden Aufklebern früher häufen, je kleiner die Gesamtmenge verschiedener Aufkleber ist. Wenn die Aufkleber nur die deutsche Nationalmannschaft erfassen, wird man früher mit Dopplungen zu tun haben als wenn alle internationalen Spieler der Weltmeisterschaft abgebildet sind. Diese Beobachtung überträgt Harwit auf den Fall kosmischer Phänomene, indem er sie in eine statistisch motivierte Formel umsetzt, die aus der Anzahl einfach entdeckter sowie der Anzahl mehrfach entdeckter Phänomene die Gesamtanzahl von Phänomenen im Universum ermittelt. Unter den 43 von ihm identifizierten Phänomenen gibt es 7 Wiederentdeckungen. Gemäß seiner statistischen Betrachtung folgert Harwit daraus die Existenz von 123 kosmischen Phänomenen, von denen also 1981 etwa ein Drittel bekannt war. Die Gesamtzahl könnte sich noch auf etwa 500 erhöhen, wenn man in Betracht zieht, dass es Phänomene geben könnte die sich prinzipiell nur in einem einzigen Informationskanal zeigen (in der Analogie: Aufklebermotive, die nur einmal gedruckt wurden).
Der Bereich kosmischer Phänomene erscheint für Harwit 1981 in Bezug auf die astronomische Forschung demnach wie die Erde in Bezug auf die Geographie: letztere erlebte die Zeit großer Entdeckungen im 15. und 16. Jahrhundert, während heute praktisch alles entdeckt ist. Die Entdeckungshäufigkeit in solchen wissenschaftlichen Feldern mit einer endlichen Anzahl zu entdeckender Phänomene beschreibt Harwit durch eine Glockenkurve: zunächst steigt die Anzahl von Entdeckungen steil an, da das Feld großes Interesse hervorruft und neue Ideen und Instrumente entwickelt werden. Schließlich nimmt die Zahl noch nicht entdeckter Phänomene so stark ab, dass die Entdeckungshäufigkeit entsprechend sinkt und das allgemeine Interesse nachlässt. Wenn solch ein Verlauf auf die Astronomie übertragen werden kann, sollten laut Harwit im Jahr 2200 etwa 90 Prozent aller Phänomene gefunden worden sein.
Abbildung: Werden Astronomen und Astrophysiker irgendwann einmal ein ähnlich vollständiges Bild vom Kosmos haben, wie Geographen heute von unserer Erde?
Harwit hat diese Überlegungen vor 30 Jahren entwickelt. Wenn man sich zunächst mit fundamentaler Kritik an seinen Argumenten zurückhält, ist es daher nahe liegend zu fragen, was sich seitdem in der Astronomie getan hat. Haben sich Harwits Prognosen bestätigt? 2001 zogen Virginia Trimble und Markus J. Aschwanden eine Bilanz und stellten fest, dass weniger neue Phänomene entdeckt wurden, als von Harwit erhofft, allerdings ohne diese Beobachtung detailliert zu belegen. 2012 wurde das Problem erneut vom Astrophysiker Steven J. Dick aufgegriffen, der heute 82 Klassen von Phänomenen zählt, was bestätigen würde, dass weniger Entdeckungen gemacht wurden, als prognostiziert. Die Details dieser Zählung werden voraussichtlich im nächsten Jahr in Dicks Buch „Discovery and Classification in Astronomy” erscheinen. Harwit selbst bestätigte jüngst auf Anfrage, dass er seine Abschätzung nach wie vor für gültig hält. In der Zwischenzeit wurden nicht nur neue Phänomene entdeckt, sondern auch alte sind verschwunden oder verschmolzen.
Die Idee eines endlichen Raums möglicher Beobachtungen taucht in der astronomischen Forschung noch an anderer Stelle auf. Das „Virtual observatory” als Online-Sammlung astronomischer Daten verschiedener Observatorien besitzt als ein Ziel die systematische Erschließung eben jenes beobachtbaren Parameterraums, insbesondere um die Entdeckung neuer astronomischer Objekte und Phänomene zu ermöglichen. Der Astrophysiker S. George Djorgowski und Kollegen nennen 2001 in ihrer Beschreibung des Virtual Observatory explizit Harwits Überlegungen als historische Referenz.
Abbildung: The Virtual Observatory – Online-Sammlung astronomischer Daten. Screenshot https://www.virtualobservatory.org/whatis/
Man kann also nicht behaupten, dass Harwits so provokant klingenden Zukunftsspekulationen von der astronomischen Community als Spinnerei abgetan worden wären. Wenn man die vielleicht etwas wackelig wirkende Statistik der Phänomenabschätzung erst einmal beiseite lässt, klingt zumindest die Existenz eines endlichen Raumes möglicher astronomischer Beobachtungen im physikalischen Weltbild überzeugend. Durch diesen Raum wären damit die Grenzen unseres empirischen astronomischen Wissens definiert. Mit dieser Annahme ist es aber nur noch ein kleiner Schritt zur kontinuierlichen „Kübeltheorie des Wissens”, der Vorstellung dass wir im Laufe der Zeit einfach immer mehr wissen. Irren die Philosophen also mit ihrem wissenschaftlichen Fortschrittskeptizismus im Fall der Astrophysik?
Tatsächlich gibt es aus philosophischer Sicht wohl einige Punkte, die in Harwits Argumentation genauer zu hinterfragen wären. Zunächst ist es gar nicht so klar, dass der Unterschied zwischen Beobachtungen und Experimenten tatsächlich derartig fundamental ist. Schließlich ist die Vorstellung ein Trugschluss, dass eine Beobachtung eine mehr oder weniger passive Aufzeichnung eines durch eine kleine Anzahl von Parametern charakterisierten Signals ist, das dann nur noch interpretiert werden muss. Die aufgezeichneten Rohdaten sind vielmehr nur der erste Schritt in einer langen Kette von Vorgängen der Daten-Bearbeitung, Datenanalyse und Modellierung. Selbst wenn man alle möglichen astronomischen Beobachtungen durchgeführt hätte, würde sich daher ein neuer Raum von Möglichkeiten eröffnen in der Frage, was man mit den Daten nun konkret anfängt. An dieser Stelle entsteht Raum für statistisch schwer zu berücksichtigende kulturell-soziologische, historisch variable Einflüsse, die das ausmachen, was sich zu einer bestimmten Zeit „gängige Forschungspraxis” nennt.
Gefährlich ist darüber hinaus die Verwechslung von Daten und Phänomenen, eine Unterscheidung die 1988 durch die Philosophen James Bogen und James Woodward stark gemacht wurde. Wissenschaft macht Aussagen über bestimmte Phänomene, aber diese Phänomene beobachten wir nicht direkt, wir müssen sie erst aus den vorliegenden Daten ableiten. Und das funktioniert eben nicht einfach dadurch, dass man Datenpakete auf Skalenabschnitten eines Faktors 1000 abteilt und das Resultat Phänomen nennt. Wenn man die Unterscheidung zwischen Daten und Phänomenen ernst nimmt, erscheint Harwits Zählstatistik als zu starke Vereinfachung einer sehr viel komplexeren Wechselbeziehung zwischen dem, was wir messen und dem, was wir daraus über das Universum lernen.
Harwits eigenes Interesse hat sich in den letzten Jahren in eine ähnliche Richtung erweitert, indem er sich zunehmend den kulturellen Einflüssen auf Wissenschaft widmet. 2011 fragte er beispielsweise in Anlehnung an den Philosophen Andrew Pickering: „Konstruieren Physiker und Astronomen lediglich passende Repräsentationen, die wenig mit der inhärenten Struktur des Universums zu tun haben, in dem wir leben?” Genau wie man mit Pickering das Standardmodell der Teilchenphysik als lediglich vorläufige, vermutlich irgendwann zu revidierende Theorie sehen kann, könnte man im Fall der Astrophysik laut Harwit spekulieren, dass es irgendwann eine Theorie geben wird, in der dunkle Materie und dunkle Energie sich als natürliche Konsequenzen ergeben: „Solch eine Beschreibung mag dann genauso irrsinnig anders sein im Vergleich zu dem, was wir heute begreifen, wie es Einsteins Postulat war, als er erstmalig verkündete, dass die Geschwindigkeit des Lichts immer gleich erscheint (…).” Ob wir mit einer solchen Beschreibung bei einer Zählung kosmischer Phänomene genauso auf die von Dick erhaltene Zahl 82 kommen würden, scheint vor diesem Hintergrund fraglich.
Abbildung: Die geplante Laser Interferometer Space Antenna (LISA) zur Messung von Gravitationswellen – zukunftsweisende Technologien als Fortschritt-bestimmender Faktor, Quelle: NASA
Es ist wohl kein Zufall, dass Harwit für sein Beispiel einer absehbaren Kuhn’schen Revolution ein Beispiel aus der Kosmologie wählt, denn die Wissenschaft des Universum in seiner Gesamtheit ähnelt innerhalb der astrophysikalischen Disziplinen am meisten dem, was man als eine Theorie-getriebene Wissenschaft bezeichnen könnte. Die Vorstellung abrupter Brüche im wissenschaftlichen Verständnis lässt sich für solche Wissenschaftszweige, deren Fortschritt vor allem mit der Entwicklung neuer Theorien verbunden ist, analog zu den historischen Beispielen denken, die Kuhn und andere wissenschaftstheoretisch ausgewertet haben. Harwits Überlegung von 1981 beruhte dagegen auf den primär Technologie-getriebenen Bereichen der Astrophysik. Eine solche stärker auf das Experiment fokussierende Sicht auf wissenschaftliche Forschung findet sich in der jüngeren wissenschaftstheoretischen Debatte seit den 80er Jahren, verbunden mit Namen wie Ian Hacking, Allan Franklin oder Peter Galison. Sofern man das Augenmerk auf die technologische Entwicklung wissenschaftlicher Forschung legt, scheinen plötzliche diskontinuierliche Brüche weit weniger natürlich. Es erscheint uns schwer vorstellbar, dass wir in 50 Jahren erkennen könnten, dass unsere heutigen Radioteleskope im Kern falsche Informationen geliefert haben könnten, auch wenn sich unser Umgang mit den Teleskopen und den generierten Daten historisch maßgeblich ändern mag. Als Fortschritt-bestimmender Faktor erscheint in dieser Sichtweise vor allem die Bereitschaft, in zukunftsweisende Technologien zu investieren. Es ist allerdings wichtig zu sehen, dass sowohl die Theorie- als auch die Technologie-Seite zusammengenommen das ausmachen, was wir heute unter Wissenschaft verstehen, und beide Seiten sich stark wechselseitig beeinflussen (siehe dazu auch Freeman J. Dyson in “Science”). Daher scheinen sowohl die Annahme einer Vorhersagbarkeit von Wissenschaft als auch die Vorstellung der völligen Unberechenbarkeit wissenschaftlicher Forschung unzutreffende Extreme zu sein.
Bleibt als Fazit, dass der Blick in die Zukunft im Detail doch weniger einfach ist, als man es sich manchmal wünschen würde. Aber Vorhersagen der Zukunft haben von ihrer tatsächlichen Prognoseleistung abgesehen ja ohnehin noch einen ganz subjektiven Zusatznutzen, den man aus den Jahreshoroskopen der Illustrierten kennt: der wohlige Schauder beim Gedankenspiel, es könnte wirklich so kommen – nur noch übertroffen vom Spaß daran, zu argumentieren, warum es natürlich ganz anders kommen wird.
Abbildung: Der Blick in die Kristallkugel „The Crystal Ball” 1902, John William Waterhouse
Liebe Leser, wenn Sie uns eine kleine Freude zum Jahresende machen wollen, dann stimmen Sie für Planckton unter https://wp.me/p1XAlm-jB als Wissenschaftsblog des Jahres 2012 ab. Dort sind wir als einer von 20 Blogs nominiert worden. Vielen Dank! Sibylle Anderl
Pi is the Key and Ground zero...
Pi is the Key and Ground zero of the universe and nothing else.
Mathematical derivations and transport of symbolic.
The universe is the brake of the simultanity light,
because mass…(see black wholes). The fastest in the universe is the visible light because the minimum mass.
The transition from simultanly..”time”…to “analog time” and “evolution” of all being is possible.
Uniqueness is the simultanly “light” (base, ground zero),
room without mass…”black light” or “black matter zero”.
No mass, no dimension…but simultanly “shining light”, invisible,
so, infinitesimal is equal infinitely large.
It’s God, Ghost or shining light.
P(i)-“eace=is” the way of evolution and “Shining Light” GOD, the black and invisible mass zero.
I wish you a happy new year, Wolfgang Hennig
...
@tylerdurdenvolland
„Konstruieren Physiker und Astronomen lediglich passende Repräsentationen, die wenig mit der inhärenten Struktur des Universums zu tun haben, in dem wir leben?” Ja
Wie kann man auf diese Frage mit “ja” antworten ? Dazu muesste man doch wissen dass die Struktur des Universunms anders ist als unsere Repraesentationen. Seit der Astronomie der Babylonier kann man feststellen, dass i.A. altes naturwissenschaftliches Wissen durch neueres Wissn nicht obsolet wird oder als falsch erscheint, sondern in einem neuen Kontext bewahrt wird. Ihre Antwort “ja” ist unhaltbar.
“Wollen sie uns ernsthaft sagen, dass in ein paar Jahrhunderten das Bild, das sich diese „Wissen“schaft heute vom Kosmos macht, mit jenem künftigen mehr gemein hat, als das der römischen Kirche zur Zeit Galileis?”
Falsche Frage. Es ist Unsinn, das Bild der Wissenschaft von Kosmos zu irgendeiner Zeit mit dem Bild der Kirche vom Kosmos zur Zeit Galileos zu vergleichen und zu behaupten, diese muessten gleich sein.
Galileos Einsichten und Methoden sind auch heute gueltig wie vor 500 jahren. Haben Sie mal in ein heutiges Lehrbuch der Mechanik oder der Grundlagen der Physik geschaut ? Dann wuessten Sie, dass “neue” Wissenschaft keineswegs “alte” Wissenschaft auf den Muellhaufen der Geschichte wirft. Nur der Kontext in dem die “alten” Ergebnisse betrachtet werden veraendert sich.
Zum Unterschied zwischen experimenteller Physik und nur beobachtender Astronomie :
die Astronomie muss nicht Experimente durchfuehren, um messbare Signale zu erhalten. Die Astronomie muss die interessierenden Signale lediglich am Himmel aufsuchen und detektieren. Diese Signale werden in den allermeisten Faellen ohne menschliches Zutun ganz von alleine produziert. So gesehen ist der Unterschied zwischen experimenteller Physik und beobachtender Astronomie nur gering. Ansonsten unterstuetzen sich Physik und Astronomie ganz massiv gegenseitig, denken wir z.B. an schwarze Loecher, die Physik der Sonne, oder die Bahnen der Planeten.
Der Ansatz von Hewitt ist nur die halbe Wahrheit. Auch wenn alles gemessen sein sollte, woran er heute denkt, können sich dir theoretischen Beschreibungen dennoch weiter ändern, aufgrund neuer erkenntnisse der Physik. Ausserdem können die noch uneobachteten Sektoren in der gesamtheit aller möglichen Sektoren Daten ergeben, die zu einer Neuformulierung und Weiterentwicklung der astronomischen Theorien fuehren können. Der Ansatz von Hewitt ist statisch und entspricht nicht der historischen dynamik der wissenschaftlichen Geschichte.
In notwendiger Kürze einige...
In notwendiger Kürze einige Anmerkungen:
1) „Die Existenz eines endlichen Raumes möglicher astronomischer Beobachtungen im physikalischen Weltbild“ bestätigt sich durch die ontologische Aussage, dass wir es mit einem Seienden im Ganzen und Gleichen zu tun haben, ohne jede Möglichkeit einer darüber hinaus reichenden Transzendenz.
2) Sämtliche Objekte der Beobachtung unterliegen der möglichen Veränderung ihres Zustandes.
3) Die Wissenschaft ist auf ihren jeweils aktuellen Horizont der Betrachtung angewiesen, welche seinerseits der Veränderung unterliegt, so dass die Wissenschaft selbst als Teil der Problematik begriffen werden muss.
4) Warum nur in die Zukunft blicken wollen, und nicht zugleich auch in die Vergangenheit, insofern sich doch beide Dimensionen (ein und derselben Zeit) in ihrem Sein gegenseitig bedingen?
Ist das Denken eine...
Ist das Denken eine „gebrochene Dimension“?
.
Den kulturellen Einfluss könnte man noch weiter spezifizieren. So habe ich mir vor einiger Zeit schon die Vorstellung zu eigen gemacht, dass die Hybris eines Kapitals, welche da Energieverschwendung für die Grundverschwendung schlechthin hält (https://blog.herold-binsack.eu/?p=2246), der eigentliche Motor bei der Entdeckung des 2. Satzes der Thermodynamik gewesen ist. Bezogen habe ich mich dabei auf eine hochinteressante Ausarbeitung, welche ich im Internet gefunden hatte – https://www.umwaelzung.info/entropie.html.
.
Die subjektiven Interessen, die individuellen- wie auch Klasseninteressen, sind eine nicht unwesentliche Triebfeder beim Auffinden des Objekts der wissenschaftlichen Begierde. Sie bestimmen Thema und Richtung einer ganzen Forschungsepoche, und damit unterdrücken sie zugleich all die anderen Möglichkeiten. Wo die möglichst wirkungsverlustarme (wie zeitsparende) Umwandlung aller verfügbarer Energie(quellen) in Arbeitsenergie die Forschungsgier befeuert, kommt die Umkehrung dieser Beziehung, nämlich die Rückwirkung hierbei auf Mensch und Natur, erst dann zum Bewusstsein, wenn der ganze biochemische und biothermische Organismus irreversible Schäden erlitten hat. Von den sozio-kulturellen Deformationen ganz zu schweigen.
.
Jetzt sind wir soweit und reden von „Entschleunigung“, ohne mit diesem Begriff allzu viel anfangen zu können. Daher in Anführungszeichen. Beschleunigung, das ist unser auf uns maßgeschneiderter Begriff. So sehr, dass wir immer noch Autos bauen, deren Beschleunigungsmöglichkeiten unsere kulturelle Weiterentwicklung, wenn nicht gar unser nacktes Überleben behindern. Und warum das Ganze? Weil wir auf einen Raum fixiert sind, der uns quasi – in der Zeit – zu entfliehen scheint.
.
Und das wird jetzt wohl eine Epoche der Forschung hervorbringen, die dem Verhältnis zwischen „dunkler Energie“ und „dunkler Materie“ gewidmet sein wird. Die Möglichkeit, dass es beides gar nicht gibt, sondern nur das Vakuum, was durch unsere bisherigen Irrtümer hervorgebracht wurde, nur noch mal mit weiterer Leere „auffüllt“, kommt dabei wenig in Betracht.
.
Es wird uns dabei nur ein kleiner Trost sein, dass diese wissenschaftliche Irrfahrt, der eines Odysseus fast haargenau entspricht. Denn während der antike Mythos eine Penelope 20 Jahre auf ihren Gatten warten lässt, ohne dass diese an ihm zweifelt, ist eine Gesellschaft, die auf die kürzeste aller möglichen Zeit fixiert ist, weniger geduldig. Die Zeit verfehlen, kann heute bedeuten, das Schicksal einer ganzen historischen Epoche verspielen. Die Grundfragen müssen immer wieder ins Auge genommen werden:
.
Gibt es ein Verhältnis zwischen Raum und Leere im Kosmos? Kommt aus jener „Leere“/dem „Nichts“ der Raum? Bzw., ist alles Energie durchflutet (von Ewigkeit/von Beginn an)? Und was wäre dann Materie und Raum im Kontext solcher Fragestellungen? Und ist auch eine solche Materie in Wahrheit nur Energie, und alles Drumherum ein Hologramm (https://blog.herold-binsack.eu/?p=2242), die Perspektive eines intelligenten Subjekts? Wie inhärent überhaupt ist ein solches Subjekt – eine jene Perspektive – in Bezug auf das von ihm wahrzunehmende/wahrgenommene „Äußere“?
Entsprechen biologische wie soziale Organismen, aus kosmischer Sicht, einem Fraktale-Algorithmus? Also ist des Menschen Denken nur eine „gebrochene Dimension“ innerhalb dieses Kosmos?
.
Ohne solche und weitere eigentlich philosophischen Fragen, erleidet jede auf rein technischen Fortschritt orientierte „Naturwissenschaft“ ihre eigene Irrfahrt.
Danke, ein wunderbarer Beitrag...
Danke, ein wunderbarer Beitrag zur Weihnachtszeit, man muss beim Lesen viel Lachen und wird fröhlich.
„Irren die Philosophen also mit ihrem wissenschaftlichen Fortschrittskeptizismus im Fall der Astrophysik?“
Nein
„Konstruieren Physiker und Astronomen lediglich passende Repräsentationen, die wenig mit der inhärenten Struktur des Universums zu tun haben, in dem wir leben?”
Ja
„Bleibt als Fazit, dass der Blick in die Zukunft im Detail doch weniger einfach ist, als man es sich manchmal wünschen würde.“
Ausgezeichnet, eine korrekte Einsicht, die sie leider nicht weiterführen… was so ein rechter Wissenschaftler der gibt sich lieber mit dem „wohlige Schauder“ zufrieden?
Wollen sie uns ernsthaft sagen, dass in ein paar Jahrhunderten das Bild, das sich diese „Wissen“schaft heute vom Kosmos macht, mit jenem künftigen mehr gemein hat, als das der römischen Kirche zur Zeit Galileis?