Home
Planckton

Planckton

Die Wissenschaft ist ein ernstes Geschäft, aber gehört ihr deshalb das letzte Wort?

Der Datenmythos

| 16 Lesermeinungen

Wissenschaft produziert Daten, aber sind Daten auch Fakten? Welche Rolle spielen Daten in den Wissenschaften und was können wir aus ihnen lernen? Ein Plädoyer für einen sorgfältigen Blick auf die Bedeutung und den Kontext von Daten.

Man kann es nicht oft genug feststellen: wir leben im Datenzeitalter. Überall werden ständig Daten erzeugt, gespeichert, ausgewertet, wir hinterlassen Datenspuren im Netz, wir sichern Daten in der Cloud und tragen eine Fülle von Daten auf unseren Smartphones mit uns herum. Gleichzeitig sind Daten mehr und mehr zu einem öffentlichen Gut geworden. WikiLeaks macht sich die Veröffentlichung geheimer Daten zum Auftrag, Journalisten durchforsten öffentliche Datenbanken um Daten kritisch zu prüfen und verständlich für ein großes Publikum darzustellen und zu visualisieren.

Die Wissenschaft ist entsprechend nur eine Unternehmung unter vielen, die mit Daten arbeitet und sich auf Daten gründet. Der LHC erzeugt beispielsweise im Betrieb pro Jahr 15 Millionen Gigabytes, das in der Planungsphase befindliche radioastronomische Observatorium „Square Kilometre Array“ wird pro Jahr sogar 350 Milliarden Gigabytes an Rohdaten erzeugen und damit alles in den Schatten stellen, was die Menschheit bisher an Datenerzeugung erlebt hat. Durch die Datenbrille gesehen scheint Wissenschaft damit die Unternehmung systematischer, objektiver Datenerzeugung und -interpretation zu sein. Der Wissenschaftler ringt der Natur Daten ab, die daraufhin wissenschaftlich interpretiert werden können, um der Welt ihre letzten Geheimnisse zu entlocken. Immer stärker wird damit Wissenschaft zur „E-Science“: Daten werden archiviert und digital öffentlich verfügbar gemacht, um eine Weiterverwertung von Daten zu ermöglichen. Dahinter steht neben der Notwendigkeit, der überwältigenden Menge erzeugter Daten Herr zu werden, der Wunsch einer optimalen Nutzung öffentlich finanzierter Daten und die Hoffnung, dass auf der Grundlage Projekt-übergreifender Datenbanken völlig neue wissenschaftliche Fragen gestellt werden können.

© Quelle: SKA Organisation/Swinburne Astronomy ProductionsAbbildung: Jeden Tag mehr Daten als das gesamte Internet – das geplante Square Kilometre Array.

Vor diesem Hintergrund der Omnipräsenz von Daten ist es erstaunlich, wie wenig die Frage gestellt wird, was Daten, insbesondere wissenschaftliche Daten, eigentlich sind. Der lateinische Namensursprung führt auf eine zweifelhafte Fährte: Daten erscheinen als das „Gegebene“, und sofern sie uns als dieses Gegebene fertig vorliegen, können wir unsere Energie allein darauf verwenden, aus den Daten schlau zu werden, sie zu interpretieren, zu visualisieren und innerhalb von Wissenschaft mit den von uns entwickelten Theorien abzugleichen. Dass dieses einfache Bild aber leider zu kurz greift, zeigt sich, sobald man zu analysieren versucht, wie wissenschaftliche Daten innerhalb wissenschaftlicher Praxis erzeugt und genutzt werden.

Die Philosophen James Bogen und James Woodward haben 1988 zu diesem Zweck die Unterscheidung zwischen Daten und Phänomenen eingeführt. Ihre im ersten Moment erstaunlich klingende Beobachtung ist, dass wissenschaftliche Theorien keine Aussagen über Daten machen, und demgemäß auch nicht mit Daten verglichen werden können. Der Grund dafür ist, dass Daten in ihrer Entstehung immer einer großen Anzahl von Störfaktoren ausgesetzt sind, die mit dem von der Theorie vorhergesagten Phänomen nichts zu tun haben. Wenn man zum Beispiel versucht, den Schmelzpunkt von Blei zu bestimmen, wird man nach der Durchführung des Experiments eine Datenmenge verschiedener Temperaturablesungen erlangt haben, von denen vermutlich keine dem tatsächlichen Schmelzpunkt genau entspricht. Stattdessen beobachtet man eine statistische Streuung einzelner Datenpunkte. Das liegt offenbar nicht daran, dass der Schmelzpunkt von Blei variabel ist, sondern daran, dass die Ablesung der Schmelztemperatur nur mit eingeschränkter Genauigkeit möglich ist.

Um aus den Messdaten einen Wert für den Schmelzpunkt abzuleiten, ist man daher darauf angewiesen, Annahmen über die statistische Natur der Streuung zu machen, beispielsweise dass die Daten einer Normalverteilung folgen, man sinnvoll ihren Mittelwert als Abschätzung für den tatsächlichen Schmelzpunkt nehmen kann, und es keine unentdeckten systematischen Fehler wie z.B. eine Fehlfunktion des Thermometers gibt. Diese Situation klingt im genannten Beispiel nicht sonderlich besorgniserregend, da die eingehende Statistik intuitiv und der experimentelle Rahmen sehr einfach ist. In heute betriebenen, wissenschaftlichen Großprojekten kann der Weg von den Rohdaten zu interpretationsfähigen Daten aber fast beliebig komplex werden. Störeinflüsse und Hintergründe werden korrigiert, schlechte oder uninteressante Daten werden entfernt, Daten kalibriert und transformiert. All dies setzt ein detailliertes Wissen in Bezug auf das experimentelle Setup, über die genutzten Methoden, Instrumente und die experimentellen Umstände voraus.

© S. AnderlAstronomische Daten

Diese Tatsache führt auf den von Bogen und Woodward identifizierten zentralen Unterschied zwischen Daten und Phänomenen: Daten haben nur in Zusammenhang mit ihrem experimentellen Kontext Sinn, ohne diesen Kontext können sie nicht verstanden werden. Phänomene dagegen sind das, was sich in verschiedenen Experimenten zeigt, was stabil und reproduzierbar ist. Je näher man sich als Wissenschaftler an den ursprünglichen Rohdaten bewegt, desto mehr Wissen über deren Entstehung ist notwendig, um verlässliche, „gute“ Wissenschaft zu betreiben und zu extrahieren, was an stabilen Aussagen über Phänomene in der Welt wirklich in den Daten steckt. Jocelyn Bell Burnell, die Entdeckerin der Pulsare, führt ihre Entdeckung beispielsweise auch darauf zurück, dass sie ihr Beobachtungsinstrument in all seinen Eigenheiten und Verhaltensweisen so gut kannte, dass sie relativ schnell ausschließen konnte, dass die Auffälligkeiten in ihren Daten auf eine instrumentelle Fehlfunktion zurückführbar sein konnten. Andernfalls, so ihre Vermutung, hätte sie diese Anomalie vielleicht nicht weiter verfolgt und hätte sich stattdessen schnell wieder auf ihre ursprüngliche Forschungsfrage konzentriert. Was es bedeutet, Daten ohne entsprechende experimentelle Erfahrung zu erzeugen, kann man in der universitären Ausbildung beobachten. Beispielsweise werden in physikalischen Anfängerpraktika wohl täglich die klassischen Gesetze der Physik experimentell falsifiziert (natürlich ohne dass man daraus auf die Falschheit der Physik schließen würde). Hier greift der Ausspruch, mit dem der Philosoph und Teilchenphysiker Allan Franklin seinen ehemaligen wissenschaftlichen Betreuer zitiert: „Any fool can take data, it’s taking good data that counts.“

© dpaAbbildung: 15 Millionen Gigabytes pro Jahr – der LHC als Datenfabrik.

Daten sind also nicht einfach „das Gegebene“, sondern benötigen immer einen Entstehungskontext, um verstanden und beurteilt zu werden. Sofern dieser Entstehungskontext in den Daten korrigiert und damit relativiert wird, erlangen die Daten eine Geschichte der Datenselektion und –analyse: Was waren die Kriterien dafür, bestimmte Daten auszusondern? Welche Annahmen über Störeinflüsse sind in die Datenanalyse eingegangen? Welche Kalibrierung wurde gewählt? Welche Modelle sind genutzt worden? Wenn Daten archiviert und veröffentlicht werden sollen, steht man daher vor der Grundsatzentscheidung, welche Daten innerhalb der Hierarchie der prozessierten Daten öffentlich gemacht werden sollen. Wählt man die meist sehr umfangreichen Rohdaten um verschiedene Strategien der Datenreduktion zu ermöglichen und vertraut auf ein hohes Fachwissen der Nutzer in Bezug auf die Behandlung der Daten oder veröffentlicht man reduzierte Daten, bei denen der Nutzer sich andersherum darauf verlassen muss, dass im Zuge der Datenreduktion die bestmögliche Methode fehlerfrei angewendet wurde?

Eine Lösung für dieses Problem scheint in jedem Fall eine möglichst gute und vollständige Dokumentation der Daten zu sein. Doch auch diese Lösung läuft unter Umständen in ein systematisches Problem: wissenschaftliche Praxis beruht nämlich nicht nur auf Wissen, das man explizit aufschreiben und dokumentieren kann. Die Existenz von „tacit knowledge“, implizitem Wissen, wurde 1958 von Michael Polanyi beschrieben. Sein prominentes Beispiel ist die Fähigkeit des Fahrradfahrens: Auch wenn wir in der Lage sind Fahrrad zu fahren, können wir keine Regeln angeben, die diese Fähigkeit vermitteln. Ähnliches Wissen scheint es innerhalb von Wissenschaft zu geben: kollektives, implizites Wissen, das vom wissenschaftlichen Nachwuchs im Lösen von Übungsaufgaben, experimentellen Praktika und Workshops zur Datenbearbeitung erworben wird. Sofern ein Nutzer archivierter Daten über entsprechendes Wissen nicht verfügt, ist eine noch so gute Datendokumentation unter Umständen nur von sehr eingeschränktem Nutzen.

© dpaAbbildung: Kann man rein theoretisch die Fähigkeit vermitteln, Fahrrad zu fahren?

Die Probleme, die sich im Kontext der Etablierung von „E-Science“ stellen, wurden von verschiedenen soziologischen Studien genauer untersucht. Beispielsweise veröffentlichten Samuelle Carlson und Ben Anderson von der Universität Essex 2007 die Ergebnisse von Feldstudien und Interviews in vier verschiedenen wissenschaftlichen Datenarchivierungsprojekten innerhalb der Astronomie, Kunst, Anthropologie und dem UK data archive. Ihr Ergebnis war fachübergreifend, dass es typischerweise nicht möglich ist, Wissen einfach und unkompliziert aus seinem Produktionskontext zu extrahieren. Überall stellte sich das Problem der Dokumentation, des Kontexts und der Herkunft der Daten, um eine sinnvolle Weiterverwertung der Daten gewährleisten zu können: „[In these projects]… data were not self-contained units that could easily be circulated, but always needed complementary external information to be understood or trusted.“ („[In diesen Projekten] waren Daten keine autarken Einheiten, die einfach herumgereicht werden konnten, sondern benötigten immer zusätzliche, externe Information um verstanden und als zuverlässig eingeschätzt werden zu können.“) Das bedeutet offensichtlich nicht, dass eine Archivierung und Veröffentlichung von Daten unmöglich ist, es zeigt aber, dass das naive Bild der selbstständigen Daten, die zum sofortigen, unkomplizierten Gebrauch im Internet verfügbar zu machen sind, irreführend ist und gefährlich werden kann, sofern das Fehlen von Kontextwissen auf Seiten des Nutzers zu Fehlinterpretationen führt.

Die soziologischen Studien zeigen, dass sich die Wissenschaftler der Komplikationen und Gefahren in der Weitergabe wissenschaftlicher Daten sehr wohl bewusst sind. Eine solche Weitergabe kann funktionieren, wenn neben einer vollständigen Dokumentation ein geteilter Rahmen etablierter Standards und Methoden zwischen Datenerzeugern und Datennutzern vorhanden ist. Wie ist es aber in Fällen, in denen Daten nicht nur aus ihrem Entstehungskontext losgelöst werden, sondern die Nutzung wissenschaftlicher Daten außerdem außerhalb eines wissenschaftlichen Kontextes passiert?

Motiviert durch die öffentliche Zugänglichkeit großer Datenbestände im Internet hat sich in den letzten Jahren eine neue Form des Journalismus formiert, der sogenannte Datenjournalismus. Ziel ist es, „Daten verständlich, informativ und unterhaltsam“ darzustellen. Dass ein solches Konzept durchaus Sinn machen kann, zeigen beispielsweise Projekte, die politisch relevante bzw. brisante Daten (im Sinne von Informationen) einer breiten Öffentlichkeit zugänglich machen. Solche Informationen (wie z.B. Steuerabgaben, militärische Haushaltsausgaben, demographische Daten) sind in der Regel unabhängig vom konkreten Kontext ihrer Generierung. Die dargestellten Informationen sind insofern Phänomene im Bogen-Woodward’schen Rahmen und keine Daten, für deren Verständnis man wissen muss, wie die Datenerzeugung konkret stattgefunden hat.

Die Ausweitung des datenjournalistischen Konzeptes auf wissenschaftliche Daten ist demgegenüber offensichtlich schwieriger, da hier wie beschrieben die Unterscheidung zwischen Phänomenen und Daten aufgrund der größeren Komplexität angewandter Methoden zentral wichtig ist. Wenn diese Unterscheidung nicht gemacht wird, kann es schnell zu Verwirrungen kommen. Eine solche Verwirrung kann man beispielsweise im Titel des Datenblogs des Guardians erahnen: „Data Blog – Facts are sacred“. Die heiligen Fakten finden sich in der Wissenschaft aber typischerweise nicht als Daten, sondern erst, sobald aus diesen Daten die stabilen, reproduzierbaren Phänomene abgeleitet werden. Dass dies keine reine linguistische Haarspalterei ist, kann man im genannten Blog beispielsweise in der Darstellung von Meteoriteneinschlägen unter dem Titel: „Every meteorite fall on earth mapped“ sehen. Der Titel bezieht sich auf ein Phänomen: Meteoriteneinschläge auf der Erde. Der Untertitel präzisiert daraufhin: „Or at least those we know about“, spricht damit also über Daten, die eben nicht nur dadurch bestimmt sind, wo Meteoriten eingeschlagen sind, sondern auch dadurch, wie diese Einschläge festgehalten wurden.

Tatsächlich dominiert diese Uneindeutigkeit die abgegebenen Leserkommentare. Immer wieder wird erstaunt festgestellt, dass Meteorite offensichtlich Wasser und dünn-besiedelte Gebiete meiden: „it’s amazing that no meteors have fallen into the sea.“ („es ist erstaunlich, dass keine Meteore ins Meer gefallen sind.“) „I think this map is somewhat puzzling. Presumably where the meteorite fall is completely random, but the map doesn’t show it to be random.“ („Ich finde diese Karte etwas verwirrend. Vermutlich ist es völlig zufällig, wohin Meteoriten fallen, aber die Karte zeigt, dass es nicht zufällig ist.“) Viele Leser erwarten offenbar eine Darstellung des Phänomens (Meteoriteneinschläge), bekommen stattdessen aber etwas anderes, wie schließlich ein Leser treffend diagnostiziert: „this is a map of the density of scientific observation.“ Daten machen eben nur im Kontext ihrer Generierung Sinn.

© Quelle: Mirko Lorenz / CC BY-SA 3.0 Datenjournalismus: nehme Rohdaten, suche nach Mustern, visualisiere und erzähle eine Geschichte.

Das Beispiel der Meteoritenbeobachtungen ist natürlich eines, bei dem sich Missverständnisse bereits auf der Grundlage des gesunden Menschenverstandes klären lassen sollten, da es noch nicht einmal aus einer wirklichen experimentellen Praxis heraus stammt (anders gesagt: das zum Verständnis der Daten notwendig geteilte Hintergrundwissen bewegt sich auf einem niedrigen Niveau). Dass sich trotzdem schon hier Verständnisprobleme ergeben, zeigt, wie wichtig eben doch eine wissenschaftliche Interpretation von Daten ist, die damit einher geht, dass der Öffentlichkeit Phänomene statt Daten präsentiert werden, so dass sich die Leser nicht spekulativ den Kopf über Methoden und Kontexte der Datengenerierung zerbrechen müssen, sofern diese Methoden und Kontexte nicht explizit thematisiert werden. Wissenschaftliche Daten sprechen im Normalfall nicht für sich selbst. Das Ziel von Wissenschaft ist nicht, Daten zu generieren, sondern Daten zu generieren, zu bearbeiten und zu interpretieren. Das Endprodukt dieser kombinierten Aktivität ist das, was man gemeinhin als wissenschaftliche Fakten bezeichnet.

Sofern man die Leser trotzdem mit wissenschaftlichen Daten im engen Sinne konfrontiert, muss ihnen deren Entstehungskontext zugänglich gemacht werden, damit sie aus den Daten etwas lernen können. Auch journalistisch aufbereitete Daten erfordern daher eine ausreichende Dokumentation, die darüber Aufschluss gibt, welche Fragestellungen zur Aufnahme der Daten geführt haben, welche Annahmen und wie viel Datenbearbeitung in die dargestellten Daten bereits eingegangen sind, beispielsweise indem die entsprechende wissenschaftliche Veröffentlichung verlinkt wird. Sobald dies nicht passiert und der Mythos verbreitet wird, die reinen, nackten Daten seien das was wahr und heilig ist, verkehrt sich der erkenntnistheoretische Wert wissenschaftlicher Daten in sein Gegenteil, egal wie hübsch visuell sie dargestellt sein mögen.

0

16 Lesermeinungen

  1. Vernunft...
    vernünftiges Denken, Handeln, Dialog führen,
    kann uns wesentlich vom Tier unterscheiden, als reflexionsfähige Synthese von Herz und
    Verstand. Ein genügender Rest “Affenliebe” oder “rationale Besessenheit”, z.B. bezüglich
    Daten, Fakten,…können das von Ihnen angesprochene “Niveau”…hier Vernunft, erheblich
    beeinträchtigen und einen “geistigen Parallaxefehler” bewirken. Vielleicht ist diese Synthese
    ja ein Reifezweck des Lebens, zur “Heilung” der “Erbsünde” (Sünde=Trennung);
    physik. die Überwindung des evolutionär weiter”gegebenen” Symmetriebruchs im Universum?….aber notwendig, da ohne Symmetriebruch keine geistige Reflexion möglich.
    In Abwandlung eines Zitates von Indira Ghandi noch folgendes:
    Vorsicht vor Menschen die nicht ohne Daten, Fakten, Erkenntnisse gewinnen können und vor Menschen, die nur mit Daten und Fakten Erkenntnisse gewinnen können.
    Zitat:
    Um “KLAR” zu sehen, genügt oft ein Wechsel der Blickrichtung.
    Antoine de Saint-Exupery
    ….besonders vertikal, tief ins eigene Herz. Griechenland: Erkenne Dich Selbst….Reflexion.

  2. DATEN / FAKTEN
    Frau SIBYLLE ANDERL, Sie reden um den Brei.
    Wer verlangt schon, dass Daten Fakten sein sollten ? Mit der Moderne (seit 1927) hat sich die Wissenschaft total verändert. Erst aus tausenden von Daten gelangen Sie zu Fakten. Ist das klar ?
    Hier eines der schönsten Beispiele zur gegenwärtigen Forschung bezüglich des Sonnenwindes.
    In den 60 Jahren studierte ich an der Universität Bern. Rektor Prof. Grieder wurde weltbekannt mit dem Sonnwindsegel auf dem Mond. Die erste Sonnenmasse konnte untersucht werden.
    Unterdessen sind viele Phänomene beobachtet worden. Das bekannteste ist folgendes.

    NASA’s älteste aktive Raumsonde Wind, gestartet 1994, mit Magnetbändern zum Speichern von Daten, sehr gut gegen eventuell schädliche Strahlung abgeschirmt, funktioniert immer noch und wird auch für die nächsten 60 Jahre genügend Stromreservern haben, ermöglicht neue Erkenntnisse über die Beschleunigung vom Sonnenwind. Weshalb zeigen die unterschiedlichen Teilchen verschiedene Beschleunigungen, wo sie doch alle von der gleichen Quelle kommen ?
    Die Antworten und die spannende Forschung können Sie hier selber nachlesen und studieren. Sie bekommen Einsicht in die Ionen Cyclotron Wellen.
    http://science.nasa.gov/science-news/science-at-nasa/2013/08mar_solarwind/

    Neue Erkenntnisse gelangen zum Teil nur noch mit Hilfe von Computern. (Riesige Datenmengen, die vom Einzelmensch nicht mehr überblickt werden können. Das ist kein Mythos !!! )
    NACHTRAG: Sie sehen, dass aus Daten Fakten auftauchen.
    Im klassischen Denken gab es diese Trennung von Daten und Fakten noch nicht. Wo sind Sie stecken geblieben, Frau SIBYLLE ANDERL ? In der Klassik ? Dann haben Sie sicher viel Geld ausgegeben und sind recht anständig. In der Moderne pfeifft man darauf. Kein Geld, wenig Anstand; dafür hohen Forscherdrang. Folgen Sie Shinya Yamanaka und John Gurdon via You Tube für 2 Stunden in der Nobel Lecture von 2012.
    Viel Spass und Neugierde mit Freude. Crigs

  3. Den gesellschaftlichen Anteil nicht unterschätzen
    „Kollektives“ Wissen als implizit zu bezeichnen, entbindet Sie nicht der Pflicht auf die genaue Herkunft eines solchen zu verweisen. Es ist nämlich auch, wenn nicht gar vor allem „gesellschaftliches“ Wissen, also weniger individuell neu erworbenes. Man könnte es auch als Ausdruck eines kulturellen Standards bezeichnen, an dem mehr oder weniger Alle teilhaben. Wo das Fahrrad ganz generell nicht bekannt ist, dürfte das Erlernen wohl möglich sein, aber das könnte sehr schmerzhaft werden. Allerdings ist es schwer gesellschaftliches Wissen von individuell neu erworbenem streng zu unterscheiden. So hat meine Tochter, die auf dem Laufrädchen schon gefahren/gelaufen ist, das Radfahren – ohne Stützräder – in genau 20 Minuten gelernt. Mein Sohn, der das Laufrad nicht kannte, benötigte dafür 3 Stunden. Und ich musste ihn massiv dabei unterstützen. Und das, obwohl meine Tochter gewissermaßen motorisch nicht so gut drauf war, wie mein Sohn. Zur Kindheitszeit meines Sohnes gab es noch kein Laufrad, hingegen war das für meine Tochter schon eine bekannte Technik. Und auch das Laufrädchen beherrschte sie relativ schnell, trotz wie gesagt der „schwächeren Motorik“. So ist mein Sohn in ihrem Alter dennoch erheblich besser Fahrrad gefahren, und das obwohl er, infolge eines frühkindlichen Grauen Stars (und der damit einhergegangenen OP) das 3-dimensionale-Sehen, hat lernen müssen zu ersetzen – eben durch das Fahrradfahren. Persönliche Dispositionen und gesellschaftliche Voraussetzungen verwachsen zu einer Einheit, die ob der vielfältigen Wechselwirkungen kaum noch zu trennen geht. Doch können wir darauf nicht verzichten, es sei denn, wir sind philosophische Idealisten.

  4. Dank eines Ökonomen
    Dieser Artikel hat die Fallstricke bei der Interpretation von Daten sehr detailliert für die “harten” Wissenschaften sehr schön herausgearbeitet; um so schwieriger ist es bei den nicht ganz so harten.

    Als Ökonom (aber nicht wissenschaftlich aktiv) beobachte ich, wie schwer sich Politik, veröffentlichte Meinung und Publikumsmeinung in Leserkommentaren tun, ökonomische Daten zu interpretieren. Einerseits braucht es einen theoretischen Hintergrund, wenn man wissen will, was einzelne Daten bedeuten, andererseits Fachwissen/Hintergrundwissen, wie die Daten im einzelnen entstanden sind. Da gibt es erstens jede Menge an Interpretationen, die sich mit kurzer Zusatzinformation als unsinnig aufzeigen ließen (wenn die Menschen dafür Zeit und Bereitschaft hätten). Zum anderen gibt es aber auch stark divergierende Interpretationen der gleichen Daten, bei denen eine solche Klärung schwerfällt: denn da sich auch intelligente Ökonomen in den Grundtheorien ihrer Wissenschaft erheblich weniger einig sind, können verschiedene Deutungen, je nach gewählter Grundtheorie, Bestand haben.

    Dieser Artikel zeigt, dass es nicht nur der Dummheit oder Vorurteilsbeladenheit der Beteiligten geschuldet ist, wenn es zu Schwierigkeiten und Divergenzen kommt – Annahmen, die schnell viel Wut erzeugen. Es gibt ganz sachliche, nur schwer, manchmal gar nicht abbaubare Probleme, die einer korrekten Dateninterpretation im Wege stehen. Und es sind nicht notwendigerweise nur die anderen, die sich immer irren.

    Danke für diese detaillierte, gutdurchdachte Ausführung.

  5. Vielen Dank..
    für den “Impuls”, den Ihr Artikel bei mir ausgelöst hat. “Die Welt der Zahlen”…so hieß mein erstes “Mathebuch”….Sie müssen die Mathematik lieben, um sie zu verstehen, sagte Jahre
    später ein deutscher Mathematiker, Physiker und Philosoph zu mir. Datenbanken, Datenbahnen..
    “Zeitbahn(en)” Evolution(en)…des und im Universum. Zahlen als Basis. Die “indirekte” Liebe
    der Mathematik, nämlich die Fähikeit, das “Produkt” zu erleben, “zu erlieben”, ist mir gelungen.
    Bewußt der Schöpfung begegnen, und sehen, daß einsame Daten auch in ein kunstvolles Gegenteilprodukt von ” seelenlos reinen Daten” transformiert werden können und die Freiheit, es dem Einzelnen zu überlassen, was er sieht, hört und wie er es interpretiert.
    Wenn aus “Daten”,”Datenmelodien auferstehen”,bewußter Schöpfungsgeist erlebt werden kann, dann ist für mich Gott plausibel und Beweis durch die Schöpfung selbst…
    auch weil sie “so hübsch visuell dargestellt ist”.

    • Zusatz...
      Mathematik bewußt als Schöpfung und in bewußter Schöpfung “hübsch dargeboten”.
      “Das GegEbene”, in Form von “Gegen-Ebenen”.

  6. Experimentalphysik geht aber anders
    Völlig falsch, was Sie zur Schmelzpunktbestimmung schreiben. Statistik spielt da überhaupt keine Rolle. Vielmehr ist die erreichbare Genauigkeit begrenzt durch die chemische Reinheit, durch die Reproduzierbarkeit der Isotopenmischung, durch Temperaturgradienten im Versuchsaufbau und durch die Schwierigkeit der Temperaturmessung selbst – Quellen systematischer Unsicherheit, die extrem schwierig zu quantifizieren sind, und Themen, denen Metrologen ihr Leben widmen. Normalverteilt ist da gar nichts, und wenn Sie meinen, der “experimentelle Rahmen” sei “sehr einfach”, dann demonstrieren Sie nichts als die Unbrauchbarkeit einer Wissenschaftsphilosophie, die ihren Gegenstand nicht sehr genau kennt.

    • Ihren Einwand finde ich sehr interessant!
      Da ich aber kein Physiker bin, kann ich seine Stichhaltigkeit nicht einschätzen. Erhellend wäre eine Stellungnahme der Autorin, die – wie ich meine – einen sehr gut verständlichen Artikel über ein interessantes Thema geschrieben hat. Die von Frau Anderl angesprochene Problematik wird in der öffentlichen Wahrnehmung vor allem der Arbeit von Naturwissenschaftlern und Ökonomen oft nicht angemessen berücksichtigt. Vom irrigen Eindruck, den Laien aus der unreflektierten Konfrontation mit so genannten Daten gewinnen können, einmal ganz zu schweigen!

      Auch wenn Sie Ihre Kritik etwas massiv erheben, stellen Sie indirekt die berechtigte Frage, wodurch sich guter Wissenschaftsjournalismus auszeichnet. Ich halte ihn ohnehin für die schwierigste journalistische Gattung. Noch stärker als bei allen anderen Arten des Schreibens muss seinem Autor bewusst sein, gültiges Zeugnis nur dann über einen Gegenstand ablegen zu können, wenn ihm dieser sehr gut vertraut ist. Nur so wird es ihm möglich sein, komplexe Inhalte für den Laien ohne Rückgriff auf Fachsprache „herunterzubrechen“, sie verständlich zu machen ohne faktenentstellende Verkürzungen zu begehen.

      Andererseits lese ich aus Ihrer Stellungnahme die Gereiztheit des Fachmenschen, der Übergriffe der Wissenschaftsphilosophie auf sein umhegtes Territorium konstatiert. Übergriffe, die er mit dem Hinweis auf deren Laienhaftigkeit entschieden zurückweist. Welche Erfahrungen jenseits der Schmelzpunktbestimmung liegen dieser Abwehrhaltung zugrunde?

    • Experimentelle Praxis
      Sehr geehrter Herr Mersch,

      jeder, der in seinem Leben schon einmal einen Schmelzpunkt (oder ein anderes Phänomen) experimentell zu bestimmen versucht hat, weiß: Messwerte streuen nunmal (auch ich würde mir wünschen, es wäre anders, und man würde in den empirischen Wissenschaften ohne Statistik auskommen…). Wie ich aus eigener Erfahrung versichern kann, wird man damit schon als Student in physikalischen Laborpraktika vertraut gemacht (zu denen üblicherweise auch eine Schmelzpunktbestimmung gehört) – in eigener Forschung ist dies später nicht anders, z.B. wenn ich heute mit meinem Kollegen Intensitäten von CO-Linien im interstellaren Medium messe. Zusätzlich zu zufälligen Fehlern gibt es natürlich, wie auch im Text erwähnt, systematische Fehler in experimentellen Messungen, deren Abschätzung im Vergleich erheblich schwieriger ist (sofern überhaupt möglich) und die daher in vielen Fällen die Datenanalyse dominieren können.

      Unabhängig davon ist aber das Schöne am Einwand von Herrn Gruber, dass er das Argument von Woodward und Bogen nicht entkräftet sondern im Gegenteil nur noch stärker macht: experimentelle Daten entstehen aus einer experimentellen Praxis heraus und erfordern Kontextwissen, umso mehr wenn man die Schmelzpunktbestimmung nicht in der einfachen von Woodward und Bogen geschilderten Konstellation einer typischen physikalischen Grundpraktikums-Messung aufzieht (die meist wohl tatsächlich durch Ablesefehler unerfahrener Studenten verzerrt ist), sondern sie den professionellen Metrologen überlässt, und unabhängig davon, ob man sich nun auf zufällige oder systematische Fehlerquellen konzentriert.

    • @ Hans Gruber & Sybille Anderl
      Sehr schön versuchen Sie, Herr Gruber, wissenschaftliches Arbeiten darzustellen. Viel eindrücklicher erklärt es uns Brian Paege via You Tube in Part 6 bis 9 in der Lasker Lecture 2010. Schauen Sie rein.
      Im ersten Teil dieser Vorlesung (Part 1 bis 5) erklärt Ihnen Jack Szostak die Abiogenesis.
      Fazit: Um tiefer in das Geheimnis “Leben” eindringen zu können, braucht es genauere Messmethoden und genauere Experimente. Diese Genauigkeit erreichen wir nur mit Hilfe der Computer. Philosophen bleiben vor der Tür und können keinen Beitrag leisten.
      Sorry, Frau Sybille Anderl, dass Ihre beiden erwähnten Persönlichkeiten abgewiesen werden.
      Beide sind Taugenichte. (Gottfried Keller)
      Das Vorgehen von Brian Paegel wird Ihnen helfen, den Schmelzpunkt noch genauer zu bestimmen in Bezug auf…..
      Viel Spass und Freude. Crigs

  7. Neuestes Beispiel HFCS (aka Reichtumsbericht der EZB)
    Ergebnis der HFCS ist, wenn man den Medien trauen soll, dass die Deutschen relativ arm sind. Wer Lust hat, kann bei http://www.ecb.int/home/html/researcher_hfcn.en.html nachschauen, wieviele Merkmale gemessen wurden (und damit zu Daten wurden) und welche vielen Zwischenschritte notwendig sind, um zu “analysierbaren” Daten zu kommen.
    Re Dokumentation und praktisches Wissen: es gibt die Idee der kaskadierenden Dokumentation (Beispiel Schnellanleitung für den Herd bis zur Dokumentation der Schraubenherstellung). Aber auch diese kann das praktische Wissen, wie man es denn machen muss nicht ersetzen. Öffentlich zugängliche Datensätze verlocken zu Fast Food Gebrauch, der gottseidank meistens zu erheblichen Bauchschmerzen führt.

  8. Datum
    Daten als “das Gegebene”, schon recht. Aber schon im Wortstamm steckt ja bereits etwas Gerichtet-Prozessuales, das “Geben”. Wer oder was auch immer uns nun das Datum “gibt” – auch ohne jeden metaphysischen Hintergedanken mahnt schon der Begriff, Daten nicht als etwas unhinterfragbar Existierendes zu betrachten.

  9. Sehr schön und stringent dargestellt!
    Die beschriebene notwendige Kenntnis der Systeme führt bei komplizierteren Instrumenten dazu, daß oft drei verschiedene Ebenen direkt am Auswertungsprozeß beteiligt sind: “vorne” der Operateur, der die Technik des Systems kennt, “hinten” der Wissenschaftler, der sein Untersuchungsobjekt bzw. die experimentelle Idee kennt und dazwischen ein Institutswissenschaftler, der von beiden Feldern genug versteht, daß er das Design der automatischen Vorauswertung machen kann.
    Früher wurden die Rohdaten “vorsichtshalber” dennoch gespeichert (ich habe noch eine Schachtel DVDs meines Großprojekts im Schrank), bei den großen Instrumenten (CERN) wird – notwendigerweise – gleich gelöscht, was durchs Raster fällt.
    Man verbaut sich so natürlich die Möglichkeit einer späteren Neuanalyse, aber vermutlich ist es mittlerweile dort einfacher, ein Experiment mit anderen Filterkriterien zu wiederholen als monströse Datenmengen zu archivieren.
    So weit, so gut.

    In der oben erwähnten Studie der Datenarchivierungen vermisse ich allerdings die Disziplin der Ökonomie. Für deren Daten gelten alle erwähnten Prinzipien genauso – nur scheinen sie dort nicht so bewußt zu sein. Noch schlimmer ist wohl die Medizin – jedes Mal, wenn wieder eine “Sensationsmeldung” durch die Medien trompetet (“Aluminium verursacht Alzheimer”), stellt man nach recht kurzer Recherche der Originalartikel fest, daß das im Original ganz anders aussieht. Dazu kommt noch, daß nur ein Teil der Veröffentlichungen, nämlich die (irgendwie) positiven mit einer behaupteten Ursache-Wirkungsbeziehung, auch so verbreitet wird. Vor einiger Zeit gab es dazu eine Studie, die feststellte, daß dort eine ganz massive Unsymmetrie existiert, die dazu führt, daß die Öffentlichkeit ein reichlich falsches Bild von den Wirkungen der Pharmazeutika bekommt.

  10. Wohltuend
    Es ist ausserordentlich wohltuend, einmal einen langen Zeitungsartikel zu lesen, der sehr gut geschrieben ist und sich inhaltlich auf einem wirklich hohen Niveau bewegt. Eine kleine Anmerkung sei erlaubt. Die Autorin unterscheidet, m.E. völlig zurecht, zwischen Daten und wissenschaftlichen Fakten. Daten ohne sorgfältige Interpretation, und zwar oft auch unter Heranziehung von ‘tacit knowledge’, sind meistens ziemlich wertlos und führen oft zu Missverständnissen durch Journalisten (und andere Nicht-Fachleute).

    Wenn allerdings dann der Eindruck erweckt wird, dass hinreichend sorgfältig interpretierte Daten zu wissenschaftlichen Fakten werden, dann würde ich auch hier noch etwas mehr Vorsicht walten lassen. Spätestens seit Karl Popper (was immer sonst man von ihm als Wissenschaftsphilosoph halten mag) wissen wir, dass Fakten ihrerseits der Interpretation durch hypothetisch-theoretische Konstrukte und experimentelle Überprüfung bedürfen, um einen wirklichen Erkenntnisfortschritt zu ermöglichen.

    Angeregt durch Frau Anderls Planckton-Blog habe ich mir noch ihren Artikel “Kritik der reinen Physik(6): Die Verschiedenheit von grau und bunt” angeschaut. Auch davon war ich begeistert – mit einer kleinen Einschränkung. Ich fand es grossartig wie sie Frank Jacksons und Thomas Nagels bahnbrechende Gedankenexperimente ihren Lesern nahe gebracht hat. Was ich mir gewünscht hätte, wäre eine etwas dezidiertere Meinung zu deren Kritik an der Vorstellung, eine vollständige physikalistisch-wissenschaftliche Beschreibung und Erklärung der Welt sei im Prinzip möglich, also ohne einen Rest (z.B. von sogenannten Qualia), der aus dem naturwissenschaftlichen Weltbild herausfällt.

Kommentare sind deaktiviert.