Deus ex Machina

Deus ex Machina

Über Gott und die WWWelt

Wettbewerb in der Wissenschaft: die Bibliometrie

Die Allgemeinheit diskutiert gelegentlich kontrovers über Hochschulrankings - Wissenschaftler hingegen über Publikationsrankings.

Akademische Forschung wird häufig für einen Elfenbeinturm mit selbstreferentiellen Tendenzen gehalten. Aber auch vor der ultimativen Gelehrsamkeit hat die Moderne nicht haltgemacht und versucht, selbige in ein möglichst kompaktes Maß zu verpacken: das Publikationsranking.

Die Bibliometrie, also die Auswertung von Texten und Veröffentlichungen mittels statistischer Methoden, ist ein Kind des 20. Jahrhunderts. Im weiteren Sinne umfasst sie auch Untersuchungen zur Häufigkeit von Wörtern, oder die Analyse von grammatischen und syntaktischen Strukturen. Am umstrittensten ist jedoch vermutlich die Zitationsanalyse und ihre Bedeutung im wissenschaftlichen Betrieb. Dabei werden aus einer bibliographischen Datenbank Informationen zu Veröffentlichungen miteinander verknüpft, so daß das Geflecht von Verweisen und Zitaten sichtbar wird – sowohl thematisch als auch zeitlich.

Bis vor einigen Jahren war es außerordentlich mühsam, Zitate und Querverweise zwischen Veröffentlichungen händisch zu erfassen und zu systematisieren, aber mit der Einführung von Computern taten sich ganz neue Möglichkeiten auf, von den Segnungen des Internets gar nicht zu reden. Der vermutlich bekannteste Zitationsindex, der Science Citation Index, wurde in den 50er Jahren erfunden, zwischenzeitlich kommerziell übernommen und umfasst – nach eigenen Angaben – 3.700 Fachzeitschriften aus über 100 Fachgebieten. Die vermutlich am weitesten verbreitete Anwendung dürfte Google Scholar sein – eine Seite, um die vermutlich kaum ein Student herumkommt. Analog zu normalen Suchmaschinen findet der fleißige Student dort Aufsätze und Arbeitspapiere, kann die Evolution von Forschungsarbeiten nachvollziehen (wenn verschiedene Versionen dort auftauchen) und sieht außerdem, von wievielen Werken der nachfolgenden Forschung ein Papier zitiert wird.

Zitationsindizes erlauben es, einzelne Forscher, Institute, Universitäten und sogar Länder nach ihrer wissenschaftlichen Produktivität zu klassifizieren, gemessen in der Anzahl der Publikationen, gegebenenfalls gewichtet nach dem Ansehen der publizierenden Zeitschrift. Hübsch ist, daß man damit kuriose Landkarten erstellen kann, welche die Beziehungen zwischen den Disziplinen darstellen. Nicht sicher ist, ob so ein Zitationsindex Fluch oder Segen ist – das hängt vermutlich davon ab, wen man fragt.

Für viele ist der Zitationsindex ein bequemes und halbwegs objektives Maß, welches einen aggregierten Anhaltspunkt für wissenschaftliche Produktivität bietet. Einen statistischen Zusammenhang gibt es fraglos, zum Beispiel zeichnen sich spätere Nobelpreisträger bereits deutlich vor Verleihung dieser allerhöchsten Ehre durch hervorragende – und viele – Publikationen aus.

Dennoch muß man bei der Interpretation vorsichtig und mit Augenmaß zu Werke gehen. Die reine Verbindung über ein Zitat sagt nichts darüber aus, ob zwei Aufsätze in Konsens oder Dissens miteinander stehen. Auch hat diese Statistik Schlagseite hin zur Quantität, während die Qualität einzelner Werke kaum erfasst werden kann – es sei denn durch Einbeziehung einer Maßzahl für Qualität und Ansehen des veröffentlichenden Mediums – was wiederum häufig auf Basis von Zitationsindizes erstellt wird.

Als alleiniger Maßstab sind solche Rankings daher reichlich umstritten – in der Praxis aber dennoch enorm relevant. In vielen Fächern gilt die Devise “publish or perish”, Berufungsprozesse orientieren sich maßgeblich an den Veröffentlichungen. In einschlägigen Foren wird diskutiert, wieviele Aufsätze man in einer Fachzeitschrift der ersten, zweiten und dritten Liga man herausgebracht haben muß, um “tenure” zu erhalten, also im angloamerikanischen Raum die Professur auf Lebenszeit. In manchen Fällen werden solche Kriterien sogar schon in den Verträgen für Juniorprofessuren festgeschrieben, und als Frau tut man gut daran, frühzeitig zu heiraten, bzw. in gut feministischer Manier den eigenen Namen zu behalten – eine Namensänderung ist fatal für die Publikationsliste. Ein zu später Namenswechsel kostet buchstäblich wissenschaftliche Punkte, ebenso übrigens das Pech, mit einem späten Buchstaben im Alphabet durchs Forscherleben zugehen. Autoren werden meist alphabetisch gelistet und in der Regel geht das Paper von Müller und Schmidt als Müller et al. in die Annalen der Forschung ein – Pech für Schmidt.

Bei näherer Betrachtung handelt es sich allerdings beim Publikationsmarkt um eine skurrile Angelegenheit. Verlage verlegen Fachzeitschriften und verdienen damit Geld. Bibliotheken müssen Zeitschriftenabonnements vorhalten – und zuweilen enorme Geldsummen dafür ausgeben – um ihrer Klientel Zugang zu Wissen gewähren zu können. Dazwischen sitzen die Forscher, die erstens das eigentliche Produkt erstellen (den Fachaufsatz), zweitens die Qualitätskontrolle sicherstellen (als oftmals unbezahlte Referees) und das ganze – drittens – völlig umsonst. Es ist nicht einzusehen, wie sich dieser Markt so etablieren konnte, aber er ist schwer aus dem Gleichgewicht zu bringen, auch wenn es zunehmend Forscher gibt, die sich verweigern wollen. Besonders skurril ist daran, daß der Publikationsprozess selbst für erfolgreiche Wissenschaftler ein Spießrutenlauf ist.

In manchen Zeitschriften sind die – freiwilligen, unbezahlten – Referees und Herausgeber so überlastet, daß schon einmal zwei Jahre bis zur Entscheidung über Annahme oder Ablehnung vergehen können. Korrekterweise darf man sein neuestes Opus immer nur bei einer Zeitschrift einreichen, sodaß Geduld und Frustrationstoleranz essentielle Eigenschaften für den Wissenschaftler sind. Im letzten Jahr kam endlich Bewegung in diesen absurden Markt, als eine Reihe bekannter Mathematiker den Aufstand gegen die großen Verlage probte und sich für den freien Zugang einsetzte. Etablierte Systeme zu stürzen ist allerdings nicht einfach, und das Hauptproblem in diesem Fall ist die Sicherstellung der wissenschaftlichen Qualität.

Ein Derivat des Zitationsindex ist der “Journal Impact Factor”, ein Maß, das die Relevanz, Bedeutung und Sichtbarkeit einer Fachzeitschrift einordnet und noch am ehesten die Qualität von Veröffentlichungen einzuschätzen erlaubt. Möglichst viele Publikationen in den so ermittelten Topzeitschriften einer Disziplin zu haben, ist die heilige Kuh der modernen, aufsatzgetriebenen Wissenschaft, erfordert allerdings große Mühe.

Computererrechnete Indizes sind anfällig für Manipulationen und im Prozess der “peer reviews”, wenn andere Forscher vor der Veröffentlichung gegenlesen, prüfen und auswählen, kann ebenfalls getrickst werden. Manche Journals veröffentlichen gegen Bezahlung, in anderen wird protegiert und nepotiert, wobei in den großen, einschlägigen Fachzeitschriften einer Disziplin die Kontrolle in dieser Hinsicht leidlich funktionieren dürfte – immerhin hat die gesamte Zunft ein Auge darauf. Dennoch kann man natürlich mit vielen Eigenzitaten Einfluß nehmen, und bei vielen Zeitschriften ist es für die Annahme förderlich, möglichst viele Veröffentlichungen aus dem fraglichen Hause im eigenen Werk unterzubringen. Manch Arten von Veröffentlichungen eignen sich besonders gut zur Sammlung von Zitationsmeriten, zum Beispiel Literaturrückblicke oder sonstige Übersichtspapiere – während Nischenforschung sich dafür gar nicht eignet.

Handelt es sich bei den Zitationsindizes um die Segnungen der Moderne, so bringen vielleicht die Segnungen der Postmoderne wieder Bewegung in das System. Wer als prominenter Forscher etwas auf sich hält, führt ein Blog, und auch die Präsenz in anderen Medien wird von Universitäten zunehmend gerne gesehen. Dafür gibt es inzwischen Cybermetrics, und wer weiß, vielleicht werden irgendwann Forscher auch an ihren Facebook-Likes gemessen. Bis dahin allerdings schreit der Alltag nach Verkürzung und Vereinfachung, und da ist so ein Platz im Ranking eben doch eines der einfachsten und akkuratesten Maße, die die schöne neue Computerwelt uns beschert hat. Bis auf weiteres jedenfalls.