Home
Digital/Pausen

Digital/Pausen

Hans Ulrich Gumbrecht lehrt Literatur in Stanford und bedauert es, zu alt für eine Karriere-Chance als Trainer im American Football zu sein.

30. Jan. 2016
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Migrations-Energie: ein anthropologischer Einwurf

26
7831
     

Migrations-Energie: ein anthropologischer Einwurf

Ein großzügig und mit erstaunlich gelassener Eleganz von einem Unternehmen der elektronischen Branche organisierter Abend im Berliner Einstein-Stammhaus: etwa sechzig geladene Gäste aus verschiedenen Bundes-Ministerien, aber auch von den Universitäten und “Medien” hören mit freundlicher Geduld der von einem ausländischen Intellektuellen vorgestellten Gegenwarts-Diagnose “auf historischer Grundlage” zu und stellen dann meist gebildete Fragen. Erstaunlich ist vor allem, dass niemand in diesen offenbar entspannten und konzentrierten Stunden eine Denk-Provokation zum Thema der “Migranten-Ströme” aufgreift, das Deutschland derzeit so nachhaltig beschäftigt – und bedrückt.

Die Überlegung setzte ein bei der millionenfachen physischen Bewegung aus dem Raum des sogenannten “mittleren Ostens” — und zwar unter anthropologischer Perspektive, genauer in den kontrapunktisch verschiedenen zwei Bedeutungen dieses Worts: aus einer Perspektive bewusst betonter kultureller Fremdheit (die anglo-amerikanische Tradition von Anthropologie) und aus einem auf geschichtlich konstante Züge menschlichen Verhaltnis fokussierten Blick (der franzöische und deutsche Stil in der Anthropologie). Derzeit wird die Frage nach Gründen und Anlässen der Migranten-Ströme ja fast ausschließlich im Bezug auf bewusste Handlungsmotivationen diskutiert – was zunächst durchaus plausibel erscheint, weil von solchen Motivationen der gesetzlich entscheidende “humanitäre” Status der Migranten in den Ländern ihrer Ankunft abhängen muss. Die Antworten der Migranten selbst und ebenso die Antworten derer, die sich Gedanken über ihre Bewegung machen (müssen), unterscheiden vor allem zwischen wirtschaftlichen und politischen Beweggründen. Sie verlassen die Länder ihrer Herkunft, so die üblichen Vermutungen, wenn die überlebensnotwendige Versorgung prekär und wenn selbst minimale Spielräume individueller Freiheit in bürgerkriegsähnlichen Situation bedrohnt erscheinen. Die subjektive Gültigkeit und objektive Legitimität dieser von den deutschen Behörden festgestellten – und ernst genommenen — Motive will ich keineswegs in Frage stellen.

Doch ich glaube, dass die Konvergenz zwischen einer kaum überraschenden Frage, einer im Alltag beständig unkommentiert vollzogenen Beobachtung und einem die Anthropologie faszinierenden Phänomen den Blick von der inzwischen verhärteten Konzentration auf explizite Handlungsmotive ablenken und wieder produktiver machen könnte. Die Frage heißt, ob es in jener politischen und wirtschaftlichen Region, zu der etwa Syrien gehört, während der vergangenen Jahrzehnte nicht permanent – geographisch sich verschiebende – Krisenherde gab, so dass Migrantenströme, sollte die exklusive Aufmerksamkeit auf Handlungsmotive wirklich greifen, schon seit langem hätten existieren müssen. Die Beobachtung liegt in dem seit dem “arabischen Frühling” existierenden und von kompetenten Arabisten empirisch bestätigten Wissen, dass sich der Gebrauch elektronischer Technologien in jener Welt während der vergangenen Jahre explosionsartig ausgedehnt hat.

Und schließlich können uns Kulturanthropologen und Historiker daran erinnern, wie es in der Vergangenheit immer wieder kollektive Bewegungen gegeben hat, deren Energie die ihren Teilnehmern bewussten Motivationen überschoss. Genau dies war im klassischen Begriff von den “Völkerwanderungen” impliziert – ohne dass wir wegen des evidenten Mangels an Dokumenten und anderen Indizien im Blick auf sie je über mythologisch anmutende Spekulationen hinausgelangen werden. Hinsichtlich der sogenannten “Kreuzüge” aber scheint derzeit genau die Frage unter Historikern der jüngeren Generationen wieder aufzukommen, ob ihre expliziten religiösen Gründe – zumal angesichts permanenter Misserfolge — tatsächlich einen über Jahrhunderte anhaltenden Bewegungsdrang unter europäischen Aristokraten zu erklären vermögen. Aus einem ähnlichen Grund fasziniert mich eine “Coluna Prestes” genannte Episode in der brasilianischen Geschichte. 1925 von den südlichen Bundesstaaten des Landes ausgehend legten mehrere hundert Soldaten (vor allem jüngere Offiziere und Unteroffiziere) einen über fünfundzwanzigtausend Kilometer lang nicht endenden Fußmarsch zurück, der 1927 nach Überschreitung der bolivianischen Grenze — ohne offensichtlichen Anlass — endlich abebbte. Der immer wiederholten programmatischen Aussage ihrer Teilnehmer gemäß sollte die Coluna Prestes den “Geist der Revolution” in allen Teilen Brasiliens verbreiten – doch längst gilt unter den Kennern jener historischen Zeit in Südamerika als ausgemacht, dass die Nachhalltigkeit der entfalteten Bewegungs-Energie durch den Verweis auf diese bewusste Motivation nicht hinreichend zu erklären ist.

Es könnte also die heutige, bisher auf politische und wirtschaftliche Gründe begrenzte Diskussion vielleicht tatsächlich aus ihrer Stagnation lösen, wenn man sich die besonderen kulturellen und wohl weitgehend vorbewussten Voraussetzungen vergegenwärtigt, auf welche elektronische Technologie in der islamischen Welt während des vergangenen Jahrzehnts getroffen sein muss. Einerseits haben diese Dispositive und die von ihnen ermöglichten Kommunikations- und Denkformen entscheidend dazu beigetragen, unsere westliche Alltagswelt von einem Feld der Kontingenz, einem Feld der zur Auswahl stehenden Handlungsmöglichkeiten, das umgeben war von Beständen des nicht veränderlichen “Notwendigen” und des unerreichbaren “Unmöglichen,” in ein Universum der Kontingenz zu verwandeln, wo das “Notwendige” variierbar und selbst das “Unmögliche” machbar erscheint. Andererseits lässt sich der vor-elektronische Alltag der arabischen Welt typologisch (und ohne herablassend-kritische Implikation) als eine wesentlich vom Islam erhaltene “Vormoderne” beschreiben, das heißt als eine Welt, in der menschliche Existenz auf ein weitgehend alternativenloses Ensemble von Verhaltensformen festgelegt war.

Wo sich am Horizont und sehr schnell im Zentrum eines solchen vormodernen Alltags der Gewissheiten jene Technologie ausbreitete, welche universale Machbarkeit in Aussicht stellt, muss kollektive Unruhe in zwei ganz verschiedenen Dimensionen entstanden sein. Zum ersten in einer nicht endenden Flut von vagen Vorstellungsbildern möglichen Lebens, die aus subjektiver und kollektiver Perspektive alle traditionellen Gewissheiten in Frage gestellt haben muss und so prekär werden ließ. Zum zweiten aber auch in einer physischen Unruhe, die zu Impulsen physischer Bewegung führt — und über sie aus-agiert werden muss. So gesehen war der arabische Frühling eine Sequenz von elektronisch koordinierten lokalen Manifestationen kollektiver Körper, welche die im Westen geweckten Hoffnungen auf langfristige politische Veränderung enttäuschen mussten, weil sie nicht von Programmen und Zielen, sondern eben von vagen Vorstellungen eines anderen Lebens initiert waren. Und im selben Sinn wirkt es wie eine ironische Bestätigung dieser Hypothese, wenn so oft am – vorläufigen (Berliner) – Ende individueller Migrationsbewegungen das Selfie mit deutschen Politikern, bevorzugt mit der Kanzlerin steht.

Wie gesagt, diese These nimmt weder den Hoffnungen und Ansprüchen der Migranten ihre moralische Legitimität, noch macht sie die Antworten auf allzu stereotypische Fragen nach der Motivation ihrer Bewegung zu Lügen. Denn man muss ja davon ausgehen, dass die Migranten selbst selbst jene Konstellation nicht durchschauen, aus der die Impulse ihrer Bewegung hervorgegangen sein könnten. Eine “kulturkritische” Mentalität mag sie inzwischen sogar zu Opfern der westlichen Technologie stilisieren. Aber damit ist im Hinblick auf die Folgelasten der Migration und auf die zugleich riskante und eindrucksvoll schöne Offenheit, mit der die deutsche Politik und große Teile der deutschen Gesellschaft auf sie reagiert haben, kaum etwas gewonnen. Als entscheidend könnte sich hingegen die Bemühung herausstellen, jene vagen, vor allem physische Unruhe erzeugenden Vorstellungshorizonte der unbegrenzten Möglichkeiten in konkrete (und realistische) Projekte eines neuen Lebens zu überführen. Anders formuliert: Institutionen der Umerziehung (eine ganz andere Form der “re-education”) von energiegeladenen Horizonten der vagen Hoffnung zu lokal spezifischen und lokal möglichen Formen der Existenz muss auf den Weg kommen. Dass Konkretheit als ihr Fluchtpunkt zu Prozessen der Ernüchterung und sogar Enttäuschung führen wird, ist nicht nur ein unvermeidilicher Preis – sondern sollte als mittelfristiges Ziel angenommen werden.

30. Jan. 2016
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Migrations-Energie: ein anthropologischer Einwurf

26
7831

     

16. Jan. 2016
von Hans Ulrich Gumbrecht
2 Lesermeinungen

17
4635
     

Gleichheit als ethischer Wert — und als Ressentiment?

Es fing ganz wie erwartet an. Erste Sitzung eines Doktoranden-Seminars in Stanford unter der nicht-rhetorisch, also ganz nüchtern gemeinten Frage “What’s Left of Marxism?” Auf der Grundlage einer konzentrierten Lektüre von klassischen Marx- und Engels-Texten wollen wir über zehn Wochen diskutieren und uns selbst beobachtend fragen, ob in ihnen noch ein intellektuelles Potential für Probleme der Gegenwart steckt, das mehr als bloß antiquarisches Interesse ist. Sollten sich die Reaktionen auf diese Herausforderung bald zum Minus-Pol neigen, dann bleibt uns immerhin ein monumentales Stück europäischer Geistesgeschichte, einschließlich der im neunzehnten und zwanzigsten Jahrhundert von ihr ausgehenden explosiven Resonanz. Etwa fünfundzwanzig Studenten sind gekommen, aus ganz verschiedenen Fächern (darunter sogar zwei Physiker), kaum einer von ihnen ist verpflichtet, diesen Kurs zu belegen – ideale Voraussetzungen also.

Der wie immer etwas über-vorbereitete Dozent tut sein Bestes (wohl eher vergeblich), um seinen Hörern zu vergegenwärtigen, wie unvergleichlich existentiell und politisch “relevant” der Marxismus wirkte, als er mit neunzehn Jahren, im Oktober 1967, Mitglied des SDS wurde und sich an der Universität München immatrikulierte – in dieser Reihenfolge. Es folgt als erster historischer Rahmen eine (etwas zu lang geratene) Marx-Biographie. Und als Übergang in die Diskussion (das ist ja immer das Problem bei ersten Seminar-Sitzungen) ein paar Fragen, “Denkanstöße,” wie man hochschulpädagogisch beflissen sagt, die vor allem zeigen sollen, dass einige auf Marx zurückgehende Ideen seit langem schon – ideologisch un-identifiziert – Teil unseres allgemeinen und kaum je mit Skepsis revidierten Diskussionshaushalts geworden sind.

Sollen und müssen wir weiterhin glauben, dass der Politik absolute Priorität unter den sozialen Systemen zukommt? Sehen wir wirklich immer noch die Wirtschaft als treibende Kraft aller historischen Veränderungen an? Die Mienen bleiben akademisch ernst – und so unbeeindruckt, dass ich mir jetzt wirklich Sorgen um die Diskussion zu machen beginne. Dann erwähne ich noch, was mir eigentlich eher banal vorkommt, dass doch auch die Bedeutung ökonomischer Gleichheit heute zur Revision ansteht – und sofort kommt merkbar Spannung um den Seminartisch auf. In den verbleibenden vierzig Minuten wird es dann schwer (ja tatsächlich unmöglich), das Gespräch auf irgendein anderes Thema als die Verteidigung wirtschaftlicher Gleichheit zu lenken. Selbst meine Studenten aus der Volksrepublik China, die sonst wie intellektuelle Mittelstürmer beherzt jede Vorlage zur Marxismus-Kritik aufnehmen, zieren sich. Und schnell (aber zu spät) wird mir klar, dass unvermeidlich wie ein schlechter Mensch aussieht, wer an der wirtschaftlichen Gleichheit als absolutem Wert rüttelt. Noch bevor wir uns auf Themen und Fragen für die nächste Seminarsitzung einigen, sind sich meine Studenten einig, dass eine (vorerst quantitativ nicht spezifizierte) wirtschaftliche Gleichheit den Rang eines ethischen Prinzips haben muss — und also eine außer Frage stehende Forderung ist. Nichts klingt ja heute kategorialer als das Wort “ethisch,” auch bei uns.

So habe ich zu meiner Überraschung doch schon sehr bald eine erste, ganz un-theoretische Antwort auf die Frage “What’s Left of Marxism?” Sicher, Marx war nicht der einzige emblematische Denker wirtschaftlicher Gleichheit, aber mit keinem anderen Namen wohl ist diese Forderung bis auf weiteres ähnlich eng verbunden. Wäre hinreichend Zeit geblieben, hätte ich mit einer These zur Geschichte des Gleichheitsbegriffs abschließen können. Er gehört, das wissen meine Studenten, zum Repertoire jener Aufklärungsgedanken, welche den bürgerlichen Revolutionen ihre Form gaben. Die Gleichheit aller Menschen wurde – in polemischer Wendung gegen aristokratische Privilegien – dem Schöpfergott zugeschrieben, und daraus ergab sich zum Beispiel der schöne Satz aus Thomas Jeffersons “Declaration of Independence” von den allen Menschen gegebenen “unveräußerlichen Rechten” (“We hold these Truths to be self-evident: that all Men are created equal, and that they are endowed by their Creator with certain, unalienable Rights”). Doch Gleichheit galt im achtzehnten Jahrhundert beinahe ausschließlich als Gleichheit vor dem Gesetz, denn Jean-Jacques Rousseaus Intuition, dass im Schritt zum persönlichen Eigentums der Grund für alle Ungleichheit liege, wurde noch kaum in Forderungen wirtschaftlicher Nivellierung umgemünzt. Unter den von Jefferson genannten “unveräußerlichen Rechten” (“Life, Liberty, and the Pursuit of Happiness”) ist jedenfalls von Besitz-Gleichheit nicht die Rede.

Erst nach dem Wiener Kongress von 1815, im romantischen Denken unter dem Druck der politischen Restauration, öffnete sich der Gleichheits-Begriff auf zwei deutlich verschiedene Bedeutungen. Die Bewahrung der in den Revolutionen errungenen Gleichheit vor dem Recht wurde zum politischen Programm der “Bürger” (im Wortsinn von “citizens” oder “citoyens”) und zur Triebfeder ihres Widerstands gegen die restaurative Rückkehr adliger Privilegien. Zugleich aber wurden nun – nicht selten in Berufung auf idealisierte Gemeinschaftsformen aus den nationalen Vergangenheiten — Bilder von wirtschaftlicher Gleichheit als Teil romantisch-politischer Utopien ausgemalt. Vor allem unter den französischen “Früh-Sozialisten” inspirierten sie Träume und sogar praktische Experimente vom Leben in einer gerechteren Gesellschaft. Assoziativ zumindest ist das Ideal der wirtschaftlichen Gleichheit wohl auch in den (unserem gegenwärtigen Verständnis von “Solidarität” ähnlichen) Begriff der “Brüderlichkeit” eingegangen, welcher erst seit dem – in Ansätzen proletarischen – Revolutionsjahr von 1848 die “Freiheit” und die “Gleichheit” vor dem Gesetz (aus der Zeit nah 1789) zu der bis heute in Frankreich national-emblematischen Trias “Liberté, Egalité, Fraternité” vervollständigte. Brüderlichkeit soll die Unterdrückten der Welt verbinden, aber auch ein aktiver Akt der Zuwendung von besser Gestellten zu ihrem Leben sein.

Für Karl Marx aber stand wirtschaftliche Gleichheit als Wert zunächst wohl gar nicht im argumentativen Vordergrund. Als normative Idee kam sie eigentlich nur am Horizont seiner Kritik der “Ausbeutung” in den Blick. Wenn kapitalistischer “Mehrwert” als Prinzip und als Resultat von Ausbeutung durch systematische Unterbezahlung der physischen Arbeitskraft entsteht, dann soll die Zerschlagung von politischen Strukturen der bürgerlichen und die an Gerechtigkeitsprinzipien orientierte Steuerung wirtschaftlicher Mechanismen in der zukünftigen proletarischen Gesellschaft zu einem sozialen Leben ohne Ausbeutung führen – aber nicht notwendig zu einem auf dem Prinzip wirtschaftlicher Gleichheit beruhenden Leben. Und dennoch ist gerade dieses Prinzip bis in unsere Gegenwart eine Quelle der politischen Leidenschaft geblieben.

Es artikuliert sich heute mit ungebrochener Energie, ja vielleicht lebhafter als je zuvor nicht nur in amerikanischen Doktoranden-Seminaren, sondern über die vielstimmig und beständig vor allem die europäische Öffentlichkeit erfüllende Klage (die sich gerne als als “ethisch” motivierte “Sorge” gibt), über die Klage angesichts “ungerechtfertigt” opulenter Gehälter und Honorare, mit den entsprechenden Vorschlägen zu ihrer Begrenzung, und mit immer lauter tönenden Krisenberichten von der “sich öffnenden Schere zwischen hohen und niederen Einkommen.” Auf radikale wirtschaftliche Gleichheit wagt heute natürlich niemand zu pochen, weil die Furcht, dass sie die ökonomische Dynamik lähmen könnte, Teil des kollektiven Bewusstseins geworden ist. Auf der anderen Seiten jedoch werden die erregten Gemüter nicht einmal durch Spenden für wohltätige Zwecke in zweistelliger Milliardenhöhe beschwichtigt – wie die Reaktionen auf einen entsprechenden Entschluss von Mark Zuckerberg und seiner Frau vor wenigen Wochen gezeigt haben. Obwohl selbst sie davon profitieren könnten, gönnen die europäischen Durchschnittsbürger den Zuckerbergs nicht einmal die Möglichkeit und Freude, derart großzügig sein können. Andere als egoistisch wirtschaftliche Motive scheinen jenseits des Vorstellungs-Horizonts unserer ethischen Mehrheit zu liegen.

Andererseits, diese Einsicht ergibt sich ja auch aus meinem Seminar-Erlebnis, reicht es heute schon, keinen Anstoß an den höchsten Einkommens-Niveaus in der eigenen Gesellschaft zu nehmen, um wie ein tumber Tor und ein Speichellecker der Kapitalisten auszusehen. Dabei warten doch eine Reihe von – miteinander verknüpften – Problemen dringend auf Lösungen, welche erst das Feuer der Empörung schüren oder löschen sollten. Zunächst einmal die Frage, ob man denn je von “Ausbeutung” im Blick auf Einkommens-Niveaus reden kann, welche ihren Empfängern ein angenehmes und sorgenfreies Leben ermöglichen. Werden Lehrer in verschiedenen Kontexten der staatlichen Bildungssysteme (aber auch in privaten Institutionen) wirklich “ausgebeutet,” wie viele von ihnen so gerne behaupten, weil sie weniger verdienen als Ärzte oder die meisten Rechtsanwälte?

Gleichheitsforderungen in diesem Zusammenhang sollten ja eigentlich imstande sein, den Wert der je spezifisch investierten Arbeitskraft und Arbeitskompetenz vergleichend zu veranschlagen. Über die Prinzipien einer solchen Bewertung aber gibt es keinen Konsens (und wird es wohl nie einen Konsens geben) – denn jeder hält natürlich vor allem seine eigene Arbeit für wertvoll und sogar “unverzichtbar.” “Objektiv” und von Eigen-Interessen unabhängig ist – im Gegensatz zu solchen Selbsteinschätzungen und trotz aller mit seinen Bewertungen verknüpften Probleme – allein der Markt. Und das Problem verschärft sich nur unter der Gegenwarts- und Zukunfts-Bedingung struktureller Unterbeschäftigung, wo für jeden potentiell streikenden Arbeitnehmer mehr als hinreichend Ersatz auf niedrigeren Bezahlungs-Ebenen zur Verfügung steht. Streiks als Arbeitsverweigerung sind prekär geworden, das weiß jeder, ohne es zu sagen, unter der heute dominierenden Voraussetzung, dass nicht mehr Arbeitskraft, sondern zu leistende Arbeit Mangelware ist.

Vor allem aber bleibt die entscheidende Frage unbeantwortet (und scheint von einem Thematisierungs-Verbot umgeben), ob denn steigende Höchstgehälter tatsächlich zur Stagnation oder zum Absinken niederer Einkommen führen müssen. Und ob wir denn wirklich – umgekehrt formuliert – über wirtschaftliche Mechanismen und Instrumente verfügen, um (als exzessiv angesehene) Höchst-Einkommen auf die Konten von wirtschaftlich nicht Privilegierten umzuleiten, ohne dass die Wirtschaft unter einer solchen Umschichtung implodiert. Bis zur öffentlichen Diskussion und Klärung solcher Probleme bleibt durchaus denkbar, dass Höchst-Einkommen vor allem Indikatoren – und vielleicht sogar Faktoren – allgemein günstiger wirtschaftlicher Situationen sind, von denen alle (oder wenigstens doch breite Mehrheiten) profitieren.

Vielleicht kommt also unter gegenwärtigen europäischen – und auch nordamerikanischen – Bedingungen in den Rufen nach “größerer wirtschaftlicher Gleichheit” nur ein ätzendes Ressentiment der Intellektuellen und auch jener sozialen Schichten zum Ausdruck, die man früher einmal “kleinbürgerlich” nannte. Sie hingen ja schon immer sehr an dem doppelten Verdacht, dass – einerseits – aktive Ausbeutung unmittelbar über dem eigenen Einkommens- und Besitzstand einsetzt, während – andererseits – dieses eigene Einkommen stets als Symptom passiver Ausbeutung gelten kann. Befreiung verspricht allein Großzügigkeit als der Entschluss, seinen Neid loszulassen.

16. Jan. 2016
von Hans Ulrich Gumbrecht
2 Lesermeinungen

17
4635

     

02. Jan. 2016
von Hans Ulrich Gumbrecht

20
10188
     

Behinderung und Genie

Eigentlich fordert es die biedere Intellektuellen-Konvention, diese beiden Begriffe – aus verschiedenen, doch sich überschneidenden Gründen – mit Anführungszeichen zu umgeben. Im Fall von “Behinderung,” um dem politisch korrekten Bewusstsein Ausdruck zu geben, dass keine Form des Lebens je als weniger vollständig denn irgendeine andere anzusehen ist, sondern immer nur, so exzentrisch sie auch sein mag, als Variante eines Grundtypus gelten soll, der sich dann in endlosen Variationen aufzulösen beginnt. “Genie” sagt oder schreibt man ebenso wenig einfach hin, weil hier der Eindruck eines als naiv verschrieenen Glaubens an eine Form von natürlicher oder gar angeborener Überlegenheit zu vermeiden ist. Und dennoch braucht eigentlich gar nicht erwähnt werden, dass niemand im Ernst und nachhaltig diese beiden Begriffe mit ihren Inhalten aus seiner Weltwahrnehmung und seinem Denken verbannt hat.

Andererseits macht es der doppelte Zwang zu Anführungszeichen auch doppelt prekär, eine Frage zu verfolgen, deren Faszination sich kaum abschütteln lässt, nämlich die Frage, ob ein mehr als nur gelegentlicher (und dann natürlich nur “zufällig” zu nennender) Zusammenhang zwischen außerordentlichen körperlichen Beeinträchtigungen (Behinderungen) und außerordentlichen geistigen Möglichkeiten oder Leistungen (Genie) bestehen könnte. Dass auch auf dieser komplexeren Ebene der Reflex politischer Korrektheit das Denken noch vor dem Abheben unterbrechen kann und will, versteht sich – und macht den Frage-Impuls umso nur attraktiver. Denn die Fälle solcher Verbindungen zwischen Behinderung und Genie sind zu zahlreich, zu herausragend und zu vielgestaltig, um auf Dauer unter Reflexion-Verschluss gehalten werden zu können.

Für besonders bemerkenswert halte ich in dieser Hinsicht die Biographien von Miguel de Cervantes und Francisco de Goya, den beiden beiden wirklich genialsten Protagonisten der spanischen Kulturgeschichte. Lang vor dem Beginn seiner Karriere als literarischer Autor bestand der vierundzwanzigjährige Cervantes am 7. Oktober 1571 darauf, trotz Krankheit auf dem Deck eines Schiffs an der Seeschlacht von Lepanto teilnehmen zu dürfen – und blieb lebenslang stolz darauf, dass an diesem für ihn patriotischen Tag sein linker Arm durch ein feindliches Geschoss zerstört worden war. Tatsächlich sah er seine Verletzung als einen Grund für seine literarische Aura an (“die linke Hand verlor ihre Bewegung, um dem Ruhm der Rechten zu begründen,” schrieb er viele Jahre später). Goya hingegen war bereits ein prominenter Maler, als eine Krankheit, über die er sich in seinem langen Leben nie äußern sollte, an der Wende zwischen den Jahren 1792 und 1793 zur völligen Taubheit führte — welche in seiner Kunst offenbar die berühmten Töne existentieller Depression inspirierte und mithin Goyas singuläre Größe ausmachte. Sein deutscher Zeitgenosse, der große Naturphilosoph und Aphorismen-Schreiber Georg Christoph Lichtenberg, war mit einer Wirbelsäulenverkrümmung geboren, die seine Körpergröße auf zwergenhaftes Maß beschränkte und über eine Missbildung der Brust permanente Atembeschwerden auslöste. Unter einem ähnlichen Schicksal litt der erst jüngst in seiner wirkkichen intellektuellen Bedeutung entdeckte amerikanische Essayist Randolph Bourne, dessen Gesicht durch eine Geburtszange entstellt war, der mit vier Jahren eine sein Skelett zersetzende Rückenmarkserkrankung überlebte und 1918 – viel jünger als etwa Lichtenberg – mit zweiunddreißig Jahren starb.

Gewiss, die Unterschiede zwischen diesen – und sovielen anderen – Lebensgeschichten von Genies sind erheblich genug, um einen Vorbehalt gegen jede Art von verallgemeinernden Beobachtungen zu rechtfertigen. Auf der anderen Seite macht eine noch viel radikalere Verallgemeinerung, welche über den ausschließlich körperlichen Status der Behinderung hinausgeht, moralische Verschreibungen jenes mittleren Tons greifbar, auf den sich der “Lebenshilfe”-Hunger unserer Gegenwart so gerne stürzt – und erntet dafür nie Kritik. Sind außergewöhnliche Leistungen, so könnte man diese allgemein akzeptierte Verallgemeinerung beschreiben, überhaupt anders vorstellbar denn als ausgleichende, kompensatorische Reaktionen auf individuelle Traumata, vor allem auf Traumata der Psyche (so ist allgemein-Freudianisch schon immer unterstellt)?

Die Frage mündet direkt und unvermeidlich in einem Pan-Traumatismus, anders gesagt: in die selten ausgesprochene aber alltäglich durchaus wirksame Prämisse, dass alle besonderen menschlichen Leistungen, alle Fehlleistungen und selbst jegliches prononciert normale Verhalten, alles eben, menschliches Leben schlechthin, als Folge von Traumata zu erklären sein soll. Wohl in vorwegnehmend kritischer Reaktion auf diese intellektuell fatale Konsequenz hat Randolph Bourne in einem seiner ersten veröffentlichten Aufsätze (unter dem Titel “The Handicapped”) den Zusammenhang zwischen der eigenen körperlichen Behinderung und seinen Leistungen als beginnender philosophischer Autor aus einer differenzierten Innenperspektive analysiert.

Vor allem habe er sich verboten, schrieb Bourne 1911, sein Leben als beständige “Kompensation” oder gar als “ein Tal der Tränen” zu erleben: “Granting all the circumstances, admitting all my disabilities, I want too to ‘warm both hands before the fire of life.’ What satisfactions I have, and they are many and precious, I do not want to look on as compensations, but as positive goods.” Die in jeder Hinsicht entscheidende Besonderheit seines behinderten Lebens liege nicht in singulären Ereignissen von Frustration oder dramatischer Limitierung, sondern in der ihn nie verlassenden, “unbequemen und ärgerlichen” Bedingung, das Leben und die Umwelt “von einer um einen Fuß niedrigeren Ebene aus” verfolgen zu müssen. Deshalb habe er als Kind immer jene stärker Behinderten beneidet, die ganz auf Distanz zum Alltag der Mehrheit hätten leben dürfen, während er selbst mit “der Zwischenlage” des beständigen Abstands von der Normalebene der Weltwahrnehmung als permanenter Zurücksetzung seines Stolzes gelebt habe. Trotzdem überhaupt erwachsen geworden zu sein, werde er immer als größte Leistung seines Lebens ansehen. Sie erst habe es ihm ermöglicht, die Existenz “als Arena,” als eine beständige Auseinandersetzung unter intellektuell Gleichen zu erleben. An seinen in beständigem Umbruch stehenden Ideen und Meinungen aber halte er bewusster fest als andere, weil vor allem sie für ihn – eben entscheidender als für nicht-Behinderte – Bedingung und Voraussetzung eines Lebens in Gleichheit seien.

Eine bündige, quasi “mathematische” Lösung der Frage nach dem Zusammenhang zwischen Behinderung und Genie, das ist inzwischen klar geworden, wird es nie geben, denn unter jeder empirischen Perspektive entgleitet uns das Problem beständig – und wohl unvermeidlich. Aber Randolph Bournes Innnen-Überlegung gibt so etwas wie eine Matrix zur Ableitung von individuell zutreffenden Antworten ab. Für einen körperlich behinderten Menschen bieten intellektuelle Leistungen die Möglichkeit, sich in einer selbst konstituierten (man muss wohl unter gegenwärtigen Sozialstatus-Bedingungen hinzufügen: nicht einfach politisch garantierten) Gleichheit zu halten – und darin liegt eine existentielle Prämisse, welche wirklich außergewöhnlichen Leistungen die Unwahrscheinlichkeit nimmt.

Doch vielleicht kann uns die strikter gegenwärtige Faszination der Frage nach dem Zusammenhang zwischen Behinderung und Genie in eine ganz andere Richtung führen, in eine Richtung weit entfernt von jener Gleichheit, an der als durch intellektuelle Leistungen ermöglichte Prämisse Bourne soviel lag. “Beinahe Gleichheit” (im Sinn von Bourne: Gleichheit trotz einer unaufhebbaren Ebenen-Differenz von einem Fuß) — das war die Perspektive, unter der wir Nicht-Behinderten bis ins frühe einundzwanzigste Jahrhundert die “Special Olympics” und alle anderen Sportveranstaltungen für Behinderte, verfolgt haben. Anzuerkennen, dass man auch mit einer Bein-Prothese schnell laufen und auch aus einem Rollstuhl einen Basketball sicher schießen konnte, dieses “Auch” der beinahe-Gleichheit war uns allemal eine oder zwei Stunden angestrengt ethisch motivierten Zuschauens bei den Special Olympics wert – wobei die Zahl der so motivierten Zuschauer nur selten das Niveau deutschen Drittliga-Fußballs überschritt.

Seit den Special Olympics von London aber kann Behinderten-Sport mit einem Mal Stadien füllen, was anzuzeigen scheint, dass wir uns zunehmend für die sportliche Leistungen als Leistungen unter anderen Bedingungen und vor allem im Rahmen einer anderen Ästhetik interessieren, als gar nicht mehr Gleichheits-orientierte Leistungen in ihrer eigenen, gleichsam “originellen” Art – oder gelehrt formuliert: im Sinn einer eher romantischen denn klassizistischen Ästhetik. Die bisher ganz auf Gleichheit im Sinn der Ausblendung möglichst vieler Ungleichheiten konzentrierte politische Korrektheit hat diese Verschiebung noch nicht nachvollzogen – wird ihr aber sicher demnächst den Segen ihrer moralischen Billigung geben.

Interessanter und für die Zukunft vielleicht entscheidend könnte aber eine ganz andere Konvergenz werden. Die am meisten bewunderten Protagonisten unserer allerjüngsten Gegenwart scheinen nicht mehr die Nobelpeis-gekrönten Entdecker ungeahnter Einsichten oder die Erfinder neuer Apparaturen zu sein, sondern jene Zeitgenossen, die – wie Steve Jobs in so eminenter Weise, aber auch wie alle wahrhaft großen Sportler (niemand wohl deutlicher in diesen Tagen als der Basketball-Spieler Stephen Curry) – vor allem neue räumliche Beziehungen zwischen schon längst zur Verfügung stehenden Gegenständen und unseren Körpern entwickeln. Dieses “Entwickeln” vollzieht sich offenbar effizienter im gelassenen Begleiten einer nicht vorhersehbaren Emergenz (in einem nicht selbstgesteuerten Prozess) als in den Sprüngen großspuriger Innovationsansprüche.

Wahrscheinlich lässt sich keine produktivere Prämisse für die Emergenz wirklich neuer Beziehungen zwischen den Dingen der Welt und unserer Körpern vorstellen als eben eine Behinderung – und diese Vermutung scheint mit der neuen Faszination der Special Olympics zu konvergieren. Vielleicht stehen wir also erst am Beginn der Entfaltung eines noch kaum bekannten Zusammenhangs zwischen Behinderung und Genie – eines Zusammenhangs im romantischen Sinn eben.

02. Jan. 2016
von Hans Ulrich Gumbrecht

20
10188

     

19. Dez. 2015
von Hans Ulrich Gumbrecht

9
2805
     

Was können „Kreativität“ und „Genie“ heute sein?

Das Wort „Genie“ im ernsten, aus der Zeit der Romantik stammenden Sinn, als Bezeichnung für eine individuelle Fähigkeit zu bedeutsamer Innovation, welche die gattungsspezifischen Möglichkeiten des Menschen zu überschreiten scheint, dieses Wort ist aus den ideologiekritischen Gewittern der späten sechziger und siebziger Jahre schwer angeschlagen hervorgegangen. Zugleich hat „Kreativität“, jener Begriff, welcher die typische Performanz der „Genies“ beschreiben sollte, einen ähnlichen, etwas langsameren und weniger dramatischen Prozess der Banalisierung durchgemacht. „But she is very creative“, lautet die nicht einmal mehr besonders tröstliche Standard-Konzession, die kalifornische Lehrer gegenüber besorgten Eltern machen, wenn sie ihnen von den nicht ausreichenden Leistungen ihrer Kinder berichten müssen.

Schon vor einem knappen Vierteljahrhundert hatten sich in Deutschland Akademiker, denen „Kreativität“ als Programm und Steilvorlage des zuständigen Bundes-Ministeriums für die „Modellversuche Graduiertenkolleg“ zugefallen war, Sorgen (berechtigte Sorgen, stellte sich bald heraus) um diesen Begriff gemacht. Wie ein 1987 beim Wilhelm Fink Verlag erschienenes Bändchen dokumentiert, stellten sie die Eröffnungs-Veranstaltung jenes Experiments mit einer ganz neuen Form der Doktorandenbetreuung unter die etwas verzagte Frage „Kreativität – ein verbrauchter Begriff?“ Keiner der drei Vortragenden (neben dem in den achtziger Jahren unvergleichlich berühmten Soziologen Niklas Luhmann ein Psychologe sowie ein Literaturtheoretiker und Dichter), setzte wirklich auf die Zukunft des zur Diskussion gestellten Worts. Von einem Anzeichen der „Genialität“ definierten sie „Kreativität“ um zu der Fähigkeit, an der Peripherie von sozialen System auf Zufälle in ihrer Umwelt zu reagieren und diese Zufalle in interne Strukturveränderungen umsetzen zu können. „Entspannte Konzentration“ legte man deshalb (etwas hilflos) den Lesern und den Kreativitäts-begierigen Stipendiaten des neuen Graduiertenkolleg nahe.

Luhmann entwickelte daneben eine Skizze der einschlägigen Begriffsgeschichte. Sie sollte einsetzen mit einer (wohl auf Jahrtausende veranschlagten) „Ent-Sexualisierung“ – wobei die Voraussetzung nirgends belegt ist, dass das Wort wirklich je dominant im Bezug auf Fortpflanzung gebraucht wurde. Seit der frühen Neuzeit aber wurde „Kreativität“ dann tatsächlich mit „dämonischen“, also nicht auf natürlichem Weg zu erklärenden menschlichen Fähigkeiten und mit Überraschung, Innovation, Bedeutsamkeit als ihren Wirkungen assoziiert. Seinen höchsten emphatischen Stellenwert erreichte der Begriff im frühen neunzehnten Jahrhundert, wo er zunehmend mit „Genialität“ als gleichsam göttlicher Kraft des Schaffens gekoppelt und auf die Dynamik einer sich nun entfaltenden linear fortschreitenden Zeit projiziert wurde. Das zwanzigste Jahrhundert hingegen identifizierte Luhmann als Phase einer „Demokratisierung“ von Kreativität, innerhalb derer sich die Umstellung grenzenloser individueller Produktivität auf jene von ihm und seinen Kollegen konstatierte, eher passive Offenheit gegenüber Zufällen in der Systemumwelt vollzogen haben sollte.

Jedenfalls dominierte der – im Rahmen einer Eröffnungsfeier eher kakophone – Eindruck, dass der Glaube an Kreativität und auch ihr Ansehen den historischen Zenit längst überschritten hatten. Ein Rückblick auf den großen Moment jenes Prädikats in der Romantik kann den von Luhmann aufgezeigten Prozess des Prestigeverlusts erklären, der sich zwischen 1987 und heute nur noch verdeutlicht hat. Das lange schon entdeckte Potential der Kreativität hatte seinen ekstatischen (und dann über ein Jahrhundert anhaltenden) Höhepunkt nämlich im Kontext des historischen Weltbildes erreicht, wie es sich nach 1800 herausbildete und rasch einen ganz unbestrittenen Grad der Institutionalisierung erreichte. In seinem Zentrum stand ein Selbstverständnis des Menschen als reines Bewusstsein, der auf der Grundlage von an die Gegenwart angepassten Erfahrungen aus der Vergangenheit (sie galten als „Wahrheit“) aus den Möglichkeiten der jeweiligen Zukunft auswählte, anders gesagt: der Mensch wollte eine Zukunft gestalten, die sich als ein offener Horizont vielfältiger Möglichkeiten darstellte. „Handeln“ nannte man seither diese komplexe Rolle, welche als Unterscheidungsmerkmal und Anspruch des Menschen galt – und ihre höchste Erfüllung eben in der „Kreativität“ des „Genies“ finden sollte.

Bis heute ist das „historische Weltbild“ nicht verschwunden, unsere Politik etwa oder die akademischen Institutionen können ohne seine Voraussetzungen und Implikationen gar nicht existieren. Aber es beherrscht wohl nicht mehr unseren Alltag. Seit der Mitte des zwanzigsten Jahrhunderts ist in einem lange verdeckten Prozess aus der offenen Zukunft eine Zukunft geworden, in der vielfältige Gefahren langsam auf uns zuzukommen scheinen (Erderwärmung, demographische Entwicklung, Erschöpfung der Rohstoffe); statt hinter uns zurück zu bleiben, überfluten die Erinnerungen an die Vergangenheit (nicht zuletzt aufgrund elektronischer Speicher-Technologien) unsere Gegenwart – die so zwischen jener Zukunft und dieser Vergangenheit zu einer sich immer weiter verbreiternden Gegenwart der Simultaneitäten geworden ist. Ihre Komplexität, die wir als ein Universum von Kontinenz erleben, das heißt: als eine Welt, in der alles möglich, aber nichts mehr notwendig wirkt, überfordert uns beständig – und hat eine wachsende Skepsis gegenüber jener traditionellen Prämisse allen menschlichen Lebens genährt, nach der unsere Intelligenz ausreichen soll, um das Überleben als Gattung auf diesem Planeten zu sichern.

Für die beständige Erneuerungs- und Gestaltungskraft aber, als die Kreativität und Genie verstanden worden waren, ist in diesem Weltbild kein Platz mehr. So lässt sich erklären, warum aus den (vor allem naturwissenschaftlichen) Nobelpreisträgern als Helden der Menschheit und Erfüllung ihrer höchsten Möglichkeiten (niemand war als Emblem dieser Art sichtbarer als Albert Einstein) heute Namen nur eines Tages pro Jahr geworden sind – jenes Tages, an dem die Wahl der Nobelpreisträger öffentlich gemacht wird, Namen auch, hinter denen wir eine bewundernswerte Lebensleistung vermuten, ohne deren Inhalte und Konsequenzen auch nur annähernd zu verstehen. Philosophisch gewendet befinden sich die Nobelpreisträger (und befanden wir uns im historischen Weltbild) in einem Verhältnis zur Welt der Dinge, das Martin Heidegger als „Vorhandenheit“ beschrieben hat. Denn die Welt der Dinge stand unseren intellektuellen Fähigkeiten gegenüber (die Fähigkeiten standen sozusagen „vor der Welt), und mit jeder neuen Einsicht, welche diese Fähigkeiten hervorbrachten, war der Eindruck von der Welt der Dinge nur komplexer und überwältigender geworden, ohne dass wir das Gefühl hatten, sie besser in den (praxisrelevanten) Griff zu bekommen. Nobelpreisträger unserer Zeit sind zum bloßen Symptom eines  Entgegenhalten gegen diese wachsende Komplexität geworden – und schon lange trauen wir ihnen nicht mehr die Lösung der uns bedrängenden Probleme oder gar eine Gestaltung der Zukunft zu.

In dieser intellektuellen Stimmung hat ein Verhältnis zur Welt der Dinge Karriere gemacht (auch hier: eher unbemerkt Karriere gemacht), auf das offenbar der Begriff der „Zuhandenheit“ passt, jener Begriff, den Heidegger – mit kaum übersehbarer Sympathie – der „Vorhandenheit“ gegenüberstellte. „Zuhandenheit“ setzt ein menschliches Selbstbild als „Existenz“ voraus, zu dem neben den zerebralen Fähigkeiten auch die Sinne, der Körper und der Raum gehören. Deshalb steht man in „Zuhandenheit“ der Welt der Dinge nicht gegenüber, sondern ist Teil von ihr (Heidegger spricht von „in-der-Welt-Sein“, so als könnten die drei Bindestriche solche Nähe heraufbeschwören). Als Zuhandenheit identifizieren wir eher die Lebensform der Handwerker und Ingenieure als jene von Spezialisten oder Naturwissenschaftlern.

Dieser ganz andere begriffliche Kontext richtet unsere Aufmerksamkeit und Wertschätzung nun nicht mehr auf Kreativität als individuelle Gestaltung der Welt und ihrer Zukunft, sondern auf die Fähigkeit, lebenswerte Verhältnisse zwischen einer den Körper einschließenden Existenz und der Welt der Dinge zu finden und zu entfalten, Verhältnisse der Zuhandenheit und des in-der-Welt-Seins. Genauer (und zweitens) gesagt: Verhältnisse der Zuhandenheit werden über die Entfaltung von Varianten optimiert und nicht durch Erfindungen vorweggenommen. Es geht ihnen drittens um Richtigkeit eher als um Wahrheit (als ich neulich einen sehr jungen Studenten fragte, der eine elektronische Applikation entwickelt hatte, worauf er denn besonders stolz sei, sagte er bündig: „that it runs on a computer and has resonance on the market“ – ohne zwischen diesen beiden Dimensionen einen kategorialen Unterschied zu machen). Schließlich sind bessere, ja optimierte Verhältnisse der Zuhandenheit kaum je das Ergebnis von langwierigen Forschungsprozessen, sondern scheinen typischerweise in Alltagssituationen als plötzliche Möglichkeiten auf (in philosophischer Terminologie könnte man sie „epiphanisch“ nennen).

Noch haben wir kein Wort, um dieses andere Weltverhältnis als Funktionsäquivalent von „Kreativität“ unter gewandelten sozialen und existentiellen Bedingungen zu beschreiben. Doch schon längst hat das neue Weltverhältnis seine eigenen Protagonisten hervorgebracht. Der zumindest in der Vereinigten Staaten prominenteste von ihnen (an der Westküste kommt ihm so etwas wie ein Heiligenstatus zu) ist Steve Jobs, der über die Entfaltung der Zuhandenheits-Potenziale von Computern im ganz wörtlichen  Sinn unser Verhältnis zur Welt der Dinge verwandelt hat – ohne auch nur eine einzige naturwissenschaftliche Entdeckung oder ingenieurwissenschaftliche Erfindung für sich beanspruchen zu können. Jobs brachte (in einer lange Serie von Variationen, die zunächst zwischen momentanen Erfolgen und momentanen Enttäuschungen oszillierten) bereits vorhandene technische Elemente wie die Computer-Maus, den Apple-Bildschirm, oder den Touch-Screen in materiellen Konfigurationen zusammen, die man “ästhetisch” nennen konnte, weil sie den Wunsch erweckten, sie anzufassen und sich so in ein körperliches Verhältnis zu ihnen zu setzen. Mittels dieser Produkte aber hat sich unser Verhältnis zum Raum, zu den Dingen und zu den anderen Körpern inzwischen tatsächlich von Grund auf gewandelt. Jene Produkte decken keine Wahrheiten auf, sondern entfalten ihre eigene Sphäre der Richtigkeit, indem – und solange – sie laufen. Und unter der Hand haben sie (in eigenartig wörtlichem Sinn) den Traum, „die ganze Welt in der Hand“ zu haben, zu einer richtigen Wirklichkeit werden lassen, in der wir leben und in die wir uns finden, obwohl sie die Bilder jenes alten Traums gar nicht erfüllt.

Manchmal denke ich, dass auch die großen Sportler unserer Zeit solche Helden der Zuhandenheit sind, und dass sie soviel mehr Resonanz finden als je zuvor in der Geschichte (seit eigener Zeit sogar Resonanz bei Intellektuellen), weil sie ohne Programm und Innovationsabsichten im Experimentierfeld der Regeln ihres jeweiligen Sports neue Möglichkeiten des Verhältnisses zum Raum und zu anderen Körpern entfalten: das trifft auf Abby Wambach und auf Lionel Messi ebenso zu wie auf Serena Williams, Roger Federer, Manuel Neuer und Pierre-Emerick Aubameyang. „Kreativ“ nennen wir Athleten nur selten, und wenn wir das Wort „Genie“ gebrauchen, spüren wir gleich, wie wenig es passt. Sportler sind eben immer eine andere Überlegung und einen anderen Blog wert.

19. Dez. 2015
von Hans Ulrich Gumbrecht

9
2805

     

05. Dez. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Zivilcourage — in der Gegenwart des „Islamischen Staats“?

19
5813
     

Zivilcourage — in der Gegenwart des „Islamischen Staats“?

Von einem Gutmenschentum besonderen Tons bleibt auch der amerikanische Alltag nicht verschont. Seit die Kommandos des Islamischen Staats einen Abend in Paris zum Blutbad gemacht haben, das Leben in Belgien zum Stillstand brachten und Europa in anhaltenden Terror versetzten, fragen mich immer wieder Kollegen oder Studenten auf dem Campus in Kalifornien, entfernte Bekannte eher als alte Freunde, ob “die Menschen in Paris, an denen ich hänge” (“your beloved ones at Paris”) in Sicherheit sind, oder ich ob denn angesichts der neuen Gefahren, wie jedes Jahr im Dezember, wieder nach Europa fliegen werde. Solche Momente sind mir so unsympathisch wie die als Geste umsichtiger Sorge (und unter einem virtuellen Frankenschwestern-Häubchen) geraunten Wörter “You ok?” — die einen hier schon heimsuchen können, wenn man einmal nicht mit ostentativ aufgeräumter Miene zum Parkplatz geht. Und in Bezug die gegenwärtige Situation in Europa erscheinen solche Gutmenschen-Fragen gleich aus mehreren Gründen unsinnig.

Auf persönlicher Ebene, weil ich zwar eine gute Zahl von Bekannten in Paris habe, aber keine “Geliebten,” ohne die mein Leben außer Bahn geriete (die vorgeblich Besorgten wissen also wohl, dass ich französische Literaturgeschichte unterrichte, doch sie sind mir längst nicht so nah, wie ihre Besorgnis vorgibt). Vor allem aber ist das derzeitige Leben in Europa, selbst in Paris und Brüssel, nicht gefahrlicher geworden, als das Leben – zum Beispiel – auf einem amerikanischen Campus immer schon ist, wo ja aufgrund der besonderen Waffen-Gesetze unseres Landes jederzeit ein Verrückter zu schiessen beginnen kann. Zu dem Zeitpunkt, wo dieser Text auf FAZ.net erscheint, werde ich tatsächlich schon in Europa sein – und keinen Deut mehr beunruhigt als jeden Morgen auf dem Weg an den Hörsälen vorbei zu meinem Uni-Büro.

Wenn es also nervende Gutmenschen gewiss auf beiden Seiten des Atlantik gibt, so ist andererseits die Reaktion der europäischen Staaten auf die — dort neue — allgemeine Lebens-Gefahr in der Zeit des Islamischen Staats für Bürger der Vereinigten Staaten derart unvorstellbar, wie sie in Europa alternativenlos bleibt. Die europäischen Staaten haben die großen Städte ihres Kontinents – und symbolisch gesagt: ihre gesamten Gesellschaften – mit Polizei-Formationen umgeben, hinter denen das physische Leben sicher sein soll, was immer mit dem Risiko einhergeht, die Öffentlichkeit zur Implosion zu bringen. Ob dieser Staats-Aufwand individuelle Sicherheit wirklich erhöht, steht auf einem ganz anderen Blatt. Denn organisierte Terroristen werden heute schon Monate vor den geplanten Anschlägen in jene Gesellschaften eingeschleust, die sie attackieren und bleibend verunsichern sollen, und unterscheiden sich in dieser Hinsicht kaum von jenen meist pathologischen Individuen, die in den Vereinigten Staaten – nicht ausschließlich, aber doch viel häufiger als in Europa – mit Waffen, die ihnen zur freien Verfügung stehen, Menschen in ihrer zufälligen Nähe umbringen.

Der Sicherheitsunterschied für Individuen zwischen dem Europa dieser Tage und den Vereinigten Staaten in permanenter, strukturell bedingter Hinsicht, ist also empirisch gesehen ein höchstens gradueller, während die institutionellen Erwartungen deutlich – und nicht nur vorübergehend – divergieren. Denn die europäischen Staaten stehen unter der Erwartung und dem Anspruch, individuelle physische Unversehrtheit weitestgehend zu garantieren, während der amerikanische Staat diese Funktion schon immer an private Sicherheitsfirmen oder an die persönlichen Initiative delegiert hat. Mit anderen Worten: das “Gewaltmonopol des Staates” ist in der Vereinigten Staaten, wenn man diesen Begriff in ihrem Zusammenhang überhaupt gebrauchen kann, durchaus porös. Hier genau liegt – historisch gesehen – übrigens der Grund und (aus der Perspektive einer großen Zahl, ja vielleicht der Mehrheit amerikanischer Bürger) auch die Plausibilität einer Gesetzgebung, welche Waffen prinzipiell zugänglich macht.

Viel ähnlicher sind die etablierten Erwartungen auf beiden Seiten des Atlantik, was die Redefreiheit angeht. In Europa wie in Nordamerika kann man davon ausgehen, dass sie nur in sehr genau zu begründenden Ausnahmefällen eingeschränkt wird – und dass ihr Gebrauch prinzipiell nicht zu negativen Konsequenzen führen darf. Insofern wirkt es eigenartig (und ist wohl Symptom einer müden Tendenz zur Selbst-Heroisierung), wenn Situationen des Gebrauchs – staatlich garantierter und geschützter – Redefreiheit immer wieder als Momente von “Zivilcourage” gefeiert werden. Dass die Autoren und Zeichner von “Charlie Hebdo” zum Beispiel Exzesse des Islamismus aufs Korn genommen hatten, war natürlich ihr gutes Recht (ganz unabhängig von der — ohnehin kaum konsensuell zu beanwortenden — Frage, ob sie mit ihrer Kritik recht hatten). Ein Eindruck von Peinlichkeit aber beginnt sich spätestens mit dem stolzen Bewusstsein einzustellen, dass es ein Akt der Zivilcourage sei, hinter den Wällen aufgezogener Polizeieinheiten kollektiv die eigene Solidarität mit den ermordeten Journalisten zu feiern. Denn wer einen solchen Impuls unterdrückte, spielte ja aktiv dem Terrorismus bei der Erfüllung seines strategischen Ziels in die Hände – und schon allein deshalb muss Solidarität als selbstverständlich gelten.

Es ist wohl an der Zeit zu fragen, ob man den Ehrentitel der “Zivilcourage” tatsächlich für immer und ausschließlich mit dem Gebrauch der Redefreiheit verbinden soll. In Frankreich ist während der vergangenen Wochen die Zahl der jungen Bürger exponentiell gestiegen, die sich freiwillig zum Militärdienst melden – nach dem Blutbad von Paris und als Akt einer oft expliziten Unterstützung der Regierungsentscheidung, Positionen des Islamischen Staats in Syrien mit Luftwaffeneinsätzen zu treffen. Darin liegt ein schöner Anklang an den Text der französischen Nationalhymne, die – im historischen Moment der Revolution – zum ersten Mal “Bürger” (und nicht mehr nur Söldner) zu den Waffen rief, um das eigene Territorium gegen einen (damals allerdings in offener Feldschlacht aufmarschierenden) Feind zu verteidigen.

In unserer Gegenwart allgegenwärtig asymmetrischer Kriegsführung sind diese Strophen wieder realistisch geworden — und vielleicht hätten wir sie nie auf den Status einer in weite Ferne gerückten Vergangenheit reduzieren sollen. Mehr noch als an die neuen Freiwilligen des französischen Militärs denke ich an die – vor allem körperliche – Zivilcourage jener jungen Amerikaner, die erst vor wenigen Wochen in einem Zug nach Paris einen bewaffneten Terroristen überwältigten und unschädlich machten, während sich alle anderen Reisenden, so gut es ging, verbarrikadiert hatten. Gewiss, diese Männer waren als “Marines” für einen solchen Fall ausgebildet und also speziell handlungskompetent – doch an jenem Tag nahmen sie als private Reisende, das heißt: ohne jegliche Verpflichtung, ein Todes-Risiko auf sich.

Natürlich kann man einen solchen Fall individuellen Heldentums nicht in die allgemeine Forderung nach “Wehrhaftigkeit” umsetzten, weil dieser Begriff als ethische Norm zur Welt des Faschismus gehört – und ohnehin einem Autor im siebenundsechzigsten Lebensjahr so wenig steht wie das Glitzer-Kostüm eines Rockstars. Es geht mir vor allem um eine Kritik der seit Jahrzehnten etablierten und wachsenden Tendenz, jegliche Einklammerung der physischen Dimension unseres Lebens als Fortschritt der Aufklärung zu feiern – und so irreversibel zu machen. An diese Tendenz ist die – durch inflationären und inhaltlich ausschließlichen Gebrauch ausgelöste – Banalisierung des Begriffs “Zivilcourage” gebunden. Auf der Seite von staatlich geschützten Mehrheits-Solidaritäten stehen zu wollen, mag ja oft (vielleicht sogar meist) die richtige “politische” Entscheidung sein – aber sie verdient noch keine besondere Anerkennung. Die Einsicht, dass es sich mit dem Mut zum körperlichen Risiko genau umgekehrt verhält, stellt sich in der Gegenwart jenes Terrors ein, der täglich den Begriff des “Islam” missbraucht. Auch daran zu erinnern, ist kaum der Rede von “Zivilcourage” wert.

05. Dez. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Zivilcourage — in der Gegenwart des „Islamischen Staats“?

19
5813

     

21. Nov. 2015
von Hans Ulrich Gumbrecht
3 Lesermeinungen

13
9756
     

Was soll man jetzt noch mit der Vergangenheit anfangen?

Nach erschreckenden Ereignissen wie der Tötungs-Ekstase des Islamischen Staats am vergangenen 13. November in Paris oder ihrem Vor-Bild, dem 11. September 2001 von New York, neigen wir zu größerer Skepsis im Hinblick auf die Möglichkeit, “aus der Geschichte zu lernen.” Unter den zahlreichen Gründen, die in einer solchen Reaktion konvergieren, dominieren die unmittelbare und niederschmetternde Gewissheit, dass kein vernunftgeleitetes Nachdenken über die Vergangenheit zur Prognose dessen hätte führen können, was eben wirklich geworden ist, aber auch der jede Illusion von allgemeiner zivilisatorischer Entwicklung zerstörende Gestus solcher Verbrechen.

Unter einer ähnlichen, durch die Kastrophen-Sequenz des Zweiten Weltkriegs ausgelösten Stimmung schloss der Philosoph Karl Löwith im Juli 1948, einen Monat nachdem die westlichen Aliierten mit ihrer “Währungsreform” die Weichen zur deutschen Teilung gestellt hatten, sein heute fast vergessenes Buch “Meaning in History” ab. Als 1897 geborener protestantischer Sohn eines jüdischen Vaters, der bei Husserl und Heidegger studiert hatte, musste Löwith Deutschland 1934 verlassen, um zunächst und für zwei Jahre in seinem Lieblingsland Italien zu überleben. Von dort nahm er 1936 den Ruf an eine japanische Universität an, wo er fünf Jahre lehrte, bis es ihm die deutsch-italienisch-japanische “Achsen-Poliitk” angeraten scheinen ließ, 1941, kurz vor dem Anschlag der japanischen Luftwaffe auf Pearl Harbor und dem Kriegseintritt der Vereinigten Staaten, mit seiner Frau in den amerikanischen Staat Connecticut zu übersiedeln, wo er an einer theologischen Hochschule unterrichtete. 1952 dann kehrte Löwith nach Deutschland zurück, um eine Professur in Heidelberg zu übernehmen, wo er 1973 starb, von seinen Kollegen und Studenten eher geachtet als bewundert.

Nichts scheint Löwith weniger gelegen zu haben als eine dramatische Inszenierung der eigenen Lebensumstände. Deshalb zeigt sein Buch kaum direkte Spuren der Nachkriegssituation, während andererseits die dort entfaltete Position deutlich geprägt war von der Arbeit in einem theologischen Kontext. Vor allem nahm er jene Konzeption von “Geschichte” ins Visier, die sich nach 1800 im Werk von Hegel zur Philosophie des “historischen Weltbilds” vervollkommnet hatte und zugleich in die Praxis gemündet war, den Erinnerungen an die Vergangenheit jeweils Beobachtungen von Regelmäßigkeiten (“Gesetzen”) abzugewinnen, welche dann ihrerseits Zukunfts-Prognosen ermöglichen sollten. Offenbar im Rückblick auf die faschistischen Nationen und in der Gegenwart der siegreichen Sowjetunion wurde für es Löwiths mit bemerkenswerter Nüchternheit vorgetragenes Haupt-Anliegen, vor jenen übergreifenden Interpretationen der Vergangenheit zu warnen, weil er überzeugt war, dass aus der für sie typischen Annahme von der Vergangenheit immanenten Bedeutungen (daher der Buch-Titel “Meaning in History”) Ideologien mit ihren utopischen Zukunftsprojektionen und ihren für die Menschheit gefährlichen kategorischen Forderungen an das kolleketive und individuelle Verhalten folgten.

An dieser Stelle von Löwiths Argumentation lässt sich eine Unterscheidung vollziehen und einschieben, die er selbst nahelegte, ohne sie explizit zu machen, nämlich die Unterscheidung zwischen “Vergangenheit” und “Geschichte.” Statt diese beiden Substantive synonym zu verwenden (wie es in unserer Alltagssprache immer noch üblich ist), werde ich “Vergangenheit” schreiben, wenn es um Erinnerungen und Überlieferungen ohne übergreifende Sinnbildung geht, und das Wort “Geschichte” auschließlich auf jene seit 1800 hervorgetretenen, übergreifenden Interpretationen der Vergangenheit anwenden.

Nach Löwith soll “Geschichte” in diesem Sinn aus einer problematischen Fusion von christlicher Theologie und säkulärer Erinnerung entstanden sein. Die Erlösungstat Christi habe zu einer grundsätzlichen Strukturierung der Menschen-Zeit geführt. Sie setzte ein mit Gottes Erschaffung der Welt und der Erbsünde; sie hatte ihr Zentrum im Opfertod des Gottessohns am Kreuz als jenem Ereignis, durch das die Gewissheit einer individuellen und kollektiven Erlösung von der Erbsünde erkauft wurde; doch weil der Akt des göttlichen Selbstopfers neben der Gewissheit zukünftiger Erlösung nicht auch zugleich den Zeitpunkt ihres Vollzugs festlegen konnte, tat sich zwischen Auferstehung und dem versprochenen Jüngsten Tag eine offene Zeit auf, die nicht intern strukturiert war. Schon sehr früh in der Geschichte des Christentums und verstärkt seit der ersten Jahrtausendwende lassen sich Tendenzen ausmachen, diese von der Theologie unbestimmt gelassene Zeit zwischen Kreuzigung und Jüngstem Tag durch Sinngebungen zu füllen, welche den Zeitpunkt des Jüngsten Tags als Realisierung des Erlösungsversprechens prognostizierbar machen sollen. Eben in diesen Tendenzen will Löwith den Ursprung der Geschichtsphilosophie und des historischem Weltbilds sehen – anders gesagt: er hält die Sinngebungs-Tendenzen (nun als Metapher gemeint) für die “Erbsünde” der westlichen Kultur im Verhältnis zu ihrer eigenen Vergangenheit.

Löwiths Kritik an dieser Vermischung von Theologie und einem säkularen Blick auf die Vergangenheit ist deutlich und scharf. Doch unter dem Eindruck des Weltkriegs zögerte er offenbar, mit ähnlich deutlichen Konturen andere – und eben bessere — Verfahren im Umgang mit der Vergangenheit vorzuzeichnen. Sympathisch – und sozusagen “unverdächtig” – waren ihm allein Giambattista Vicos Philosophie aus dem achtzehnten Jahrhundert, die auf Gottes Vorsehung als Dynamik beständiger Veräbnderung setzte, ohne ihr bestimmte “Gesetze” abgewinnen zu wollen, und Jakob Burckhardts Praxis, Verbindungen zwischen spezifischen “lokalen” Konfigurationen der Vergangenheit und Konfigurationen seiner eigenen Gegenwart im späten neunzehnten Jahrhunderts herzustellen. Ein abstrakteres, in irgendeiner Hinsicht philosophierendes “Geschichtsbild” aber versagte sich Löwith.

In den vergangenen beinahe sieben Jahrzehnten ist sein Buch ohne nennenswerten Einfluss auf Geschichtsschreibung und Geschichsdenken in Deutschland geblieben. Es hat keine kritische Auseinandersetzung mit den vielfachen neo-marxistischen Ansätzen ausgelöst, die seit den sechziger Jahren entstanden; es ist nicht zu einer Gegenposition im Bezug auf die kurzfristige Euphorie des Neo-Historimus geworden, welche sich an der (schnell in Banalität umschlagenden) Entdeckung der Freiheit begeisterte, Vergangenheit in vielfachen Formen der Erzählung quasi-literarisch verarbeiten zu können; und auch die in ihrem Anspruch an Löwith selbst erinnernden minimalistischen Positionen der bis heute lebendigen, spezifisch deutschen “Erinnerungskultur” (“das Gedenken an die Vergangenheit muss bewahrt und präsent gehalten werden”) haben nie programmatisch auf ihn Bezug genommen. Nicht einmal im Werk des großen Geschichts-Denkers Reinhart Koselleck, dessen Fluchtpunkt die Darstellung des historischer Weltbilds als einem selbst historischen Phaenomen lag, wird das Werk seines Lehrers Löwith diskutiert.

Doch es geht mir eigentlich gar nicht um das (typisch akademische) Plädoyer für ein “zu Unrecht vernachlässigtes Buch.” Das Ausbleiben einer Löwith-Rezeption interessiert mich allein deshalb, weil es – nach einer freudianischen Logik der Verdrängung — Symptom für die “ungenehme Wahrheit” sein könnte, dass wir uns bis heute (oder heute verstärkt wieder) in einer an Löwiths Denkprozess von 1948 erinnernden Situation der Verlegenheit befinden, wenn es um die Frage geht, was wir mit bewahrten und erinnerten Vergangenheiten anfangen können (und welche Rolle sie für uns spielen sollen). Dies bedeutet keinesfalls, dass Bezüge auf die Vergangenheit aus dem kulturellen Leben der Öffentlichkeit geschwunden sind. Im Gegenteil – Museen und andere Formen der Vergangenheits-Dokumentation erfreuen sich heute größeren Zuspruchs als je zuvor. Sie haben Techniken der Vergegenwärtigung von Vergangenheit in ihrem Andersseins gegenüber der Gegenwart herausgebildet, die längst zu einer neuen und in sich durchaus legitimen Dimension ästhetischer Erfahrung geworden sind.

Die verbleibende – sehr ernste – Frage heißt aber, ob ausschließlich diese ästhetische Beziehung zur Vergangenheit heute noch lebendig ist. Sind die (im impliziten oder expliziten Verweis auf die deutsche Vergangenheit des zwanzigsten Jahrhunderts stets moralisierenden) Aufrufe zur “Erinnerungskultur” nicht bloß ein Schleier von Ernsthaftigkeit, den zu tragen Berufshistoriker sich gegenüber ihren Studenten und den Steuerzahlern verpflichtet fühlen? Sind wir nicht geneigt, Niklas Luhmanns Pointe zuzustimmen, nach der die Hochrechnung von Zukunftsprognosen aus Analysen der Vergangenheit derart hohe Kosten verursacht, dass es billiger ist, Versicherungen gegen nicht erwünschte Zukünfte zu kaufen? Hinzu kommt der Eindruck, dass wir beständig mit vor allem ökologischen und demographischen Herausforderungen konfrontiert sind, die aus der Zukunft auf uns zuzukommen scheinen und keinen Raum mehr frei lassen für die Gestaltung dieser Zukunft. Schließlich wirkt die Gegenwart – nicht allein, doch vor allem aufgrund elektronischer Technologien — überschwemmt von Dokumenten und Wissen über die Vergangenheit, welche ihrer Ästhetisierung letztlich die Funktion einer Entsorgung zuweisen. Anders und nüchterner gesagt: die zeitliche Struktur des menschlichen Bewusstseins wird zwar immer dazu führen, dass wir aktuelles Erleben als “Vergangenheit” zurücklassen; doch darin liegt keine Garantie, dass der so entstehenden Vergangenheit irgendeine für unser Leben relevante Funktion zukommt.

In dieser Situation der — eigentlich nie eingestandenen — Ratlosigkeit lässt sich die Renaissance einer historisch strukturierten Geschichtsschreibung beobachten, die der Vergangenheit wieder übergreifende Bedeutung – aber nun hinter negativen Vorzeichen – zuschreiben will. Unter der Erbsünden-Voraussetzung einer von Menschen ausgelösten und sich schnell ausbreitenden Verödung des Planeten gerät diese neue Geschichtsschreibung zu der Ideologie und Prognose einer sich als Ende allen Lebens vollziehenden Bestrafung der Menschheit. Und der Welterfolg des genau diesem Muster folgenden Buchs des israelischen Historikers Yuval Harari (unter dem Titel “Sapiens – eine kurze Geschichte der Menschheit”) suggeriert, dass uns kollektive Selbstgeißelung auf der Basis vermeintlicher “Geschichtsgesetze” offenbar viel leichter fällt als der Vollzug der Einsicht, dass die Vergangenheit nicht mehr zu unserer Gegenwart zu sprechen scheint.

Auch gegen Hararis quasi-apokalyptische Geschichtsschreibung mit ihren aufdringlichen Tönen politischer Korrektheit kann man Löwiths Kritik an der Vermischung von Theologie und säkularer Erinnerung ins Feld führen. Das Nachdenken über politische Ereignisse und Katastrophen in unserer Gegenwart hingegen kann auf diese Kritik verzichten, weil es den Umweg über die Vergangenheit zurück zur Gegenwart im Ernst gar nicht mehr einschlägt. “Geschichte” scheint sich als ein Verhältnis zur Vergangenheit überlebt zu haben – aber was können wir dann mit der Vergangenheit anfangen?

21. Nov. 2015
von Hans Ulrich Gumbrecht
3 Lesermeinungen

13
9756

     

07. Nov. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

7
2682
     

Ob irgendetwas unmöglich bleibt heute (oder: gibt es noch einen Platz für Gott?)

Als ich in die Grundschule ging und die Vereinigten Staaten auch für Deutsche noch der schönste Horizont aller Auswanderer-Träume waren, nannte man Amerika gerne “das Land der unbegrenzten Möglichkeiten.” Dabei bezog sich das Wort “unbegrenzt” auf den Eindruck, dass dort der Verwirklichung individueller Pläne oder Ideen kaum institutionelle Hindernisse entgegenstanden, ja dass Initiativen grundsätzlich ermutigt und begrüßt würden, je exzentrischer desto intensiver. Stillschweigend setzte man dabei immer ein stabiles, von Herkunfts- oder sozialen Unterschieden nicht tangiertes Feld des Menschen-Möglichen voraus, innerhalb dessen alle Unterschiede von Leistung und Begabung zu verbuchen waren, während die Außenseite des Menschen-Möglichen als Sphäre für die Projektionen der Imagination fungierte (und das hieß damals noch vor allem: als Sphäre der Gottes-Prädikate).

Heute klingt der Slogan vom “Land der unbegrenzten Möglichkeiten” so alt wie die Melodie eines Fred Bertelmann-Schlagers (“Der fröhliche Vagabund” zum Beispiel) oder wie meine Erinnerung an die Musikbox in der Milchbar gegenüber, und vielleicht hat das nicht allein mit der drastischen Veränderung, ja beinahe mit der Umkehrung des assoziativen Stellenwerts von “Amerika” für die Deutschen zu tun, sondern mit einer weniger sichtbaren, obwohl doppelten Veränderung im impliziten Status des Wortes “Möglichkeit.” Zum einen haben wir uns gerade in Europa an ein sozialfürsorgliches Klima gewöhnt, in dem alle Ansprüche auf Erreichung oder Verwirklichung von Zielen innerhalb des Menschen-Möglichen vom Staat zu befördern, wenn nicht sogar in ihrer Verwirklichung zu garantieren sind. Doch dies ist letztlich nicht mehr als eine graduelle, wenn auch sehr deutliche Verschiebung innerhalb des weiterhin stabilen Rahmens des Möglichen.

Zugleich, nur etwas zeitversetzt und bis heute anhaltend, haben technische Innovationen (und nicht nur sie allein) seit ungefähr einem Vierteljahrhundert jenen seit dem Auftreten des Homo sapiens auf der Bühne der Evolution weitgehend unverändert gebliebenen Rahmen des Menschen-Möglichen derart häufig überschritten, dass wir mittlerweile solche Ereignisse gar nicht mehr als einschneidende Veränderungen an der Grundlage menschlicher Existenz registrieren. Um an dieser Stelle einige terminologische Grundlinien zu ziehen: den nun schon mehrfach ins Spiel gebrachten Rahmen des “Menschen-Möglichen” können wir mit einem nur im Singular zu verwendenden Begriff aus der Tradition der phänomenologischen Philosophie “Lebenswelt” nennen. Alle historisch realen Welten (im Plural) erscheinen dann als Selektionen aus dem Möglichkeits-Rahmen der Lebenswelt. Das traditionell eher distant und beinahe eisig wirkende Feld jenseits der Grenzen der Lebenswelt aber war, wie gesagt, bis vor kurzem von den klassischen Gottesprädikaten besetzt, die inzwischen – eines nach dem anderen – auf die Innenseite des sich laufend verändernden Begriffs der “Lebenswelt” gewandert sind.

Diese vielfachen Verschiebungen und ihre akkumulierte Wirkung tangieren einerseits im einundzwanzigsten Jahrhundert kaum mehr den existentiellen Wert von religiösen Vorstellungen (was vor gut hundert Jahren gewiss der Fall war – als etwa die Erfindung der Röntgentechnik die Erwartung anspornte, bald wissen zu können, ob das konsakrierte Brot der Messe tatsächlich den Leib Christi enthielt). Dennoch mag es lohnend sein, einige jener Transformationen von Gottesprädikaten in interne Strukturen der Lebenswelt einmal durchzubuchstabieren. “Allgegenwärtig” zum Beispiel sind wir dank der elektronischen Kommunikationsmedien geworden. Ich schreibe diesen Text an einem späten Sonntagnachmittag in Santiago de Chile und sehe auf den Schnee der chilenisch-argentinischen Andenkordillere, während Mails aus Berlin, Stanford und Moskau auf dem Bildschirm meines Laptop angekommen sind, die ich ohne eine spürbare Zeitverschiebung von der Pazifikküste Südamerikas aus beantworten könnte. Zwar habe ich mir bis zu diesem Moment Gott nie vor einem Laptop sitzend vorgestellt, aber da die Theologen dazu neigen, die Geistigkeit von Gottes Sein zu betonen, tut die Unmöglichkeit, meinen Körper in die elektronische Kommunikation zu packen, dieser speziellen Übertragung eines Gottesprädikats in die menschlichen Lebenswelt keinen Abbruch. Zugleich macht mich die elektronische Kommunkation, vor allem durch ihre Suchmaschinen, annährend “allwissend,” zumindest was für Menschen erreichbares Wissen angeht (nur in die Seelen meiner Mitmenschen kann ich — im Gegensatz zu Gott und glücklicherweise – nicht blicken).

Weniger kompakt auf Computer und auf mich selbst als Computer-Benutzer bezogen ist die Bewegung des Prädikats der “Allmacht.” Seine Verschiebung wird deutlich, sobald wir uns klar machen, wieviele fundamentale Bedingungen des individuellen und kollektiven Lebens, die man früher als “Schicksal,” das heißt als für Menschen zugleich zufällig und unveränderbar, ansah, mittlerweile in Bewegung geraten sind. Unter den einschlägigen Veränderungen muss man zuerst die nicht mehr aus dem Menscheitsgedächtnis zu löschende Fähigkeit erwähnen, uns selbst und wohl auch unseren Heimatplaneten durch Nuklearenergie zu zerstören oder doch mindestens für immer so zu kontaminieren, dass er Leben nicht mehr zulässt. Dem steht auf der eher positiven Seite der Allmacht-Symptome das Potential – nicht allein präventiver – Gen-Manipulationen gegenüber, mit seinem Versprechen der Züchtung von besseren Menschen (ich meine, man muss diese Herausforderung mit drastischen Worten beschreiben). Schon unsere Gegenwart bietet gegenüber den Versprechen der Gen-Manipulation noch etwas schwerfällig wirkende chirurgische und pharmakologische Techniken an, das Geschlecht eines Menschen, in das sie oder er zufällig geboren wurde, zu verändern. Ohne es recht zu bemerken, haben wir uns heute auch darauf eingestellt, dass eine Krebs-Diagnose (anders als vor bloß dreißig Jahren) nur noch in Ausnahme-Fällen als “Todesurteil” im Sinn eines unverrückbares Schicksal aufgefasst wird. Und am Horizont solcher Schicksals-Aufhebungen ist auch aus dem Gottesprädikat vom “ewigen Leben” ein nicht mehr bloß utopischer Zielhorizont der medizinischen Forschung geworden.

Mir gehen die Kompetenz und der Sachverstand ab, um all diese Veränderungen wirklich adäquat einzuschätzen, doch die bloße Erwähnung erinnert daran, dass sich mit ihrer Konvergenz eine Veränderung im Verhältnis der Menschen zu sich selbst vollzogen haben muss. Anders gesagt: die Herausforderung dieser Gegenwart ohne verbleidende Unmöglichkeiten hat eine Vorgeschichte. Man kann nämlich zeigen, wie die großen Entwürfe des Totalitarismus, welche das zwanzigste Jahrhundert als Ideologien (vor allem kommunistischer oder faschistischer Machart) bis lang über seine Mitte dominiert haben, aus dem historischen Weltbild hervorgegangen waren, das heißt: aus dem Glauben, dass sich die Welt in beständiger Veränderung befinde, dass diese Veränderung bestimmten notwendig ablaufenden “Gesetzen” gehorche, und dass die Kenntnis solcher Gesetze Prognose und mithin eine vollkommene Vorbereitung auf die Zukunft ermögliche. Das historische Weltbild seinerseits hatte als Umstellung der Welterfahrung auf notwendige Prozesse (vor allem im Evolutionismus und in jeder Art von Geschichtsphilosophie) auf einen Moment erlebter Selbstüberforderung des Menschen im späten achtzehnten Jahrhundert reagiert, als zumindest den Intellektuellen jener Zeit die Welt zunehmend als ein Feld der Kontingenz erschienen war, also eben nicht als voraussehbar, sondern als durch Wahl, Urteil und Entscheidung zu gestalten.

Wenn der Eindruck nicht täuscht, dann ist zumindest der “westliche” Teil der Menscheit (aber wird er nicht durch die vor allem technologischen Prozesse der Globalisierung immer mehr synonym mit der Menschheit “an sich”?) in der zweiten Hälfte des vergangenen Jahrhunderts wieder bei jener Sicht der Welt angekommen, welche sie einst als ein Feld der Kontingenz präsentiert hatte, als ein Feld, dessen Phänomene stets mehrere Reaktionen zuließen – und zugleich von Rändern des (absolut) Notwendigen und des (für Menschen) Unmöglichen umgeben waren. In einer eigenartigen Kreisbewegung haben wir uns also von den selbst erfundenen geschichtsphilosophischen und evolutonären “Notwendigkeiten” befreit und sind am Ende wieder bei der Kontingenz angekommen. Neue Prognosen und von ihnen abgeleitete Forderungen, welche “Notwendigkeit” für sich in Anspruch nehmen, sind in den vergangenen Jahrzehnten – ganz im Gegensatz zum neunzehnten Jahrhundert – nicht mehr erfolgreich gewesen (sieht man einmal von den Anhängern der “Scientology” ab). Stattdessen hat auf der einen Seite die Tendenz der Sozialpolitik(en) noch verbleibende “Notwendigkeiten” aufgehoben (in diesem Sinn sind mittelweile fast alle Gesellschaften zu “Ländern der unbegrenzten Möglichkeiten” geworden), während auf der anderen Seite Naturwissenschaft und Technologie (wie ich ja anhand der klassischen Gottesprädikte kurz zu illustrieren versuchte) den anderen Rand des “Menschen-Unmöglichen” zunehmend in Kontingenz, und das heißt eben: in für Menschen Wählbares umgearbeitat haben.

Gemäß dem Aufklërungsprogramm, das Wissen und Handeln der Menschen ganz an die Möglichkeiten der ihnen gegebenen Vernunft anzupassen, hatten die aus dem achtzehnten Jahrhundert hervorgegangenen Geschichtstotalitarismen für einen Gott (oder gar für Götter) keinen Platz gelassen – es sei denn, man hätte die Regeln und Gesetze der Weltveränderung mit Gott oder den Göttern gleichsetzen wollen. Solange die Welt nach dem Ende der Ideologien wieder als Feld der Kontingenz erlebt wurde, verwies sie Gott auf ihren Rand des Menschen-Unmöglichen – auf jenen Rand, der nun eben vor allem von den Technologien der jüngsten Vergangenheit in eine Zone des Menschen-Möglichen überführt worden ist. Wo sollte da noch Platz mehr für ein “höheres Wesen” bleiben?

Es gibt wohl zwei denkbare Antworten auf diese Frage, die zugleich widersprüchlich und komplementär sind. Wenn die westliche und globale Welt dabei sind, sich aus einen Feld der Kontingenz (umgeben vom “Notwendigen” und “Unmöglichen”) in ein Universum der Kontingenz (ohne solche Ränder) zu verwandeln, dann konfrontieren die Folgen dieses Prozesses Milliarden von Menschen mit einer Komplexität von Möglichkeiten und ihnen inhärenten Anforderungen, der sie (noch) nicht gewachsen scheinen. Mit anderen Worten: aus individueller Perspektive ist unsere gegenwärtige Welt unerträglich komplex geworden. Auf diese Situation haben zumal die großen christlichen Religionsgemeinschaften mit einer Aktivierung ihrer sozialfürsorglichen (“pastoralen”) Komponenten reagiert, deren Geschäftigkeit manchmal das Transzendente (oder “Göttliche”) in den Hintergrund treten lässt. Zugleich gibt es – immer deutlicher in dem Maß, wie alle Unmöglichkeiten verschwinden – in der zu einem Universum der Kontingenz gewordenen menschlichen Existenz eine Sehnsucht nach eben nicht kontingenten Lösungen, Antworten und Orientierungen – das heißt: die Sehnsucht nach einem Gott. Deshalb ist unsere Gegenwart zugleich zu einer Zeit der Säkularisierung und zu einer Zeit der Rückkehr des Gottesbegriffs geworden. Wer (wie ich) ohne ihn auszukommen glaubt, hat jedenfalls keinen rationalen oder affektiven Grund, sich gegenüber der Sehnsucht nach Gott überlegen zu fühlen.

07. Nov. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

7
2682

     

24. Okt. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

15
10830
     

Wie lange wird der Zölibat halten?

Der Zölibat (nicht wenige Deutsche sagen eher “das Zölibat,” aber ich berufe mich, was das grammatikalische Geschlecht angeht, auf die Autorität des “Lexikons für Theologie und Kirche”), der Zölibat hat schon immer zu den Lieblings-Themen und Entrüstungs-Anlässen jenes Bürgertums gehört, das sich gerne als “liberal” (vormals “freiheitlich”) ansieht. Keinen anderen Grund als Engstirnigkeit und Kontroll-Fanatismus der katholischen Amtskirche könne es geben, so die vorherrschende “liberale” Meinung, ihren Priestern die (unterstellten) wahren Freuden der Erotik im Rahmen der Ehe zu verbieten. Natürlich wurden die Töne der Missbilligung besonders schrill in den Jahren der Kultur- und Studenten-“Revolte” um 1968, die sich ja zugute hielt, ihre eigene Gegenwart und auch gleich noch die Zukunft von allen denkbaren “Repressionen” erlöst zu haben. Diesen Anspruch kommentierte dann bald, was die Sexualität angeht, der wahrlich nicht klerikal gesinnte Michel Foucault mit schneidend trockener Ironie als einen grotesken Auswuchs des – eben bürgerlichen — Fortschrittsglaubens. Mittlerweile hat sich die Begeisterung über die eigene, angeblich erkämpfte erotische Freiheit etwas gelegt, aber katholische Priester, die ihre Abweichung von der Zölibats-Vorschrift nicht mit letzter Konsequenz verbergen, stehen als Party-Gäste weiter hoch im Kurs – zumal wenn sie von gleichgeschlechtlichen Partnern begleitet werden. Jüngst gewann die Zölibats-Empörung wieder etwas an Dynamik im Zusammenhang mit den zum ersten Mal von der Kirche öffentlich angeklagten und geahndeten Fällen sexuellen Missbrauchs seitens katholischer Priester, welche die schlimmsten (und eben auch liebsten) Befürchtungen hinsichtlich der Konsequenzen des Zölibats eindrücklich zu bestätigen schienen.

Innerhalb der Institution Kirche hat der Zölibat eine Geschichte mit eigenartig schwachen Kulturen. Seit den ersten christlichen Jahrhunderten gehörten sexuelle Enthaltsamkeit innerhalb der Ehe oder, etwas radikaler, Ehe-Enthaltsamkeit zu jenen Verhaltensstrukturen, die immer wieder mit dem Priesteramt als Möglichkeiten seiner höchsten Erfüllung assoziiert wurden. Eine eindeutige Antwort auf die Frage aber, seit wann genau Ehelosigkeit für Priester verbindlich — und auch wirklich im Alltag durchsetzbar — wurde, gibt es nicht. 1022 etwa erließen Papst Benedikt VIII. und Kaiser Heinrich II. auf einer Synode in Pavia zwar gemeinsam entsprechende Verordnungen, doch noch gut dreihundert Jahre später zitierte der “Libro de Buen Amor” (das “Buch von der guten Liebe”), einer der schönsten Texte der spätmittelalterlichen Literatur in kastilischer Sprache, eine larmoyante Klage von Priestern gegen die Zumutung, aufgrund einer neuen Anweisung ihres Bischofs nun ohne Frauen oder Konkubinen leben zu müssen. Lange vorher schon hatte die literarische Karriere des Zölibats in der Gestalt des “sündigen Priesters” eingesetzt, dessen durch das Ausbleiben “ehelicher Verpflichtungen” gesteigerte Libido (so die zentrale, meist implizit bleibende Unterstellung der Minnelieder) die stets verheirateten außerehelichen Liebhaber des Adels angeblich unter erheblichen Konkurrenz-Druck setzte. Boccaccio hat dann im “Decamerone” die Variationsmöglichkeiten dieses Morivs geradezu mathematisch ausgespielt.

In den frühen Jahren der Reformation wurde Martin Luthers persönlicher und pastoraler Entschluss zur Geistlichen-Ehe, nicht von all seinen Anhängern begrüßt – Philipp Melanchthon zum Beispiel machte kein Hehl daraus, dass er die Beibehaltung des Zölibats bevorzugt hätte. Das Konzil von Trient, wo sich die Theologie und Politik der erst jetzt “katholischen” Kirche zur Gegenreformation formierte, stellte die Frage des Zölibats noch einmal ins Zentrum einiger Debatten, um am Ende seine Beibehaltung zu bestätigen. Und nicht einmal für die Zeiten der säkularen “Modernisierung” und des programmatischen “Fortschritts” lässt sich die zu erwartende Entwicklung eines wachsenden kircheninternen Widerstands wirklich nachweisen. Selbst während des durch seine Öffnung auf die eigene Gegenwart in die Geschichte eingegangenen Zweiten Vatikanischen Konzils um die Mitte des zwanzigsten Jahrhunderts hat die Zölibatsfrage nur eine marginale Rolle gespielt.

Entgegen allen liberalen Vermutungen hat die Kirche auch nie den Versuch forciert, den einschlägigen Vorschriften aus dem kanonischen Recht eine dogmatische Grundlage zu geben, wohl vor allem deshalb, weil die Evangelien – anders als beim Vorbehalt gegenüber dem Priestertum der Frauen – dafür kaum eine Vorgabe bieten. Auch der Text des einschlägigen Artikels aus dem “Lexikon für Theologie und Kirche” wirkt in dieser Hinsicht erstaunlich offen für Diskussion und sogar mögliche Revision: an mehreren Stellen hebt er die Notwendigkeit und die praktische Bereitschaft hervor, das Gespräch über den Zölibat – im Hinblick auf je spezifische historische und kulturelle Kontexte – offen zu halten.

Viel interessanter, überraschender und tatsächlich entscheidend sind die vorherrschenden theologischen und pastoralen Gründe für den Zölibat, die vor allem vom Keuschheitsgelübde der Ordensleute abzuheben sind. Mönche und Nonnen versprechen lebenslange sexuelle Enthaltsamkeit, weil ihr Leben ausschließlich auf die spirituelle Beziehung zu Gott ausgerichtet sein soll. Die Ehe-Enthaltsamkeit der Priester hingegen wird primär als eine Lebensform verstanden, deren “Charisma” (ein in diesem Zusammenhang häufig verwendeter Begriff) eine in ihrer Öffnung ausschließliche Hinwendung auf die Gemeinde und auf die daraus erwachsenden Aufgaben anzeigen soll. Als “Zeichen”und Voraussetzung dieser besonderen Zuwendung gilt der Zölibat.

Die zwischen historischer Faktizität und einem romantischen wirkenden literarischen Ton oszillierende Liebes-Geschichte von Abelard und Heloise aus dem frühen zwölften Jahrhundert illustriert dieses Verständnis. Peter Abelard, ein Priester, der vor allem in Paris lehrte, war als der intellektuell schärfste und Hunderte von Studenten begeisternde Theologe jener Zeit berühmt geworden. Er verliebte sich in Heloise, eine junge Aristokratin, der aufgrund des Ansehens und Einflusses ihrer Familie die damals für Frauen ausgeschlossene Möglichkeit eines intellektuellen Lebens gegeben war. Heloise erwiderte Abelards Liebe und erotische Faszination – und wurde bald schwanger. All das geschah im Haus ihres klerikalen Onkels Fulbert, wo Heloise und Abelard wohnten. Dem Druck Fulberts und ihrer Familie auf Verheiratung widersetzte sich Heloise entschlossener als Abelard – vor allem, wie sie Jahrzehnte später in Briefen an ihn schrieb, weil sie überzeugt war, dass sich der Alltag einer Familie mit seiner Berufung als Lehrer der Kirche nicht vereinbaren ließ – in der doch der Ursprung ihrer Liebe gelegen war. Doch beide unterlagen der Macht der in ihrer Zeit herrschenden Konvention: sie heirateten, Heloise gebar den gemeinsamen Sohn Astrolabius und lebte in einem Kloster, während Abelard nach Paris zurückkehrte, wo ihn Fulbert überfallen und kastrieren ließ. Trotz all des Unglücks ihrer Liebe freilich hatten beide die Ausschließlichkeit von Abelards Zuwendung auf seine Rolle als Theologe und Lehrer nie in Frage gestellt oder gar geopfert. Bis zum Ende seines Lebens entwicklete er die Argumente und Positionen seines Denkens weiter, oft in fruchtbarer Provokation und Auseinandersetzung mit den Lehren der Kirche als Institution.

Aus einer gegenwärtigen Perspektive, deren Wert-Voraussetzungen mit dem offiziellen Selbstverständnis der Kirche gewiss nicht vereinbar sind, könnte man sagen, dass sich in der Entscheidung für das Priestertum die Wahl einer Lebensform vollzieht, die exzentrisch vor allem durch ihren ethisch elitären Anspruch ist. Genau in diesem Sinn sorgt das kanonische Recht dafür, dass zukünftige Priester auf dem Weg der Ausbildung mehrfach ihren Willen zu dieser Lebensform mit allen ihren Konsequenzen bestätigen müssen. Dem immer wieder gemachten Einwand, dass im Zölibat ein Hauptgrund für den sogenannten “Priestermangel” liege, kann man dann vor allem zwei – ganz verschiedene — Argumente (neben vielen anderen) entgegen setzen. Zum einen ist es wohl eine Frage wert, ob angesichts weiter schwindender Zahlen von wirklich praktizierenden Gläubigen und angesichts der Übernahme vielfältiger traditioneller Funktionen der Kirche durch säkulare Institutionen wirklich von einem “Priestermangel” zu reden ist. Voll allem aber scheint die Vermutung plausibel, dass der – nie genannte – Elite-Anspruch des Priesteramts in Wirklichkeit diese Rolle gerade attraktiv macht (einmal abgesehen von der Tatsache, dass sexuelle Handlungen von Priestern theologisch keinen anderen Stellenwert haben als die eines jeden unverheirateten Katholiken).

Gerade weil mir kaum eine anderen Verhaltensprämisse für mein das eigene Leben weniger vorstellbar ist als der Zölibat, bewundere ich jene Männer, die sich in Freiheit für ihn entscheiden. Engstirnig sieht in diesem Zusammenhang allein die liberale Zwangsvorstellung aus, gegen den Zölibat als Lebensform der katholischen Priester polemisieren zu müssen. Ganz am Rande will ich noch sagen, dass mit einer Zölibats-Aufhebung durch die katholische Kirche für die nächsten Jahrzehnte wohl kaum zu rechnen ist, obwohl sie theologisch und pastoral jederzeit denkbar und auch durchführbar ist. Vielleicht würde ich – als agnostischer Intellektueller und Sympathisant der katholischen Kirche – eine solche Aufhebung sogar bedauern. Aber nun gehe ich wohl in meiner Sympathie einen Schritt zu weit – zumal ja niemand einen guten Grund haben kann, sich um meine Ansichten zum Zölibat zu kümmern.

24. Okt. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

15
10830

     

10. Okt. 2015
von Hans Ulrich Gumbrecht
2 Lesermeinungen

21
9808
     

Was heißt „katholisch sein“ heute? (Das römische Paradox)

Ein “Recht,” mit Gedanken zu dieser Frage an die Öffentichkeit zu gehen, habe ich gewiss nicht – wenn so ein Schritt denn überhaupt einer besonderen Rechtfertigung bedarf oder als “ethische Frage” diskutiert werden muss, was ja in Deutschland mittlerweile zu einer auffälligen Obsession geworden ist (man könnte auch im Anschluss an das klassische Buch von Jürgen Habermas zum “Strukturwandel der Öffentlichkeit” argumentieren, dass das Recht von Nicht-Spezialisten, eine Meinung zu haben und zum Ausdruck zu bringen, als eine historische Errungenschaft der Öffentlichkeit anzusehen ist). Wie auch immer, ich bin – im dritten Viertel des vergangenen Jahrhunderts – mehr oder weniger “katholisch erzogen” worden und habe bis heute eine kulturelle Sympathie für diese “Konfession,” wie man früher sagte, obwohl ich seit dem kurzen Versuch in meinem dritten Uni-Jahr, ein katholischer Intellektueller zu werden, Kirchen nur aus kunsthistorischen Gründen oder zu Familienfeiern besucht habe. “Kirchlich engagiert” bin ich jedenfalls nicht, und deshalb schreibe ich “von außen” über den Katholizismus von heute, statt als Gläubiger voller Hoffnung oder Furcht “mitzureden.”

Anlass zum Nachdenken über die Frage, was es heute heißen kann, “katholisch zu sein,” war die anlässlich der gerade in Rom tagenden Bischofssynode – außerhalb wie innerhalb der Kirche beinahe gleich leidenschaftlich – vorgetragene Meinung, dass es gut für diese Institution sei (weil historisch längst überfällig), sich nun endlich auch offiziell auf die Konsequenzen der Scheidung und auf die Möglichkeit von homoerotischen Partnerbeziehungen als Realitäten unserer Gegenwart zu öffnen. Optimismus in dieser Hinsicht hat Papst Franzikus ja schon seit seinem Amtsantritt angeregt, indem er die Katholiken ermutigt hat, geschiedene und offen homosexuelle Christen Teil ihrer Gemeinschaften werden zu lassen — und es zugleich immer wieder mit öffentlichen Gesten der Demut von sich weist, über Geschiedene oder Homosexuelle den moralischen Stab zu brechen. Dass die offizielle Bestätigung solcher Gesten durch eine römische Synode mittlerweile überhaupt vorstellbar geworden ist (wenn auch wohl noch kaum zu erwarten), setzt eine bemerkenswerte und profunde Veränderung der Kirche im vergangenen halben Jahrhundert voraus, die aus ganz verschiedenen, ja vielleicht sogar gegenläufigen Gründen intern sowhl wie extern nur selten erwähnt wird: extern hält man offenbar gerne an dem Gemeinplatz vom Katholizismus als einer hoffnungslos antiquierten Institution fest und intern an einem aufgrund historischer Veränderungen nicht in Frage zu stellenden Status der Glaubensinhalte.

Als ich 1954 eingeschult wurde, wies der Freistaat Bayern die sechsjährigen Mädchen und Jungen meiner Heimatstadt strikt in eine “evangelische” und mehrere “katholische” Klassen ein (andere “Glaubens”-Möglichkeiten waren nicht vorgesehen), und hielt so eine Rivalität und potentielle Feindschaft am Leben, die sich in Deutschland damals bereits zu überleben begonnen hatte. Meinen akademisch ausgebildeten, aber gewiss nicht intellektuell ambitionierten Eltern schien ihre Zugehörigkeit zur katholischen Kirche eher peinlich zu sein. Obwohl an einem katholischen Krankenhaus beschäftigt, sagte mein Vater zum Beispiel gerne, dass er “eigentlich christlich” sei; als ich im dritten Schuljahr und in den Monaten vor meiner Erstkommunion Messdiener werden wollte, hielt er mich an, ihn wissen zu lassen, “wenn der Pfarrer mich anfassen” wollte (ich selbst hatte keine Ahnung, wovon er sprach); und meine Mutter erinnerte sich immer wieder voller Bewunderung an ihr Gespräch mit einem evangelischen Pastor, der sie – ohne solide theologische Grundlage, wie ich heute weiß – überzeugt hatte, dass die evangelische Kirche das Bild eines “liebenden Gottes” pflege, während die katholische Kirche ihre Gläubigen – leider — mit der Predigt von einem “strafenden Gott” in Furcht und Schrecken halte. Die Bilder von Pius XII., dem “Pacelli-Papst” jener Jahre, zeigten eine asketisch-entrückte Gestalt, die wie eine Verkörperung des mit dem Amt verbundenen (und oft missverstandenen) Unfehlbarkeits-Anspruchs aussah, auf halbem Weg zwischen der Erde der Menschen und dem Himmelreich sozusagen, eine Gestalt, die sich wenige Jahre später eigenartig mühelos mit dem Geschichtswissen vermitteln ließ, dass derselbe Eugenio Maria Giuseppe Giovanni Pacelli nach seiner Zeit als Vatikan-Botschafter in Berlin einen folgenreichen Vertrag mit der Nazi-Regierung ausgehandelt hatte.

Der nach dem Tod von Pius XII. im Konklave der Kardinäle 1958 gewählte, aus einer Familie des Landproletariats stammende Patriarch von Venedig überraschte dann als Johannes XXIII. die Welt mit einem Charisma freundlicher Öffnung, welches bald das Zweite Vatikanische Konzil auf den Weg brachte und durch seine Beschlüsse die symbolischen Erneuerungen des bei der Messe nun zum ersten Mal seiner Gemeinde zugewandten Priesters durchsetzte, der die Liturgie nicht mehr auf Lateinisch, sondern in der jeweiligen Volkssprache feierte. Bei meinen Abiturprüfungen im Frühjahr 1967 war “Religion” ein Pflichtfach – und meinen Eltern war nur schwer zu erklären, dass die uns aufgebene Lektüre eines wuchtigen Taschenbuchs mit “Konzilsakten” nun plötzlich eine “progressive” Konnotation hatte, wie man damals zu sagen begann. Kirchengeschichtlich – und von außen gesehen – lässt sich das Konzil der sechziger Jahre mit seinem Programm-Wort des “aggiornamento,” der Anpassung der Kirche an den Alltag einer neuen Gegenwart, als Aufhebung zentraler institutioneller Folgen des Ersten Vatikanischen Konzils aus dem späten neunzehnten Jahrhundert verstehen, welches alle Vertreter des Katholizismus einen auf “Anti-Modernismus-Eid” verpflichtet hatte, das heißt auf ein aktives und aggressives Ignorieren jeglicher historischen Veränderung.

Seit dem Tod von Johannes XXIII. im Jahr 1963 hat das Konklave eine Folge von Päpsten gekürt, die in ihrer prägnanten Verschiedenheit und wirkungsvollen Konvergenz in der Welt-Öffentlichkeit ihresgleichen sucht: Paul VI., mit dem die pastoralen Reisen des Kirchenoberhauptes einsetzten und der sich der Praxis künstlicher Geburtenregelung in katholischen Ehen widersetzte; Johannes Paul I., der in den dreiundreißig Tagen zwischen seinem Amtsantritt und seinem plötzlichen Herztod genug Zeit hatte, der “Demut” (“Humilitas”) als seinem päpstlichen Motto entsprechend auf eine Reihe pompöser Gesten und Embleme des Vatikans zu verzichten; Johannes Paul II, den ersten nicht-italienischen Papst nach vielen Jahrhunderten, einen gebürtigen Polen, der eine entscheidende Rolle im Prozess der Implosion des osteuropäischen Staats-Sozialismus gespielt hatte, die Kirche entscheidend auf andere Religionen und Theologien öffnete, aber zugleich theologisch traditionelle Positionen wie die einer Verehrung Marias als “Mutter Gottes” vertrat; Benedikt XVI., einen in seinem Profil intellektuellen Papst, der die Identität der Kirche als konservative Institution pflegte, ohne von der Weltoffenheit als moralischer Position abzuweichen; und Franziskus, den ersten nicht-europäischen Papst aus Argentinien, der engagierter noch als seine Vorgänger auf vielen Ebenen die soziale Verantwortung der Institution Kirche betont und sie mittlerweile auch auf ökologische Anliegen eingestellt hat.

All diese Mini-Portraits und die mit ihnen verbundenen Tatsachen gehören zum einfachen Bildungswissen, doch in ihrer Konvergenz und Akkumulation erklären sie einen mittlerweile vollzogenen Wandel der Kirche auf der Ebene internationaler Wahrnehmung, der eigenartiog implizit geblieben ist. Sie hat waehrend des vergangenen halben Jahrhunderts durch die entschlossenen Kontinuität ihrer an keine politische Ideologie gebundenen Zuwendung auf die Unterprivilegierten der Welt und durch oft einseitige Initiativen ökomenischer Öffnung größere moralische Autorität gewonnen als je zuvor in ihrer Geschichte; sie ist – ganz im Sinn der ursprünglichen Bedeutung des Worts “katholisch” — als die größte aller Religionsgemeinschaften mit der Weltbevölkerung auf eine Zahl von etwa 1,3 Milliarden Gläubigen gewachsen (das sind mehr als die Hälfte aller Christen) und macht ihre globale Präsenz in der räumlichen, rituellen und institutionellen Extem-Kondensation des Vatikanstaats, aber auch durch die zu Medienereignissen größten Stils gewordenen Papstreisen sichtbar.

In der Zeit dieses Wandels aber hat sich die katholische Kirche durch die konservative Konsistenz ihrer Theologie-Politik als System geschlossen gehalten. Doch diese Geschlossenheit steht nicht nur nicht in einem Verhältnis wechselseitiger Auschließlichkeit zu den beschriebenen Bewegungen der Öffnung, sondern bestätigt tatsächlich das systemtheoretische Paradox, nach dem sich gerade die am deutlichsten geschlossenen Institutionen die größte Offenheit gegenüber ihrer Umwelt leisten können. Denn anders als die in den meisten Fällen theologisch weit liberaleren Varienten des Protestantismus ist die katholische Kirche – eben dank ihrer theologischen Geschlossenheit — bis heute nicht von einer Selbst-Auflösung im Prozess der Säkularisierung bedroht. Für viele praktizierende Katholiken — vielleicht heute wirklich schon für eine Mehrheit unter ihnen — bedeutet ihr Glaube vor allem, in eben diesem Paradox zu leben. Voller Begeisterun tragen sie das soziale Engagement einer Kirche, mit deren Lehr-Autorität sie intern im polemischen Dialog stehen.

Schon seit der Zeit von Paul VI. und den innerkirchlichen Debatten über Geburtenkontrolle ist selbst dem Vatikan bekannt, dass durchaus aktive Katholiken in vielen Ländern ihr privates Leben nur sehr selektiv an die Vorschriften der Kirche anpassen. Wäre es deshalb nicht an der Zeit, wenigstens ihre am deutlichsten aus der Lebenspraxis der Gegenwart ausscherenden Verschreibungen auch offiziell aufzuheben? Andererseits, was wäre wirklich gewonnen, wenn sich die Kirche – etwa in der nun laufenden Bischofssynode –explizit und sichtbar dem Alltag von heute unterwürfe? Die liberal-engagierten Katholiken haben ja ohnehin seit Jahrzehnten bestimmte Freiheiten in ihrer privaten Lebensführung mehr oder weniger stillschweigend in Anspruch genommen. Diese bürgerlichen Freiheiten zu theologisch-institutionellen Positionen zu machen, bedeutete, jene Geschlossenheit gegenüber dem fortschreitenden Säkularisierungsprozess aufzugeben, welche wohl die besondere Faszination der katholischen Kirche ausmacht. In einer Welt der Kontingenz und der Werte-Relativität tut sie hingegen (und trotz des im Zweiten Vatikanischen Konzil begonnenen “aggiornamento”) gut daran, dem Außendruck auf Veränderung gewisser Grundsätze und auf die Anpassung an die (vermeintliche?) Rationalität sich wandelnder Werte gerade nicht nachgeben – denn damit verlöre die katholische Kirche ihre Sonderstellung als eine auf dem (angeblich) überzeitlichen Wort Gottes ruhende Institution.

Papst Franziskus hat seit seinem Amtsantritt – wohl durchaus bewusst – vorgelebt, was es heißen kann, das “römische Paradox” der Gleichzeitigkeit von Geschlossenheit der Lehre und Öffnung der pastoralen Praxis auf die säkularen Welt in eine differenzierte Strategie zu übersetzen. Vielleicht setzt diese heutige Stärke der katholischen Kirche aufs Spiel, ihre neue moralische Autorität und ihre Tradition der Sorge für die Ärmsten, wer – als engagierter Katholik oder von außen – die Anpassung ihrer theologischen Prinzipien an die mittlerweile eingespielte pastorale Praxis einfordert. Gerade diesen Schritt will der Papst offenbar nicht vollziehen – und mittlerweile scheint selbst der interne “Streit in Solidarität,” den er so am Leben hält der erneuerten Kirche und ihrem Bild nur gut zu tun.

10. Okt. 2015
von Hans Ulrich Gumbrecht
2 Lesermeinungen

21
9808

     

26. Sep. 2015
von Hans Ulrich Gumbrecht
2 Lesermeinungen

15
3887
     

Besatzungskinder, Sudetendeutsche, Gastarbeiter — Szenen nationaler Migrations-Geschichte

Dass die allzu unmittelbare Umsetzung ethischer Impulse in politische Entscheidungen angesichts der gegenwärtigen Migrationswelle eine Situation heraufbeschworen hat, deren Komplexität die zuständigen Institutionen und einen Teil der Bevölkerung in Deutschland überfordert, ist eine Sicht, die während der vergangenen Wochen an Plausibilität gewonnen hat. Doch sie beeinträchtigt in keiner Weise die Schönheit, fast möchte man mit einem Hauch von Paradoxie sagen: die überwältigende Schönheit, millionenfacher individueller Reaktionen des Mitleids und der Großzügigkeit, in denen ein wunschhaftes Selbstbild vieler Deutscher Wirklichkeit geworden ist — und langfristig gewiss auch ihre Wahrnehmung im Ausland verändern wird. Ausgerechnet jene Nation (wenn man von “Nationen” als einer Dimension historischer Kontinuität überhaupt noch reden kann), die während einer gespenstischen Episode von zwölf Jahren die Abscheu vor jedem Anders-Sein zur Industrialisierung des Tötens verdichtet und gesteigert hatte, macht heute durch eine erstaunliche Zahl von Bürgern auf sich aufmerksam, die der Hinwendung zu fremdem Leid und dem Engagement für seine Heilung eine Priorität vor den eigenen Interessen geben.

Darin liegt nicht unbedingt ein Widerspruch zu jener manchmal harsch wirkenden Unnachgiebigkeit, mit der eine – vielleicht andere — Mehrheit von Deutschen auf die Einhaltung von Finanzvereinbarungen unter den europäischen Gesellschaften bestehen wollte. Sie sahen wohl keinen Zusammenhang zwischen den griechischen Staatsschulden und einer Möglichkeit, kollektives und individuelles Leid in diesem Land zu mildern — und mithin auch keinen Anlass zu Reaktionen des Mitleids. Mit manchmal etwas banaler und fast immer auffällig forcierter Selbstwahrnehmung andererseits feiern sich die Deutschen gern als “Spendenweltmeister” oder (vor einigen Jahren) als die Gastgeber eines “Sommermärchens” – weil sie in singulärer Leidenschaft an der Verbesserung ihres Selbst- und Fremdbildes hängen. Dieser Ehrgeiz — und deshalb auch die Schönheit der wenigstens zum Teil von ihm motivierten individuellen Reaktionen — könnte, meine ich, die langfristige, über mehrere Generationen weitergegebene und deshalb heute oft gar nicht mehr bewusste Auswirkung eines Traumas sein, das sich die Deutschen im sogenannten “Dritten Reich” selbst zugefügt hatten, ohne damals natürlich an die Konsequenzen ihres Verhaltens zu denken. Diese Tradition wirkt nicht allein in den Impulsen der Zuwendung und der Großzügigkeit nach, sondern auch in der starken, eben ehrgeizigen Tendenz vieler Deutscher, ihren Staat auf die Übernahme und Verkörperung “ethischer” Einstellungen zu verpflichten.

Weil sie so beide Seiten der spezifisch deutschen Reaktion auf die Migrationsbewegung in ein neues Licht rückt, die besondere Breite ethisch motivierter Reaktionen ebenso wie die Neigung der Politik, sich allzu eng an sie anzulehnen, könnte es lohnend sein, die Geschichte der Weitergabe und der Umformungen jenes Traumas über verschiedene Generationen zu verfolgen und zu erzählen. Ich möchte mit drei Erinnerungsbildern aus der Kindheit einen persönlichen Anfang machen, mit Bildern aus der frühen “alten Bundesrepublik,” die ich – soweit als möglich und ganz bewusst — in der Perspektive meiner eigenen Naivität aus jenen Jahren und auf Distanz von verallgemeinernden Schlüssen halten werde. Um “Besatzungskinder, ”Sudetendeutsche” und “Gastarbeiter” soll es gehen und damit drei Mal um Reaktionen auf die Verarbeitung je spezifischer Modalitäten in der Erfahrung von Anderssein. Denn es ist denkbar, dass aus der Akkumulation des Bestrebens, solchen Herausforderungen — in vorbewusst national-spezifischer Weise – gerecht zu werden, die besondere Einstellung so vieler Deutscher zu Problemen wie der gegenwärtigen Migration entstanden ist.

Als ich am 1. September 1954 in der “amerikanisch besetzten Zone Deutschlands” eingeschult wurde, trennte die bayerische Kultusverwaltung Kinder nach ihrem religiösen “Bekenntnis” in katholische und evangelische Klassen, was selbst im konservativen Würzburg schon damals keiner Alltagswirklichkeit mehr entsprach. Schockierend oder auch faszinierend war aber für die meisten von uns die Erfahrung, dass einige “Klassenkameraden” (wir gebrauchten sehr stolz dieses etwas holprig altmodische Wort) Gesichter mit anderer Farbe und meist auch anderen Zügen hatten. Als ich beim Mittagessen fragte, warum denn mein Kamerad Hansi Grimm so anders aussah, erklärten mir die Eltern (beide waren Ärzte an der Universitätsklinik), dass er ein “Besatzungskind” sei (was mir kaum weiter half) und dass die Väter von Besatzungskindern nicht zuhause wohnten, was mich nur noch mehr verwirrte. Bald lernte ich aber diese Väter kennen. Sie kamen auf Jeeps in Tarnfarbe und mit je einem weißen Stern auf den Türen zu unserem Pausenhof, brachten für alle Kinder Kaugummi (das wir nicht kannten), sehr süßes Milchpulver und Coca Cola mit, das viel besser schmeckte als unsere dünne “Schulspeisungs”-Milch; sie trugen Uniformen und hatten meistens schwarze Haut, konnten kein Deutsch – und lachten gerne und laut. Schon bald waren wir enttäuscht, wenn sie über ein paar Tage nicht zur Pause kamen, und einmal sagte Hansi Grimm, dass ich Grüß-Gott zu seinem Papa sagen sollte – der mich gleich nach dem freundlichen Händeschütteln in die Luft warf und gekonnt wieder auffing.

Bald fand ich auch heraus, wo Hansi Grimm wohnte. Er lud mich nämlich zum Baden ein ins Plantschbecken der “Wickenmeier Kinderbewahrungsanstalt,” einem altertümlichen Gebäude in der Nähe des Schulhauses, wo Nonnen mit strenger Tracht und freundlichen Gesichtern “Kinder ohne Eltern” versorgten. Zwei Jahre lang, bis wir in ein “besseres” Viertel umzogen, bin ich fast jeden Tag in “die Wickenmeier” gegangen und wünschte mir manchmal, wie Hansi dort wohnen zu dürfen. Eines Tages erzählte mir eine alte Nonne mit vielen Fältchen um den Mund (die anderen Nonnen nannten sie “Schwester Oberin” oder “Mutter Kostka”), dass sie die Tante meines Vaters war. Als ich schon in die Abiturklasse ging und in einem noch besseren Viertel wohnte, berichtete die Lokalzeitung, dass Schwester Kostka Schraut in Bonn das Bundesverdienstkreuz verliehen worden war, weil sie, ich zitiere, “in den Kriegsjahren als Oberin eines Heims für mongoloide Kinder ihr eigenes Leben aufs Spiel gesetzt hatte, um das Leben dieser Kinder gegen die Drohung des Euthanasie-Programms zu schützen.”

Im ersten Jahr Gymnasium kamen einige Klassenkameraden, die auch anders waren, ganz ohne die Fürsorge von religiösen Institutionen und ihren Helden aus. Denn die Eltern und sogar die Großaltern dieser Jungen waren immer präsent: beim Abholen nach dem Unterricht, in den Lehrer-Sprechstunden, im Elternbeirat und sogar bei Klassenfahrten im Autobus. Mein neuer Sextaner-Freund Gernot Hettler zum Beispiel sprach anders als wir Unterfranken (“Underfrangen”), in einer weicheren Melodie seiner Sätze und mit rollenden R-Lauten. Schwer erträglich war für unsere täglichen Auto-Gespräche, die sich um die neuesten Modelle von Borgward und Ford, vor allem aber von Opel und Mercedes drehten, dass Gernot von einer Marke schwärmte, deren Namen wir noch nie gehört hatten: “Skoda Oktavia hat zwei Motoren,” sagte er, “die man austauschen kann, muss man nur ein Schräubchen bewegen, und ein Motor wird vom anderen ersetzt.” Jeden Morgen wurde Gernot von seinem Vater und einem für meinen Geschmack unsympathisch großen Schäferhund in die Schule begleitet, der Vater trug eine gelbe Binde über dem Arm, auf der “Kriegsblinder” stand, und ließ sich von dem Schäferhund dann weiter ins Finanzamt führen, wo er als Telephonist arbeitete.

Unser Lateinlehrer, Dr. Kurt Fina, und der Deutschlehrer, Dr. Eduard Eisenmeier, Herausgeber einer Adalbert Stifter-Bibliographie, sprachen ähnlich breit und weich wie Gernot mit seinem Vater, und sie erwähnten manchmal im Unterricht ein “Unrecht,” das ich nicht kannte, und die “sudetendeutsche Sache,” nach der ich dann wieder zuhause fragte (eben diese Funktion von Abendessen in der Familie haben heute längst die Suchmaschinen übernommen). Die Meinungen meiner Eltern waren auch in diesem Fall viel deutlicher voreingenommen als die höchstens tendenziösen Informationen von Suchmaschinen: “Sudetendeutsche sind von den Russen aus ihrer Heimat vertrieben worden und deswegen müssen wir sie aufnehmen, aber es ist schon gut, dass sie auf der Sieboldshöhe unter sich bleiben.” Die Sieboldshöhe war ein Viertel am Rand der Stadt, mit vielen Blindenhunden (so kam es mir jedenfalls vor), neuen Reihenhäusern und einer “hochmodernen” Kirche, Sankt Alfons, die meine Eltern und ihre Freunde giftig-herablassend “Seelensprungschanze” nannten. Tatsächlich wohnten dort die Eisenmeiers, Finas, Hettlers und andere Familien mit schwerem Zungenschlag, ein paar Tausend von vierzehn Millionen “deutschstämmigen Flüchtlingen” aus Osteuropa, die, eher gelitten als geliebt, in der Deutschen Demokratischen Republik oder in der Bundesrepublik Deutschland weiterlebten und deren “Vertreibung” aus der Sowjetunion, aus Polen und aus der Tschechoslowakei die größte Völkerwanderung seit der Antike ausgelöst hatte.

Als dann wenig später die “Gastarbeiter” zuerst aus Italien, bald aber auch aus Spanien und Portugal, aus Griechenland, Jugoslawien und vor allem der Türkei ins Land kamen (und unter dem offiziellen Vorzeichen “sozialistischer Solidarität” aus anderen Ländern in die DDR) hatte sich der Ton gegenüber den Fremden plötzlich verändert. Schon das heute geflissentlich zu kritisierende Wort “Gastarbeiter” sollte ja einen Anklang von Freundlichkeit implizieren, was möglicherweise damit zu tun hatte, dass inzwischen der deutsche Sommer-Tourismus, zur Adria und zur Costa Brava vor allem, in Gang gekommen war. Der bald populäre Schlager von den “Zwei kleinen Italienern” brachte die neue Stimmung auf Begriffe und Töne: “Eine Reise in den Süden,” wenn ich mich richtig erinnere, “eine Reise in den Süden ist für and’re schick und fein, doch zwei kleine Italiener möchten gern zuhause sein.” Und der Refrain hieß: “Oh Gina, oh Marina, wenn wir uns beide wiedersehn, oh Gina, oh Marina, das wird so wunderschön.”

Dass handfeste, jeweils bilaterale Wirtschaftsinteressen dieser erneut gigantischen Migration ihren Rahmen gaben (um die zwölf Millionen “Gastarbeiter” strömten in die beiden deutschen Staaten, zehn Millionen von ihnen sind in ihre Heimatländer zurückgekehrt), einen Rahmen, der mit bemerkenswert strikter politischer Rationalität ausgehandelt wurde, und dass es zu Exzessen von Xenophobie, Ausbeutung und sozialer Diskriminierung kam, die bis heute nachwirken, stellt niemand in Frage. Aber vielleicht gab es trotzdem eine Konvergenz zwischen den erst während der sechziger Jahren wirklich entschlossen einsetzenden Schritten einer neuen Nachkriegsgeneration, die Geschichte des deutschen Nationalsozialismus als eine Geschichte nationaler Schuld “aufzuarbeiten,” und auf der anderen Seite der freundlich-unbeholfenen Sentimentalität, in der ein Schlager die Deutschland-Erfahrung von “Gastarbeitern” als Erfahrung von außen beobachtete. Solche Spuren kondensierten sich dann erstaunlich schnell während der Regierungszeit von Willy Brandt zu dem kollektiven Wunsch, ein “anderes Deutschland” zu sein – und der Welt dieses andere Deutschland zu zeigen. Brandts Kniefall am Ort des Warschauer Ghettos und die schwebende Architektur der Olympischen Spiele von 1972 sind die im historischen Gedächtnis lebendig gebliebenen komplementären Symbole jenes Moments.

Mit der Ermordung von elf Athleten und Trainern der israelischen Mannschaft während der Münchener Spiele wurde zugleich und plötzlich klar, dass allein der gute Wille einer neuen Gesellschaft nicht ausreichte, um die Traumata aus der deutschen Vergangenheit im Rücken einer besseren Gegenwart zu isolieren, zu überwinden oder gar vergessen zu machen. Diese heute vielleicht zu einer Ahnung oder gar zu bloßer Energie gewordene Erfahrung mag immer noch eine treibende Kraft und Komponente in der Bemühung von erstaunlich vielen Deutscher um ein Leben nach ethischen Prinzipien sein, um ein Leben, das die besondere Intensität der ökologischen Bewegung in Deutschland ebenso vorgegeben haben mag wie den Willen so erstaunlich vieler Bürger im Land, die Migranten des Jahres 2015 nicht nur zu “absorbieren,” sondern ihnen eine Heimat zu sein.

Und solange dieser Wille nicht in engstirnige Selbstgerechtigkeit und nationales Strebertum umschlägt, was oft genug der Fall ist, hat er Deutschland schöner gemacht – so schön wie vor sechzig Jahren das faltige Lächeln der Ordensschwestern in ihrer engen Tracht und das laute Lachen der GI’s, denen zur Ehre ich lebenslanger Coca Cola-Trinker geworden bin.

26. Sep. 2015
von Hans Ulrich Gumbrecht
2 Lesermeinungen

15
3887

     

12. Sep. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

13
5529
     

Ob „Migrationswellen“ eine ethische Herausforderung sind

Von außen ist es schwierig, sich Deutschland in diesen Tagen und Wochen unter dem Druck der Einwanderungsströme vorzustellen, auch wenn man mit der Gegenwart und der Geschichte des Landes einigermaßen vertraut ist. Und diese Schwierigkeit hat nur wenig mit dem Antagonismus der Reaktionen zu tun, auf die, ihre Spannung ins Dramatische treibend, die Medien reagieren. Was fehlt, sind eher Vorstellungsbilder von jetzt ankommenden Zügen und Bahnsteigen gefüllt mit Migranten-Familien, von Aufnahmelagern und Warteschlangen, Posten der medizinischen Überprüfung, von kollektiver Nahrungsversorgung und eng gestellten Betten, gar nicht zu reden von den Tausenden, die sich auf einer Autobahnspur, durch Polizisten eingewunken wie unerträglich langsame Kraftfahrzeuge, von Budapest nach Wien bewegten. Die Älteren unter uns mögen noch einschlägig wirkende Erinnerungen haben, die in der zeitlichen Distanz aber verblasst und zugleich aufgeladen sind von heute ganz unpassenden Emotionen: zum Beispiel den Namen des Lagers Friedland für die Spätheimkehrer aus der Sowjetunion in den fünfziger Jahren oder die kaum eineinhalb Jahrzehnte älteren Photographien von deutschen Juden, die über die Straßen ihrer Städte wie Vieh zum Bahnhof getrieben wurden. Jetzt sind Menschen aus fremden Ländern auf den Straßen und Gleisen Deutschlands, und niemand kann eigentlich überrascht sein, wenn sich angesichts dieser Lage ein Großteil der Bürger für ihre Aufnahme und ihr Wohlergehen engagiert (auch weil man sich so selbst beweisen kann, dass das eigene Land endlich durch eine Wandlung gegangen ist), während ein anderer Teil derselben Gesellschaft – teils mit aggressiven Gesten – diese Einwanderung zu limitieren oder sogar grundsätzlich zu blockieren versucht.

Obwohl kein europäischer Politiker die Bewegungsströme dieses Spätsommers wirklich vorausgesehen hat, reden sie nun alle so, als handle es sich um eine riesige Akkumulation je plausibler Einzel-Entschlüsse — und unterschätzen so die Komplexität des Migrations-Phänomens, indem sie ihm ein Übermaß an Rationalität zuschreiben. Gewiss, dieser Politiker-Blick ist geformt von Gesetzen, welche politische Entscheidungen ermöglichen und binden sollen, von Gesetzen auch, das liegt in ihrer Natur, welche ohne Unterstellung individueller Intentionen nicht auskommen können. Doch ihre konsequente und ausschließliche Anwendung als Instrumente politischer Entscheidungsfindung blendet ganz jene Dimension naturwüchsiger Kraft aus – einer Kraft aus Impulsen der Verzweiflung und manchmal auch der Stärke – welche offenbar zu jeder Migrationsdynamik als kollektivem Verhalten gehört. Selbst wenn – stets in ihren ersten Kapiteln oder ersten Stunden – Geschichtsbücher und Geschichtsseminare von der “Völkerwanderung” berichten, erscheinen ihre Bewegungen stets mit scheinbar “guten Gründen” ausgestattet, und das Analoge gilt für die Darstellung der mittelalterlichen Kreuzzüge, deren “Gründe” in Wirklichkeit unendlich schwerer zu fassen sind als ihre Dynamik im Raum, ja sogar für die interkontinentalen Migrationsbewegungen des neunzehnten Jahrhunderts.

Dabei gehört zu all den historischen Migrations-Momenten eine Komponente letztlich intransitiver Unruhe, welche in einer Anekdote aus der brasilianischen Geschichte – in der Anekdote von der “Coluna Prestes” — exemplarisch zum Vorschein kommt. Nur scheinbar angetrieben von sozialrevolutionären Motiven und Parolen legte ein Haufe meist paramilitärisch ausgerüsteter Männer unter Führung des Generalstabsoffiziers Carlos Luis Prestes zwischen 1925 und 1927 (über gute zweieinhalb Jahre) nicht weniger als fünfundzwanzig tausend Kilometer einer letztlich ziellosen Bewegung durch das Inland ihrer Nation zurück, um schließlich ohne offensichtlichen Grund in Bolivien zum Stillstand zu kommen.

Diese Beschreibung soll keineswegs den Legitimitätsanspruch der gegenwärtigen Migranten in Frage stellen, doch sie wirft die Frage auf, ob eine Logik der Handlungsrationalität je zu ihrem Verständnis ausreichen kann – und letztlich auch zur Entwicklung angemessener politischer Reaktionen. Der innenpolitische Zerfall Syriens und die so oft heraufbeschworene “weltwirtschaftliche Krisen-Lage” allein werden solche kollektiven Bewegungen ebenso wenig erklären wie die obsessive Gegen-Unterstellung, nach der sich die Mehrzahl der Migranten durch Lügen über ihre Lebenssituation Vorteile erschleichen wollen. Migrationsbewegungen schließen immer – und dieser Satz ist durchaus nicht metaphorisch gemeint – die Dimension und die Konnotation eines Naturereignisses ein, gegenüber dem Gesetze und politische Selbstverpflichtungen (auf Einschluss oder Ausschluss) jedenfalls zu kurz greifen, und die man in ihrer Faktizität ernst nehmen sollte. Deshalb, meine ich, ist die wechselseitige Empörung europäischer Politiker über das Nicht-Einhalten dieser oder jener “gesetzlichen Vorschriften” grundsätzlich unangemessen. So wie niemand mit einer Dynamik dieser Intensität gerechnet hatte, kann auch niemand in Anspruch nehmen, sie in ihrer ganzen Komplexität zu verstehen und ihr gegenüber die “einzig richtige” Reaktion zu haben.

Die Begrenzung der Verstehensmöglichkeiten trifft, meine ich, sogar auf jene schönen Gesten und Kontinuitäten von (im Rahmen des Möglichen) großzügiger Öffnung wie ostentativer Freundlichkeit zu, an denen sich die meisten der heute in Verantwortung stehenden deutschen Politiker ausrichten – wohl auch und durchaus im demokratischen Sinn aufgrund der Annahme, dass sie damit eine nationale Mehrheits-Reaktion anführen. Aus der moralischen Schönheit dieser Gesten folgt aber nicht, dass man sie ohne weiteres in ethische Notwendigkeit umdefinieren kann — oder in gesetzlich untermauerte Forderungen der Ethik überführen sollte. Eine solche Forderung “ethisch” zu nennen, heißt ja bis heute – nach der kantischen Aufklärungs-Tradition des Begriffs – dass man in ihr das Potential eines für die Menschheit bindenden Gesetzes sieht.

Dagegen sprechen in unserer Gegenwart gewichtige Gründe aus ganz verschiedenen Perspektiven. Vor allem ist – wohl als Folge einer allgemeinen Tendenz sozialer Ent-Hierarchisierung – die Skepsis gegenüber jeglichen Handlungs- und Verhaltensforderungen im Status der Notwendigkeit gewachsen. Zu zahllosen Verhaltensmustern und Werten, die noch vor wenigen Jahrzehnten als alternativenlos (und mithin “notwendig”) galten, haben sich inzwischen plausible – aber natürlich ebenso wenig notwendige – Gegenpositionen herausgebildet. Noch abstrakter formuliert: wir finden uns zunehmend der Welt als einem Universum der Kontingenz ausgesetzt, nicht mehr der Welt als einem Feld der Kontingenz, das von Margen des Notwendigen und des Unmöglichem umgeben war.

In diesem Rahmen wird zweitens deutlicher als je zuvor, dass aus unbegrenzten (oder gar zur Notwendigkeit erhobenen) Gesten der Großzügigkeit finanzielle Konflikte mit langfristigen Versorgungsgarantien entstehen können. Nicht jeder Impuls und jede Initiative zur Begrenzung von Großzügigkeit – ob in England, Frankreich oder Bayern – sollte deshalb leichthin als “faschistisch” oder “rassistisch” verteufelt werden. Schließlich spricht gegen die Erhebung der Öffnung zum ethisches Prinzip im Notwendigkeitsstaus auch die Unvorhersehbarkeit der Migrationsdynamiken. Solange die Volkssouveränität als politische Struktur je regional begrenzt (also nicht auf die Menschheit ausgeweitet) bleibt, sollte die Möglichkeit einer Schließung von Gesellschaften – auch und vor allem einer wirtschaftlich begründeten Schließung – als legitim gelten dürfen.

Viel wird für die Menschheits-Zukunft – unter sich jedenfalls verschärfenden Versorgungs-Bedingungen – davon abhängen, den Großzügigkeits-Enthusiasmus nicht in Großzügigkeit als moralisches Prinzip degenerieren zu lassen, weil Großzügigkeit als moralischen Prinzip und als Forderung im Status der Notwendigkeit schnell in ihr Gegenteil, das heißt in wachsend hermetische Abschottung und in immer schärferen Antagonismus umschlagen könnte. Argumente – etwa das geschichtlich fundierte Argument, nach dem sich die Absorption von Immigrationswellen für die meisten Gesellschaften messbar positiv ausgewirkt hat — sind in diesem Zusammenhang allemal wirkungsvoller als Prinzipien.

Keiner dieser nüchternen Teil-Einwände nimmt dem, was heute wie eine deutsche Mehrheitsreaktion wirkt, auch nur einen Grad ihrer Schönheit, einer Schönheit, die zum Emblem jener – historisch gesehen ja sehr kurzfristigen – Transformation der Nation werden könnte. Und nichts kann andererseits den Glanz solcher Schönheit vermindern oder opak werden lassen als eine auf ethische Notwendigkeitsforderungen setzende Dämonisierung jener Schwester-Nationen — und auch jener Mitbürger — welche Öffnung und Großzügigkeit in ihren Gesellschaften begrenzen wollen. Unterschiede zwischen Meinungen und Haltungen eignen sich nur selten zu moralischer Differenzialbewertung.

12. Sep. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

13
5529

     

29. Aug. 2015
von Hans Ulrich Gumbrecht

17
2792
     

Aller Gebildeten Lieblings-Patient: das Buch und seine Zukunft

In den achtziger Jahren (oder war es schon eher?) konnte man zwischen den Bremslichtern oder auf der Rückscheibe eines von zwei deutschen Autos ein dralles rotes Herzchen sehen mit dem spezifizierenden Kommentar “Ein Herz für Kinder.” Schon damals lag in der Luft, dass die Besitzer solcher Wagen Vorläufer eines kommenden sozialen Typs waren (wir nennen ihn heute “Gutmenschen”) – und nach einem die Geste begleitenden Gerücht sollen kinderlose Paare die Mehrheit jener Gruppe gewesen sein (denn Kinderlosigkeit ließ es nur natürlich erscheinen, ein “Herz für Kinder” zu haben — solange ein Leben mit Kindern die normative Lebensform war).

In Kalifornien entdecke ich jetzt eine neue Sticker-Gattung, die mich an das inzwischen wohl verschrumpelte Symbol-Herz für Kinder erinnert. Es sind Aufkleber mit Liebeserklärungen an lokale, tendenziell kleine Buchläden, manchmal angeschärft durch Verwünschungen (in vier Buchstaben) von “Amazon.” Die offensichtliche Parallele zur Kinderlosigkeit der Gutmenschen von 1980 liegt darin, dass – wie ich in einigen individuellen Fällen mit Sicherheit weiß – die Buchläden-Lovers unbeirrt Kunden bei “Amazon” bleiben und so mit jeder Bestellung einen Nagel in den Sarg ihrer Lieblinge treiben. Für die Gebildeten unserer Gegenwart ist das Buch nämlich zu jenem Gegenstand geworden, der den Flor einer Träne über jedes Auge legt – und den sie zu Geburts- und anderen Festtagen verschenken, um sich selbst und den Beschenkten guten Geschmack zu bestätigen (was immerhin einige Verlage bis auf Weiteres am Leben halten wird). Zum Lesen von Buch-Geschenken fühlt sich aber niemand mehr verpflichtet.

So ist das Buch, vor allem das “literarische” Buch (was immer man damit genau meint), längst zu unserem Lieblings-Patienten avanciert, besonders deutlich und intensiv, sobald die einschlägig geistreiche Lieblings-Konversation über “die Zukunft des Buchs im elektronischen Zeitalter” ausbricht. Dann hagelt es ebenso starke (wie eigentlich kaum je begründe) Meinungen, die entweder mit gallig-kulturkritischem Pessimismus die Gegenwart verdammen oder in sattem Optimismus ihrem Glauben an den Endsieg des Guten frönen. Ob freudig oder dunkel gestimmt, diese Meinungen nehmen oder geben sich nicht viel, weil es ja allemal nur darum geht, die eigene Zugehörigkeit zur Widerstands-Kaste der “Bildungsbürger in dürftiger Zeit” zu genießen.

Nimmt man die Frage nach der Zukunft des Buchs einen Grad ernster, dann wird bald deutlich, dass “Buchgeschichte” und “Mediengeschichte” (als vergleichsweise neue akademische “Sonderwege” — vor allem in Frankreich und in Deutschland) zu jenen Wissensfeldern gehören, denen kein Detail zu gering und keine These zu steil ist, ohne dass auf der anderen Seite ihre Prognosen außerhalb der Wissenschaft je ernst genommen werden. Außer Zweifel steht allein, dass etwas in Bewegung gekommen ist im Hinblick auf den kulturellen Status des literarischen Buchs. Ich erinnere mich noch lebhaft, wie schockiert ich vor nur zehn Jahren war, in der “Titanic”-Kolumne des damals allseits beliebten Max Gold zu lesen, dass er einige seiner Bücher per Müllabfuhr hatte loswerden wollen – um sie von derselben Müllabfuhr säuberlich ausgesondert zurückerstattet zu bekommen. Im vergangenen Frühjahr kam dann auch mir der Gedanke, dass unser Wohnzimmer mit einem Buch-Regal weniger besser aussehen müsste – und nachdem mehrere Wochen lang nicht ein einziger meiner Studenten Interesse an den vor meinem Büro angebotenen Büchern zeigte, habe ich sie in Mülleimern versenkt. Ohne die von Max Gold erfahrenen Rückerstattungsprobleme — und, das macht mir bis heute am meisten zu schaffen, ganz ohne schlechtes Gewissen.

Aber woher kam jenes einst so geradezu weihnachtlich strahlende Prestige des literarischen Buchs, das nun vor unseren Augen und in unserem Verhalten zu verlöschen beginnt? Ich wage ein paar erste Thesen – in der Hoffnung, dass sie etwas konkreter als bloß “geistreich” sind. Zum Beispiel halte ich es für plausibel, die Geschichte des literarischen Buchs mit dem mittelalterlichen Codex beginnen zu lassen, noch vor der Herausbildung eines Begriffs von “Literatur,” der in einer Kontinuität mit unserem Literatur-Begriff steht. Dafür gibt es einen medial-mechanischen Grund: erst mit dem Codex wurden die “umzublätternden Seiten” als quantitative Einheiten des bewahrten Wissens Teil der Buchgeschichte. Vor allem aber galt dem Codex – aus einer Reihe von konvergierenden Gründen – die denkbare höchste Wertschätzung. Eine dieser Gründe waren die enormen Produktionskosten von Büchern, die auf Pergament, also auf spezifisch zubereitete Kalbs-Haut als Schreibgrundlage angewiesen waren; hinzu kam die Schreib- und auch Lesekompetenz der Kleriker als einer schmalen sozialen Gruppe. Unter solchen Voraussetzungen ergab es sich, dass allein Texte des höchsten Bedeutungsgrads (und das hieß beinahe ausschließlich: Texte in der lateinischen Sprache) bewahrt, niedergeschrieben und überliefert wurden. Aber vor allem fiel die Aura der göttlichen Offenbarung als Ursprung allen Wissens auf den Codex, ein Ursprung und Grund des Wissens, der von Menschen nicht zu ersetzen und so beständig von Vergessen und materieller Erosion bedroht war.

Erst in den spätmittelalterlichen und frühneuzeitlichen Jahrhunderten, aber schon lange vor der Erfindung des Buchdrucks um 1450, eroberten Texte der aristokratischen Unterhaltung, besonders volkssprachliche Minnelieder, das Medium des Codex. Und bald schon zeichnete sich dann die Tendenz ab, in einem Codex Texte nur eines Autors zu sammeln. Petracas “Canzoniere” ist ein frühes Beispiel dieser Entwicklung, und seine Erhebung zum Lorbeer-gekrönten Dichter in Rom deutet an, wie die neue Rolle des literarischen Autors in einer hierarchischen Verbindung zu Gott als dem vormals einzigen “Autor” (das hieß “Urheber”) stand. Erst seit jener Zeit wurde auch ein Begriff von “Fiktion” mit den literarischen Texten verbunden, genauer die Trennung zwischen dem Anspruch auf Wahrheit und dem Bezug der Texte auf greifbare Wirklichkeiten. Hinzu kam bald, was Niklas Luhmann einmal “Kompaktkommunikation” genannt hat. Die frühen “literarischen” Texte begannen jede Art von Situationen zu beschreiben, in denen sie gelesen oder rezitiert werden sollten, und wurden so – aus der Perspektive individueller Leser – weitgehend unabhängig von der Realität solcher Situationen.

Bis hin ins frühe neunzehnte Jahrhundert gewann die nun schon ekstatische Stellung der inzwischen gedruckten literarischen Bücher immer weiter an Intensität. In dem Maß, wie Autoren und Leser sich als “cartesianische Subjekte” verstanden und so im Blick auf sich selbst von allen physischen und sozialen Unterschieden absehen wollten, entstand eine neue Intimität zwischen ihnen als wechselseitig “lieben Freunden.” In der Aufklärung wurde solche Vertrautheit gerahmt von “ästhetischer Autonomie,” die eine Distanz zum Alltag durchsetzte und erhielt. Zugleich steigerten sich die mit dem Begriff “Literatur” verbundenen Ansprüche und Erwartungen. Nur dank der Formen von Literatur und einer dem Status der Fiktion abzugewinnenden Unabhängigkeit von der Wirklichkeit glaubten Autoren das Unsagbare in der “Tiefe” ihres Gemüts zum Ausdruck bringen zu können, und gerieten zudem – im Einfluss des heraufkommenden “historischen Weltbilds” – unter den Druck einer beständigen Innovations- und Originalitäts-Verpflichtung.

Im neunzehnten Jahrhundert schließlich verwandelte sich die gewachsene Intimität und Ekstatik der literarischen Kommunikation in eine exzentrische Position gegenüber der Gesellschaft, die bald schon Züge von Aggressivität und Verweigerung annahm. Diese Haltung vor allem erklärt das Enstehen von Büchern, die sich in ihren Inhalten und in ihrer Sprache bewusst aus der sozialen Zirkulation von Wissen zurückziehen wollten und umso mehr die Besonderheit ihrer “Materialität” in Layout, Illustration oder Einband betonten. Das zeitgleich entstehende Format des “Taschenbuchs” musste die komplexe Sonderstellung des hoch-literarischen Buchs nur unterstreichen.

Selbst in dieser extremen Kompression veranschaulicht unsere Geschichte, warum der Besitz von Büchern vom neunzehnten Jahrhundert an als synonym mit Bildung galt, warum es ganz undenkbar geworden war, sich je von ihnen zu trennen – und warum sie mittlerweile im Schlagschatten der elektronischen Kommunikation zu unseren Lieblings-Patienten werden mussten. Natürlich gibt es keinen aktiven Impuls der Zerstörung oder auch nur der herablassenden Arroganz gegenüber dem literarischen Buch seitens der in die elektronische Situation hineingeborenen Generationen, doch sie lesen in einer Weise, welche die über Jahrhunderte entstanden Komplexität der literarischen Kommunikation zum Kollaps bringen wird. Vor allem lesen sie permanent — auf größere oder kleinere Bildschirme konzentriert – und erwerben so eine erstaunliche Kompetenz, in kürzester Zeit enorme Menge von “Information” zu verarbeiten. In dieser Hinsicht können wir vor-elektronischen Leser schon lange nicht mehr mithalten. Entsprechend schwer fällt es aber auch denen, die Lesen und Schreiben mit einem Keyboard gelernt haben, die Formqualitäten von Texten zum Gegenstand ihrer Aufmerksamkeit zu machen und gerade über sie zur vermuteten “Tiefe” eines Autors als “Freund” zu gelangen.

Vielleicht hat die Tatsache, dass Bildschirmlesen als Lebensform immer wieder für Minuten und Sekunden durch das Schreiben von “Botschaften” abgelöst wird, dazu geführt, dass der Unterschied zwischen Autoren und Lesern heute abgeflacht wirkt. Unter meinen Nachbarn scheint in jedem Haus an einem literarischen Buch gearbeitet zu werden, und manchmal frage ich mich ironisch und auch besorgt, ob jede dieser Autorinnen wenigstens einen einzigen Leser finden wird. Seit das Web vom “laufenden Kommentar über die Welt” zu einem Äquivalent der Welt avanciert ist, hat – angesichts dieser stets “konstruierten” Welt – auch die Fiktion ihre Distinktionskraft als eine Sonderbedingung der Kommunikation verloren, und Buchläden oder gar Bibliotheken kommen unseren intellektuellen Nachfolgern als Ort des Wissens oder gar der Konzentration kaum mehr in den Sinn. Hat die elektronische Kommunikation “das Ende des literarischen Buches” eingeläutet?

Vieles spricht ja für diese Ansicht, zumal sie – vor allem für die älteren Generationen – ein angenehmes Empörungspotential bereit hält. Doch ich glaube, dass einer stärker differenzierten These höherer prognostischer Wert zukommt. Gewiss, intellektuelle Leistungsfähigkeit und sogar Bildung wird für eine demographische Mehrheit der Zukunft ganz ohne Bücher denkbar sein – und diese Mehrheit wird das litearische Buch, das nie ihre Liebe oder ihr Patient war, auch kaum vermissen. Als ebenso minoritärer wie durchaus sichtbarer Gegenentwurf entwickelt sich aber ein Verhaltenstyp, dem gerade das emphatisch dysfunktionale Buch als stolzes Zeichen von Exzentrizität und kulturellem Anspruch gilt. Von diesem Verhaltenstyp werden teure Antiquariate leben (und die gängigen Buchläden über-leben), weil man dort Bücher nicht wegen ihres Inhalts sondern wegen ihres Werts als Sammelstücken kauft. Und wer zu den Kunden solcher Antiquariate gehört, der möchte die öffentliche Bibliothek als Raum der Konzentration gegen ein Spezial-Archiv austauschen, das allein er (zusammen mit einer Gruppe von Spezialisten) zu nutzen versteht.

Zwischen dem – möglicherweise spurlosen – Verschwinden des literarischen Buchs für die (anders) gebildete Mehrheit der Zukunft und seiner (vielleicht manchmal etwas verkrampften) endzeitlichen Verklärung als Sammelstück könnte sich eine neue, vielleicht angenehm ernüchterte Form der literarischen Lektüre herausbilden. Es fällt mir auf, dass nicht wenige meiner Freunde, vor allem meiner nicht-iteraturwissenschaftlichen Freunde, die sich ihre Existenz ohne Literatur kaum vorstellen können, eine Vorliebe für Audio-Bücher entwickelt haben. Als Medium verpflichten Audio-Bücher ihre Hörer auf einen Grad an Aufmerksamkeit, der selbst das vom mittelalterlichen Codex kommende literarische Buch an Intensität und Dauer überbietet — und zugleich liefern sie mit der Stimme des Vorlesers einen zusätzlichen sinnlichen Anhaltspunkt, der vielleicht die ebenfalls von der Stimme bewirkte Verengung des Auslegungsspielraums ausgleicht.

Einen “Weg zurück” zum neunzehnten Jahrhundert als der großen Epoche der – klassischen – literarischen Lektüre wird es nicht geben – und noch weniger eine Renaissance der Unterstellung, dass literarische Bildung der Kern jeder Art von Bildung zu sein habe. Vielleicht ist es ja wirklich wie mit dem “Herz für Kinder” in den achtziger Jahren. Die Zahl der Geburten ist seither – trotz des kleinen Aufschwungs im vergangenen Jahr – beständig gesunken. Doch es ist natürlich auch eine Option geblieben, Familien “mit Kinderwunsch” zu gründen — genau wie die literarische Lektüre längst nicht ganz verschwunden ist. Deswegen wohl gibt es jetzt Rückfenster-Aufkleber zur Feier der kleinen Buchläden – und des literarischen Lesens.

29. Aug. 2015
von Hans Ulrich Gumbrecht

17
2792

     

15. Aug. 2015
von Hans Ulrich Gumbrecht

19
4761
     

Kippe und Trinkflasche als Embleme der Gegenwart

“Fit wie ein Turnschuh” (ältere Herren halten dieses Bild noch für beinahe hip) sah die Undergraduate Studentin aus, als sie wie vereinbart diesen Freitag Punkt acht Uhr dreißig morgens zu meinem Büro kam, um herauszufinden, ob die Teilnahme an einem Doktoranden-Seminar im Herbst über “Tod und Literatur” für sie lohnend sein könnte. Ihr Haar war noch etwas feucht vom Duschen, sie trug rote Shorts, Nikes natürlich, eine gut geschnittene graue Trainingsjacke und dazu den akademischen Rucksack, wie er jetzt flächendeckend Akten- wie alle andere Taschen ersetzt hat — und selbst den auch sehr praktischen kleinen Rollkoffer auf Popularitäts-Distanz hält. Ob sie ein Sportlerinnen-Stipendium (ein “athletic scholarship”) hätte, fragte ich, und sie sagte nein, aber gut geraten, denn während der High School-Jahre sei sie 5000 Meter gelaufen (Bestzeit um die achtzehn Minuten).

In einer wohl dafür vorgesehenen Außentasche ihres Rucksacks steckte einer jener auch ziemlich sportlichen Behälter, die man in Deutschland jetzt “Trinkflaschen” nennt, so als gäbe es nennenswerte Flaschen, die nicht zum Trinken da sind (Riechflaschen haben ja seit dem neunzehnten Jahrhundert ihre Beliebtheit verloren). Um Missverständnisse zu vermeiden, will ich betonen, dass nicht jeder Trinkflüssigkeits-Behälter den Namen “Trinkflasche” verdient. Trinkflaschen, bestätigt vielfach das Web, müssen aus “umweltfreundlichem” oder “schadstoffarmem” Material sein (“Tritan” zum Beispiel, was immer das ist) und im Regelfall durchsichtig, damit man sie rechtzeitig nachfüllen kann, fast ausschließlich mit Wasser und nur ausnahmsweise einmal mit Fruchtschorle. Außerdem gehört zu ihnen eine Schlaufe, die nicht nur den (“auslaufsicheren”) Verschluss unverlierbar macht, sondern es der Besitzerin auch ermöglicht, wenn immer das Leben eine physische Herausforderung zu werden droht, die Trinkflasche durch Befestigung an der Gürtelschnalle zu einem Körperteil werden zu lassen. Dort sieht sie dann, aus ökologischer und ästhetischer Perspektive, wie ein Seitenstück der Birkenstocksandalen (eher als der Nikes) aus, auf deren flache Nüchternheit sich heute nicht wenige Existenzen gründen.

Obwohl der Hausarzt und der Kardiologe mir mindestens einmal pro Jahr und alternierend aus zweifellos guten Gründen eine Trinkflasche ans Herz und in meine über die Schulter getragene Tasche legen wollen, kann ich mich mit der Empfehlung nicht anfreunden, zumal ich in einem Land und auf einem Campus lebe, wo an jeder Ecke ein “Water Fountain” wie eine melancholische Geste der Erinnerung auf immer weniger Benutzer wartet (ob das Wasser solcher “Fountains” als minderwertig gilt, vergesse ich immer zu fragen). Meine Studentin vom Freitagmorgen hingegen verstand nicht einmal die Frage, seit wann die Trinkflasche in ihrem Rucksack steckt – derart existentiell unvordenklich ist sie ihr geworden. Im Vergleich zu ihr sehe ich mich als Romantiker einer Zeit lang vor der Trinkflaschen-Gegenwart, der seiner von schadstofffreien Körpern unmerklich angestoßenen Phantasie ihren Lauf lässt: einen tiefen Schluck aus der wie durch ein Wunder nicht eingefrorenen Trinkflasche zu nehmen, stelle ich mir vor, auf der letzten Strecke einer Erstbesteigung im Himalaja; den rettenden Schluck aus der ebenso erstaunlicherweise kühl gebliebenen Trinkflasche bei einem Schwächeanfall mitten in der Sahara; oder, als Öko-Ersatz des katholischen Sakraments von der letzten Ölung, den von einem Sanitäter verabreichten letzten Schluck aus der Trinkflasche, bevor ein Autounglück tödlich wird.

Warum beklagt sich aber niemand darüber, dass Trinkflaschen ziemlich unförmig aussehen, wie sie in den Rücksäcken stecken oder zu Beginn des Gesprächs neben das Handy auf den Tisch in meinem Büro plaziert werden? Warum wagt vor allem kein Beobachter zu sagen (wie der kleine Junge in Hans Christian Andersens Märchen von “Des Königs neuen Kleidern”), dass man eigentlich nie jemanden aus der Trinkflasche trinken sieht? Trinkflaschen, heißt die sozialhistorisch gestimmte Antwort, sind in einer Gegenwart, wo – im Gegensinn zu Hölderlin – existentielle (Be)Dürftigkeit gleichbedeutend mit sozialem Verantwortungsbewusstsein geworden ist, zu einem im matten Glanz der Schadstoffarmut erstrahlenden Kondensat und Emblem unseres höchsten Wertes geworden. Und dieser Wert heißt Selbst-Erhaltung. Wer auf Wasser setzt – statt auf Coca Cola, Bier oder Schnaps, der (oder die) tut das Mögliche, um sein (oder ihr) Todesalter über die Hundertjahres-Grenze hinaus zu schieben, schon vor dem ersten Studienjahr und lange bevor jenes Leben beginnt, in dem früher nur noch Gesetze – keine Eltern oder andere “relevanten Erwachsenen“ mehr – dem Genuss im Weg stehen können. Heute findet legitimer Genuss in der “Bionade” seine Grenze. Und wenn man schon zum Wasser-Wert entschlossen ist, dann wird es ganz unwichtig, wirklich Wasser zu trinken, solange nur die Wasser-Bereitschaft durch einen Wasser-Behälter angezeigt ist.

Wo diese Logik herrscht, versteht niemand mehr, dass gerade Rauchen ein scharfer Genuss sein kann – und was für ein Genuss, vor allem in der an Betäubung grenzenden Wachheit nach der ersten Frühmorgen-Zigarette und mit der euphorisierenden Andeutung von Schmerz, den der erste Zug aus der dieser Zigarette in der Lunge auslöst! Meistens setzen die Morgen-Jogger sofort zu einer demonstrativen Kurve an, wenn sie mich mit meiner Zigarette im Weg stehen sehen. Manche von ihnen verwickeln mich aber auch in ein aufklärend therapeutisches Gespräch: Rauchen schade meiner Gesundheit, teilen sie mir in erstaunter Besorgnis mit und lassen sich ihre Zuwendung einen Moment des Mitrauchens kosten. Unvermeidlich folgt darauf eines jener peinlichen Gespräche, wo beide auf verlorenen Posten stehen und kaum noch zu einem Ende finden.

Denn einen Weg zurück gibt es nicht: das als Geste der Selbstzerstörung erlebte Rauchen ist das Gegen-Emblem zum Wasser-Trinken, in Zigaretten konzentrieren sich längst – wie früher einmal in den Kernkraftwerken – alle sonst auseinander strebenden Befürchtungen und Aggressionen dieser Welt. Gescheitert sind allemal die nie wirklich entschlossenen Versuche, dem Rauchen in anspruchsvollen Spezial-Boutiquen eine Aura kosmopolitischer Eleganz zu geben. Und wo nun gerade die Intellektuellen zur Avantgarde der Lebens-Bewahrung geworden sind, wirken auch jene Photos aus der Hoch-Zeit des französischen Existentialismus (vor nicht mehr als sechzig Jahren) wie Relikte aus archäologisch ferner Vergangenheit, als ein Denker-Gesicht ohne Gauloise im linken Mundwinkel nicht überzeugend war. Wer heute von Zigaretten abhängig ist (eine weniger unfreundliche Beschreibung steht kaum zur Verfügung) und also alle Gefahren der Lebensverkürzung in Kauf nimmt, der wird auf manchen Flughäfen (zum Beispiel in Frankfurt) in gelb-schlierigen Plastikboxen gebündelt und den Kindern öffentlich zur Warnung vorgesetzt, wie – berichtete einst Michel Foucault – die Wahnsinnigen des siebzehnten Jahrhunderts hinter Eisengittern. Und wer dort einmal geraucht hat, der weiß, dass er im gesellschaftlich Abseits angekommen ist. Bei den Zeitgenossen mit der billigsten Kleidung, den dünnsten Zeitungen, den meisten Tattoos und den nervigsten Ticks.

So sind Zigaretten heute immer und nur noch Kippen, prinzipiell und schon lange bevor sie angezündet werden, hässlich gebrochene, flach zertretene, von Speichel befeuchtete und mit Asche vermischte Kippen. Nur: welche Gründe und Werte orientieren die aggressive Aussonderung der Raucher und ihrer Kippen aus der Welt des dritten Millenniums? Woran versündigen sie sich? Sozial schädlich sind ja gar nicht die selbst-zerstörenden Raucher, um die man immer einen Bogen machen kann. In einer Demographie, die keine Antwort auf die Frage hat, wie immer weniger aktiv Arbeitende die aus Lebenserhaltungs-Obsession immer breiter werdenden Altersmargen vor ihnen finanzieren sollen, müsste gerade Lebensverkürzung zu einem sozialen Wert avancieren. Als ein positiver Beitrag zum gesellschaftlichen Glück der Zukunft, als funktionales Äquivalent zu freiwillig gezahlten Extra-Steuern wäre deshalb die aktive Selbst-Begrenzung des Lebens zu feiern. Einkommensteuersenkung für Raucher sollte ein politisches Ziel sein – und zukünftige Generationen sind beizeiten darauf vorzubereiten, statt dem Alter das Rauchen zu ehren. Ein Thema für “Literatur und Tod” also, in der Creative Writing-Version?

15. Aug. 2015
von Hans Ulrich Gumbrecht

19
4761

     

01. Aug. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

23
13040
     

Soll man in Amerika studieren?

Die Frage wird ja in Deutschland privat und auch öffentlich oft diskutiert, meist wohl als rhetorische (und das heißt als schon vorab beantwortete) Frage, die zu der Einsicht führen soll, dass sich ein Aufwand in so vielen Dimensionen, wie er für Europäer mit einem Studium in den Vereinigten Staaten verbunden ist, am Ende nicht lohnt. Dies mag aus vielen Gründen und in vielen Fällen durchaus plausibel sein. Erstaunlich ist aber, dass solche Gespräche fast immer und ohne jede Skepsis von einigen Prämissen ausgehen, die nicht zutreffend sind – einfach falsch tatsächlich, ohne Unschärfe oder Ambivalenzen. Zum Beispiel setzt man voraus und nimmt sehr ernst, dass die Studiengebühren an besseren amerikanischen Universitäten unerschwinglich seien (erst vor kurzem erzählte mir eine Mutter aus eher wohlhabender deutscher Familie, dass sich ihre Tochter genau aus diesem Grund erst gar nicht an der – amerikanischen – Universität ihre Träume beworben hatte). Zugleich wird die für Universitäten in den Vereinigten Staaten fundamentale Unterscheidung zwischen “College” und ”Professional School” kaum je erwähnt (selbst in einem von dieser Zeitung vor wenigen Wochen veröffentlichten Artikel eines in Deutschland geborenen Professors, der, obwohl er mittlerweile an einer prominenten amerikanischen Universität unterrichtet, seinen Lesern darlegen wollte, “wieviel amerikanische Unis immer noch von deutschen lernen können”). Vor allem aber benutzt man wie selbstverständlich den Ausdruck vom ”amerikanischen Universitätssystem” und geht also davon aus, dass es in den Vereinigten Staaten – so wie in Deutschland — eine institutionelle Homogenität der Universitäten gibt, die durch nationale Traditionen wie durch Gesetze definiert und bewahrt wird.

Keine dieser Prämissen entspricht der Wirklichkeit, so unbeirrt sie auch nun schon über viele Jahrzehnte alle Korrektur- und Differenzierungsvorschläge überlebt haben. Zunächst gibt es einfach kein nationales “amerikanisches Universitätssystem” — und diese Feststellung bezieht sich auf mehr und auf Einschneidenderes als den bloßen Eindruck, dass Universitäten sich heute überall in einer Phase schneller und sichtbarer Differenzierung befinden. Nicht allein wurden die ältesten amerikanischen Hochschulen, zu denen einige der immer noch prominentesten Universitäten gehören (etwa Harvard und Yale), lange vor der Konstituierung der Nation im Jahr 1776 gegründet, also lange bevor auch nur die Möglichkeit einer nationalen Vereinheitlichung bestand. Die Verfassung und ihre frühen Auslegungen untersagten dann der zentralen Regierung — zum Schutz der verschiedenen christlichen Gemeinschaften, von denen viele damals noch in einzelnen Bundesstaaten dominierten — jegliche kulturelle Initiative, ob es nun um Religion, Erziehung oder Unterhaltung ging. “Universitätssysteme” konnten deshalb nur in Bundesstaaten entstehen, in New York, Michigan und Kalifornien zum Beispiel, aber selbst dort tendieren sie intern eher zu Differenzierung als zu Homogenität, was wohl zurueckgeht auf ihre Konkurrenz mit einer in die Tausende gehenden Zahl von privaten Universitäten — und in der vergangenen Jahrzehnten auch immer mehr mit einer auf bundes-staatliche Unterfinanzerung, welche die Einwerbung privater Spenden (und mithin Differenzierung und Divergenz) notwendig gemacht hat. Nicht wenige private Universitäten in Amerika nehmen übrigens in Anspruch, was in Deutschland ganz undenkbar und wohl auch illegal wäre, weil es dem Prinzip der “akademischen Freiheit” nicht entspricht: sie vermitteln offen und programmatisch Wissen im Einklang mit ihren jeweiligen ideolgischen und religiösen Wertsystemen.

Was nun (zweitens) die Studiengebühren angeht, so haben mittlerweile die besseren amerikanischen Universitäten – ich nehme vorweg: wohl die meisten von denen, welche für europäische Studenten überhaupt attraktiv sein können – auf der College-Ebene ein System eingeführt, das über Bewerbungen nach ausschließlich intellektuellen Kriterien entscheidet und das heisst: unter Ausklammerung aller finanziellen Gesichtspunkte (man nennt das “needblind”). Die Familien jener Bewerber, die von einer solchen Universität zugelassen werden, müssen ihre Finanzverhältnisse offenlegen, nach denen dann die “tuition” individuell berechnet wird. In Stanford etwa, wo die Gebühren um $ 50,000 pro Jahr liegen, entfallen diese ganz bei einem Jahreseinkommen von unter $ 100,000 und sind erst ab ungefähr $ 300,000 voll zu entrichten. Prinzipiell anders – und natürlich immer lokal differenziert — sind die Bedingungen bei den weiterführenden “Professional Schools” (oder “Graduate Schools”). In den Geisteswissenschaften einerseits geht die Tendenz dahin, nur kleine Zahlen von Doktoranden aufzunehmen – alle mit Vollstipendium und einer monatlichen Finanzhilfe von etwa $ 2,000. In der Medizin dagegen, in der Rechtswissenschaft oder in den Ingenieurswissenschaften werden meist die vollen Studiengebühren erhoben, für deren Zahlung zugelassene Studenten aber – im Blick auf die innerhalb weniger Jahre zu erwartenden Einkommen – meist problemlos einen Bankkredit bekommen.

Doch was genau hat es inhaltlich auf sich mit dem Unterschied zwischen “College” und “Professional School”? Es handelt sich dabei um eine institutionelle Struktur, die als allgemeine akademische Grundform ausschließlich in den Vereinigten Staaten existiert (mit einer gewissen Affinität zu der inner-englischen Sonder-Situation von Cambridge und Oxford) — und deshalb von außen nicht ohne weiteres zu verstehen ist. Das vierjährige College-Programm soll prinzipiell alle Wissensbereiche einschließen, sich in der zweiten Hälfte durch Konzentration auf einen selbstgewählten Schwerpunkt (“Major”) intensivieren — und zu einem Niveau führen, das in etwa dem deutsche Begriff einer “gehobenen Allgemeinbildung” entspricht. Viele College-Absolventen, eine Mehrzahl wohl, vollziehen dann die eigentliche Berufsausbildung in der Anstellung bei einer Firma oder Institution (für die es natürlich keine Garantie gibt). Eine Reihe von Berufen (Arzt, Rechtsanwalt, Ingenieur, Hochschullehrer etc.) setzt allerdings ein weiterführendes Studium an Professionals School voraus, für das man sich erneut bewerben muss – und zwar in der Regel nicht an jener Universität, wo man das College absolviert hat.

Die amerikanische Disparität in der Bedeutung der Namen von akademischen Institutionen und in ihrer Grundstruktur ist anscheinend unbegrenzt. Grundsätzlich bleibt das Wort “University” mit einer Institution verbunden, deren Studentenzahlen sich im Verhältnis von etwa 75 % und 25 % zwischen College und Professional School aufteilen. Doch auch unter dem Namen “College” kann sich eine Hochschule mit Professional School verbergen (Yale) und unter dem Namen “University” eine Hochschule ohne Professional School (Dartmouth); es gibt prominente Universitäten mit einer Mehrheit von Graduate Students (University of Chicago) und andere, wo deren Anteil weit unter einem Viertel liegt (Princeton University hat erst in den letzten Jahrzehnten Graduate Programs entwickelt). Die Frage, wie es zu dieser grundegenden Doppel-Struktur – vor allem zum nationalen Sonder-Phänomen des College — gekommen ist, gehört zu jenen Rätseln, “die sich nur historisch lösen lassen” — ohne dass die historischen Antworten je markant ausfallen können.

Die ersten Universitäten auf heute amerikanischem Boden wurden – meist unter dem Namen “College” übrigens – im siebzehnten und frühen achtzehnten Jahrhundert mit dem Hauptziel der Berufsausbildung von Geistlichen begründet. Erst im neunzehnten Jahrhundert gewann dann an einigen Hochschulen der Gedanke Konturen, zwischen den Abgang von der High School und die akademische Berufsausbildung eine Phase einzuschieben, welche dem Lernen des Lernens — an exemplarischen Gegenständen — gewidmet sein sollte. Eben in dieser Idee lag der Ursprung des College als Institution und nationaler Sonderform, die gegen 1900 in den verschiedensten Versionen und Begründungen an Beliebtheit gewann und während des frühen zwanzigsten Jahrhunderts endlich in lokal spezifischen Lehrplänen festgeschrieben wurde. Deren Haupt-Konvergenz darin lag, sich nicht als Plan einer Berufsausbilldung zu verstehen, sondern als deren Voraussetzung.

Warum diese Form, diese Konkretisierung eines Bildungsideals ohne zentralen Bildungsbegriff, aber ausgerechnet in den sonst auf ihren Pragmatismus so besonders stolzen Vereinigten Staaten derart erfolgreich war, wird wohl für immer ein Gegenstand historischer und soziologischer Spekulation bleiben. Die in Europa gängige, etwas herablassende These, dass in der College-Ausbildung ein Ausgleich für das niedrige Niveau der Highschools liege, greift kaum, weil letztlich auch im sekundären Bildungssektor – genau wie bei den amerikanischen Universitäten – die Qualitätsamplituden unbegrenzt sind. Plausibler ist daher die Ansicht, dass die Entstehung des College im neunzehnten Jahrhundert vorbewusst und ohne explizites Programm eben auf den nationalen Trend extremer Divergenz – nicht nur in der Bildung – reagierte, was diese Institution zum zentralen Ort der Homogenisierung einer grundsätzlich heterogenen Gesellschaft von Einwanderern machte. Dazu mag sich die puritanisch-pädagogische Überzeugung gesellt haben, dass es tunlich sei, den Versuchungen des Fleisches in den post-pubertären Jahren des Lebens durch Konzentration auf geistige Gehalte vorzubauen.

Doch das internationale Interesse an den amerikanischen Universitäten geht ja gar nicht auf ihre – von außen nur selten verstandene — Grundstruktur zurück, sondern auf die Aura und die Leistungen einer kleinen Zahl unter ihnen. In den meisten weltweiten Rankings von Hochschulen – beileibe nicht nur in denen, die aus den Vereinigten Staaten stammen – ist die gute Hälfte der am höchsten eingeschätzten Unversitäten amerikanisch. Auch diese Tatsache gibt historischen und soziologischen Analysen eine schhwierige Erklärungs-Aufgabe vor. Immerhin lassen sich einige gemeinsame Merkmale für jene – nicht nur amerikanischen — Hochschulen identifizieren, die während der vergangenen Jahrzehnte in den Rankings am deutlichsten gestiegen sind. Diese Merkmale konvergieren mit der amerikanischen Grundsituation einer markanten institutionellen Divergenz. In ihrem Ansehen gestiegen sind erstens Universitäten, die – ob staatlich oder privat – eine besondere Freiheit zur Ausbildung eines individuellen Profils hatten; die es sich zweitens leisten konnten, bei der Auswahl ihrer Studenten und ihres Lehrpersonals ausschließlich (oder zumindest vor allem) intellektuelle Qualitätskriterien anzuwenden; die drittens in Städten mit einer Einwohnerzahl von deutlich unter einer halben Million liegen und eine Konzentration ihrer Aktivitäten in der Präsenz des Campus kultivieren; und die viertens eine Dominanz von praxisorientierten und naturwissenschaftlichen Fächern mit kleinen geisteswissenschaftlichen Abteilungen hoher Qualität verbinden.

Diese Beschreibung trifft aber auch genau – das hört man in Deutshchland nicht gerne – auf einige Schweizer Universitäten zu, etwa auf die Eidgenössische Technische Hochschule in Zürich oder auf die Wirtschaftshochschule in Sankt Gallen. Damit wird die europäische Frage, ob man in Amerika studieren soll, nur noch komplexer. In den Möglichkeiten ihrer Beantwortung stellt sich dann ein wesentlicher Unterschied zwischen College und Professional School heraus. Ein Medizinstudium in den Vereinigten Staaten etwa lohnt sich aus der Perspektive beruflicher Ausbildung nur dann, wenn entweder das Lehrangebot überragend ist oder individuellen Interessen in besonderer Weise entspricht — zumal man auf der anderen Seite mit dem Risiko eines Widerstands gegen amerikanische Ausbildung auf dem europäischen Arbeiytsmarkt rechnen muss und (ausser in den Geisteswissenschaften) mit unvergleichlich höheren Studiengebühren als zum Beispiel in Deutschland.

Ein College-Studium an den besten amerikanischen Universitäten hingegen wird für Bewerber, die zugelassen wurden, nur dann an finanziellen Gründen scheitern, wenn ihre relativ wohlhabenden Familen nicht so substantiell in Bildung investieren wollen, wie das für die meisten vergleichbaren amerikanischen Familien selbstverständlich ist. Allerdings liegt die einzig denkbare Motivation zum College-Studium in der Sehnsucht nach Bildung als existentiellem Wert und als Grundlage einer Lebensform. Denn ganz wörtlich genommen kann sich ein Absolvent von Harvard, Princeton, Stanford oder Yale ja für seine – fast unvermeidlich ausgezeichnete – College-Bildung “nichts kaufen.” Die eine Antwort auf unsere Ausgangsfrage, welche sich daraus ergibt, ist eingermaßen überraschend: wem es um eine kompakte berufliche Ausbildung mit daraus unmittelbar folgenden finanziellen Vorteilen geht, der sollte nicht ein College-Studium in Amerika anstreben.

01. Aug. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

23
13040

     

18. Jul. 2015
von Hans Ulrich Gumbrecht

19
9843
     

Der amerikanische Gott (und ob Europa ihn braucht)

“The Book of Mormon” heißt das erfolgreichste amerikanische Musical dieses nicht mehr ganz neuen Jahrhunderts, und die mit der aggressiv-ironischen Cartoon-Serie “South Park” berühmt gewordenen Libretto-Autoren Trey Parker und Matt Stone nehmen diesmal treffsicher die Heiligtümer amerikanischer Religiosität ins Visier.

Ihre Protagonisten sind zwei junge “Elders” aus der “Kirche von den Heiligen der letzten Tage,” die nach einer raschen Standard-Ausbildung in Utah auf Mission geschickt werden, nicht, wie sie hoffen, nach Florida, sondern nach Uganda. Das “Uganda” des Musicals ist ein von Aids verseuchter und einem verrückten Tyrannen zugrunde gerichteter Alptraum, dessen Bewohner – verständlicherweise — für Religion so wenig Interesse und Geduld haben, dass die Missionare auf verlorenem Posten stehen. Noch nie hat ein “Ugander” den Mormonen-Glauben angenommen. Zu allem Überfluss wirkt einer der beiden “Elders” denkbar verhaltensgestört. Das “Buch Mormon” hat dieser Missionar, wie schnell deutlich wird, noch nie gelesen, weshalb er, von einer explosiven Mischung aus Furcht, Narzissmus und sexuellen Phantasien getrieben, bei seinen Predigten alle möglichen Moralverschreibungen und Zukunftsvisionen erfindet (zum Beispiel ein ausschweifendes Schlaraffen-Leben in Salt Lake City), die seinen Hörern gefallen könnten. Und der Erfolg gibt ihm recht: bald schon konvertieren die ersten “Ugander” zu seiner Kirche, was die Mormonen-Autoritäten auf den Plan ruft, well sie die Methoden des neuen Missionars studieren und ihn feiern wollen.

Wie so eine Geschichte — wenigstens in der Tonlage des Musicals — enden muss, lässt sich dann leicht voraussehen. Die Vorgesetzten entdecken schnell, wie wenig der Glaube der eben getauften Mormonen mit der Orthodoxie ihrer Kirche zu tun hat. Ganz überraschend jedoch gestehen die konvertierten “Ugander,” dass sie die Inhalte des vermeintlichen Irrglaubens ohnehin immer schon auf ihre eigene Weise “als Metaphern” verstanden haben. So feiern die abschließenden Songs und Chöre die eine große Einsicht: gut kann nur eine Religion sein, die ihren Gläubigen Freude bereitet (oder, proto-soziologisch formuliert, “die den Bedürfnissen ihrer Kunden entspricht”).

Viel erstaunlicher freilich als die Handlung des Musicals fiel die offizielle Reaktion der “Church of the Latter Day Saints” aus. Sie hat dem Stück, anfangs noch etwas verhalten, mittlerweile aber geradezu enthusiastisch, ihren mormonischen Segen geschenkt. Im Programmheft findet man mehrere ganzseitige Anzeigen, auf denen gutaussehende junge Frauen und Männer mit verschiedenen Hautfarben den Zuschauern empfehlen, nach der Freude am Musical nun das Buch ihrer Religion mit ernsterer Freude zu lesen. Ein Bild inszeniert diese Botschaft sogar mit einem sympathischen Schuss von gekonnter Selbst-Ironie: “The Book is Always Better.” Aus mehreren Gründen kommt dieser Werbung ein bemerkenswerter Symptomwert zu. Die Mormonen sind eine der größten, wirtschaftlich einflussreichsten und am schnellsten wachsenden religiösen Gemeinschaften in den Vereinigten Staaten. Daneben haben kompetente Religionswissenschaftler sie immer wieder als besonders typisch für einen übergreifenden kulturellen Stil der amerikanischen Religiosität identifiziert.

Ebenso signifikant, aber weniger Mormonen-spezifisch ist die statistisch belegbare Tatsache, dass sich jene freundlichen Anzeigen an ein – im internationalen Vergleich – außergewöhnlich geneigtes Publikum wenden. Zwar ist der Glaube an Gott sogar in den Vereinigten Staaten während der vergangenen Jahrzehnte zurückgegangen, doch immerhin steht für immer noch über achtzig Prozent der Amerikaner die Existenz Gottes ganz außer Frage — im Vergleich zu knapp vierzig Prozent der Deutschen (vierundfünfzig Prozent im früheren Westdeutschland und nur dreizehn Prozent im ehemaligen Ostdeutschland). Eine Besonderheit dieses weiter zur dominanten sozialen Wirklichkeit gehörenden amerikanischen Gottes, liegt nun darin, dass fast all seine Gläubigen (achtundsechzig Prozent gegenüber etwas über zwanzig Prozent in Deutschland) ihn aus persönlichen Begegnungen zu kennen glauben. Was hat es dann zu bedeuten, wenn eine so emblematische Gruppe wie die Mormonen innerhalb dieser massivsten religiösen Gesellschaft der Welt entschlossen positiv und voll freundlicher Toleranz auf die Parodie und Ironie eines Musicals reagiert? Wohl kaum, dass die Mormonen sich und ihre Religion nicht mehr ernst nehmen. Ebenso wenig, dass es sich um ein Zugeständnis aus beginnender Schwäche handelt.

Die im Alltag nicht zu übersehende, verlässlich dokumentierte und mittlerweile wohl tatsächlich einzigartige gesellschaftliche Zentralstellung der Religion in Amerika ist, allein darin stimmen die Fachleute überein, ein Phänomen voller Rätsel. Man kann sie historisch (in ihrer Entstehung) und soziologisch (in ihrer Struktur) beschreiben, ohne dass solche Beschreibungen zu einer Erklärung ihrer Besonderheit führten. Sicher, die britischen Kolonien in Nordamerika hatten sich schon sehr früh zu einer Zuflucht für religiöse Extremisten entwickelt, die dort “eine scheinende Stadt auf dem Berg” errichten wollten — und tief bis ins zwanzigste Jahrhundert blieb Verfolgung aus religiösen Gründen eine Haupt-Motivation für die Auswanderung nach Amerika. In Reaktion auf die Vielfalt von radikalen Gemeinden im Land verbot seit dem späten achtzehnten Jahrhundert der erste Zusatz (“Amendment”) zur amerikanischen Verfassung dem Staat jede Einrichtung von religiösen Institutionen (“Establishment Clause”) — zugleich aber auch ihre Unterbindung (“Free Exercise Clause”). Die “Free Exercise Clause,” meinen prominente Rechts- und Politikhistoriker heute, sei immer wieder – jedoch nicht in historischer Kontinuität – vom Staat genutzt worden, um bestehende religiöse Gemeinschaften als Grund-Gewebe staatsbürgerlicher Gesinnung zu fördern und zu schützen.

Insgesamt jedoch fällt vor allem – ganz anders als im Leben der amerikanischen Politiker – eine ostentative Distanz der staatlichen Organe zur religiösen Praxis auf. In seinen von einer Reise im Jahr 1904 angeregten Aufsätzen zum Sonderstatus der amerikanischen Religion geht Max Weber von der komplementären Beobachtung aus, dass dort Gemeinden (er nennt sie meist “Sekten”) – und nicht etwa die viel komplexeren “Kirchen” im Sinne von “Konfessionen” – die Grund-Ebene religiöser Praxis bilden. Zweitens werde die jeweilige Gemeinde, wo man “innerweltliche Askese” lerne, das heißt eine besondere “Elastizität” bei der Selbst-Einordnung in soziale Gruppen, zu einem zentralen Element individueller Identität. Aufgrund dieser grundlegenden Funktion, stellt Weber drittens fest, erscheinen theologisch-inhaltliche Unterschiede (etwa zwischen Methodisten, Anglikanern, Katholiken, Lutheranern, Mormonen und sogar amerikanischen Juden) weitgehend neutralisiert.

So treten dann viertens mythologische oder gar sakramentale Strukturen zurück gegenüber der Betonung einer je individuellen Lektüre “Heiliger Schriften” – unter der einen Bedingung, dass solche individuellen Auslegungen im Kontext der Gemeinde nicht exzentrisch erscheinen dürfen (gerade so wird “Elastizität” eingeübt). Vor dem Hintergrund dieser Beschreibung, wird verständlich, was etwa der ehemalige Präsident George W. Bush im Sinn haben muss, wenn er Jesus immer wieder “my favorite philosopher” nennt: Religion existiert in individuell geprägten Sammlungen von autoritären Zitaten (aus den Heiligen Schriften und aus dem Mund Gottes), an denen man sein Leben ausrichtet. Ob ein Gläubiger wie Bush aber den übergreifenden Stellenwert des Kreuzesopfers in der christlichen Mythologie versteht oder Sakramente in ihrem gemeinschaftsbildenden Status, bleibt dahingestellt.

Als der eminente Literaturwissenschaftler Harold Bloom vor gut zwei Jahrzehnten in einem Buch die “American Religion” seiner Gegenwart analysierte, kam er (wahrscheinlich in Unkenntnis von Webers Aufsätzen) zu durchaus ähnlichen Ergebnissen — und zu einer Bewertung, die im scharfen Gegensatz zu Webers insgesamt positivem Eindruck steht. Wie schon Weber betont auch Bloom die Verwischung theologisch-inhaltlicher Unterschiede zwischen den verschiedenen Gemeinschaften der amerikanischen Religion und (unter dem Leitbegriff der “Gnosis”) ihre Tendenz zu höchst individuellen Interpretationen, die oft im Eindruck und der Gewissheit persönlicher Begegnungen mit Gott fundiert seien. Diese Beobachtung nun entspricht genau der Religion der Mormonen – und dem Libretto des Musicals “The Book of Mormon.” Joseph Smith wurde zur Gründerfigur seiner Kirche ja aufgrund des – gnostischen – Anspruchs, von Gott zum Propheten einer bis dato unbekannten Erscheinung und Gegenwart von Jesus Christus in Nordamerika erwählt zu sein. Die Freiheit des Fabulierens, welche sich der Mormonen-Missionar im Musical herausnimmt, treibt die gnostische Tendenz dann auf die Spitze — und bringt sie zu ihrer logischen Erfüllung.

Blooms bittere Kritik an der amerikanischen Religion ergibt sich aus einer einzigen, aber entscheidenden Abweichung von Webers Beschreibung, welche möglicherweise eine historische Entwicklung des vergangenen Jahrhunderts widerspiegelt. In seiner Sicht findet die nationale Tendenz zur individuellen Auslegung Heiliger Schriften heute in der Gemeinschaft (und in der Gemeinde) keine Grenze und Bewährung mehr. Vielmehr soll sich aus der Überzeugung, in persönlicher Beziehung mit Gott zu stehen, eine grenzenlose Legitimation für millionenfach grenzenlose Egozentrik ergeben. Ihre Theologie und missionarische Praxis mit solchen Begriffen zu beschreiben, das würde sich die “Kirche von den Heiligen der letzten Tage” wohl verbitten. Doch dass sich diese Kirche so eng an ein erfolgreiches Musical angeschmiegt hat, dessen Pointe genau in einer radikalen (bis grotesken) Entgrenzung subjektiver Exegese liegt (“solange sie den zu konvertierenden Kunde Freude bereitet”), lässt sich nicht übersehen – und gibt implizit Blooms Beschreibung der “American Religion” recht.

Die – bisher aufgeschobene – Frage nach der besonderen Rolle des Staats in der amerikanischen Gesellschaft kann dann allerdings zu dem Schluss führen, dass man dem Pessimismus von Blooms Buch wie er sich aus dem Befund eines Schwunds sozialer Bezugshorizonte in der amerikanischen Religion ergibt, nicht unbedingt und vorbehaltlos zustimmen muss. Verglichen mit den europäischen Nationen verhält sich der amerikanische Staat bis heute zurückhaltend, was Interventionen in die Privatsphäre der Bürger angeht (so erklären sich etwa die Schwierigkeiten bei der Einführung einer flächendeckenden staatlichen Krankenversicherung).

Keinesfalls zurückhaltend hingegen erscheint derselbe Staat einerseits in seiner Außen- und Militärpolitik (die internationalen Klagen darüber sind seit der Mitte des vergangenen Jahrhunderts nie verstummt) und – für die Gesellschaft, deren Exekutivorgan er ist — in der Öffentlichkeit. Belege dafür sind die Allgegenwart der Nationalflagge auf dem amerikanischen Territorium ebenso wie die für viele Europäer absurd wirkende Häufigkeit der Anlässe, zu denen die Nationalhymne gespielt wird. Undenkbar, dass ein Spiel im American Football — selbst auf der College- oder der High School-Ebene — ohne Nationalhymne beginnt. Nach dem Abpfiff versammeln sich dann Mitglieder beider Mannschaften – allerdings nie alle von ihnen — auf der Mitte des Spielfelds, um Gott zu danken: für den Sieg, für die Freundschaft, für die Cheerleaders, oder auch weil sie von Verletzungen verschont geblieben sind. Im Gegensatz zum Einleitungs-Moment der Nationalhymne jedoch ist das Gebet ein Moment der persönlichen Begegnung mit Gott, den die (meist staatlichen) Institutionen ermöglichen, ohne ihn verpflichtend zu machen.

In Europa ist seit einigen Jahren zunehmend von einer “Ent-Säkularisierung der Gesellschaft” die Rede und von einer anscheinend komplementären “Re-Politisierung der Religion.” Eher hinter vorgehaltener Hand kommt deshalb auch die Frage auf, ob diese Tendenzen etwas von der “amerikanischen Religion” lernen können. Wer sie im Sinn von Weber und Bloom versteht, was natürlich keinesfalls mit einer Teilnahme an ihren Lebensformen gleichzusetzen ist, wird wohl eher zu einer negative Antwort tendieren. Denn wie zum Beispiel die eingangs zitierten Statistiken zeigen, ist das Interesse von Europäern an jener persönlichen Begegnung mit Gott, die den Amerikanern so wichtig ist (und an den daraus erwachsenden Verpflichtungen für ihr Privatleben), erstaunlich gering – und anscheinend weiter im Schwinden begriffen. Was die “sozial” genannte private Sicherheit angeht, vertraut man eher dem Staat, während “Werte” oder “Lebensstile” als Horizonte individuell-säkulärer Selbstbedienung fungieren.

Wonach sich aber zahlreiche, vielleicht nicht alle europäischen Nationen – mit zwei Weltkriegen und einer Kaskade von Säkularisierungsschüben in ihrer Vergangenheit – sehnen, sind öffentliche Rituale der Gemeinschaft. Die vom Design her ja durchaus elegante, allenthalben sichtbare, doch in ihrer kollektiven Wirkung eigentlich inexistente Europa-Flagge ist ein Symptom für diese Situation. Im Trend liegen dagegen – trotz aller auf faschistische Traditionen verweisenden Mahnungen der Intellektuellen – Ereignisse, welche, ohne “staatlich” auszusehen, Tausende von Menschen in der Konzentration auf einen zentralen Gegenstand des Erlebens zu Gemeinschaften machen: Konzerte, Sportveranstaltungen, Public Viewing, Kirchentage, Papstmessen. Nichts könnte der “American Religion” fremder sein als solche Rituale. Europa hat also wirklich keine Verwendung für den amerikanischen Gott – vielleicht muss es bloß seinen eigenen Gott wieder(er)finden.

18. Jul. 2015
von Hans Ulrich Gumbrecht

19
9843