Home
Digital/Pausen

Digital/Pausen

Hans Ulrich Gumbrecht lehrt Literatur in Stanford und bedauert es, zu alt für eine Karriere-Chance als Trainer im American Football zu sein.

29. Aug. 2015
von Hans Ulrich Gumbrecht

13
1953
     

Aller Gebildeten Lieblings-Patient: das Buch und seine Zukunft

In den achtziger Jahren (oder war es schon eher?) konnte man zwischen den Bremslichtern oder auf der Rückscheibe eines von zwei deutschen Autos ein dralles rotes Herzchen sehen mit dem spezifizierenden Kommentar “Ein Herz für Kinder.” Schon damals lag in der Luft, dass die Besitzer solcher Wagen Vorläufer eines kommenden sozialen Typs waren (wir nennen ihn heute “Gutmenschen”) – und nach einem die Geste begleitenden Gerücht sollen kinderlose Paare die Mehrheit jener Gruppe gewesen sein (denn Kinderlosigkeit ließ es nur natürlich erscheinen, ein “Herz für Kinder” zu haben — solange ein Leben mit Kindern die normative Lebensform war).

In Kalifornien entdecke ich jetzt eine neue Sticker-Gattung, die mich an das inzwischen wohl verschrumpelte Symbol-Herz für Kinder erinnert. Es sind Aufkleber mit Liebeserklärungen an lokale, tendenziell kleine Buchläden, manchmal angeschärft durch Verwünschungen (in vier Buchstaben) von “Amazon.” Die offensichtliche Parallele zur Kinderlosigkeit der Gutmenschen von 1980 liegt darin, dass – wie ich in einigen individuellen Fällen mit Sicherheit weiß – die Buchläden-Lovers unbeirrt Kunden bei “Amazon” bleiben und so mit jeder Bestellung einen Nagel in den Sarg ihrer Lieblinge treiben. Für die Gebildeten unserer Gegenwart ist das Buch nämlich zu jenem Gegenstand geworden, der den Flor einer Träne über jedes Auge legt – und den sie zu Geburts- und anderen Festtagen verschenken, um sich selbst und den Beschenkten guten Geschmack zu bestätigen (was immerhin einige Verlage bis auf Weiteres am Leben halten wird). Zum Lesen von Buch-Geschenken fühlt sich aber niemand mehr verpflichtet.

So ist das Buch, vor allem das “literarische” Buch (was immer man damit genau meint), längst zu unserem Lieblings-Patienten avanciert, besonders deutlich und intensiv, sobald die einschlägig geistreiche Lieblings-Konversation über “die Zukunft des Buchs im elektronischen Zeitalter” ausbricht. Dann hagelt es ebenso starke (wie eigentlich kaum je begründe) Meinungen, die entweder mit gallig-kulturkritischem Pessimismus die Gegenwart verdammen oder in sattem Optimismus ihrem Glauben an den Endsieg des Guten frönen. Ob freudig oder dunkel gestimmt, diese Meinungen nehmen oder geben sich nicht viel, weil es ja allemal nur darum geht, die eigene Zugehörigkeit zur Widerstands-Kaste der “Bildungsbürger in dürftiger Zeit” zu genießen.

Nimmt man die Frage nach der Zukunft des Buchs einen Grad ernster, dann wird bald deutlich, dass “Buchgeschichte” und “Mediengeschichte” (als vergleichsweise neue akademische “Sonderwege” — vor allem in Frankreich und in Deutschland) zu jenen Wissensfeldern gehören, denen kein Detail zu gering und keine These zu steil ist, ohne dass auf der anderen Seite ihre Prognosen außerhalb der Wissenschaft je ernst genommen werden. Außer Zweifel steht allein, dass etwas in Bewegung gekommen ist im Hinblick auf den kulturellen Status des literarischen Buchs. Ich erinnere mich noch lebhaft, wie schockiert ich vor nur zehn Jahren war, in der “Titanic”-Kolumne des damals allseits beliebten Max Gold zu lesen, dass er einige seiner Bücher per Müllabfuhr hatte loswerden wollen – um sie von derselben Müllabfuhr säuberlich ausgesondert zurückerstattet zu bekommen. Im vergangenen Frühjahr kam dann auch mir der Gedanke, dass unser Wohnzimmer mit einem Buch-Regal weniger besser aussehen müsste – und nachdem mehrere Wochen lang nicht ein einziger meiner Studenten Interesse an den vor meinem Büro angebotenen Büchern zeigte, habe ich sie in Mülleimern versenkt. Ohne die von Max Gold erfahrenen Rückerstattungsprobleme — und, das macht mir bis heute am meisten zu schaffen, ganz ohne schlechtes Gewissen.

Aber woher kam jenes einst so geradezu weihnachtlich strahlende Prestige des literarischen Buchs, das nun vor unseren Augen und in unserem Verhalten zu verlöschen beginnt? Ich wage ein paar erste Thesen – in der Hoffnung, dass sie etwas konkreter als bloß “geistreich” sind. Zum Beispiel halte ich es für plausibel, die Geschichte des literarischen Buchs mit dem mittelalterlichen Codex beginnen zu lassen, noch vor der Herausbildung eines Begriffs von “Literatur,” der in einer Kontinuität mit unserem Literatur-Begriff steht. Dafür gibt es einen medial-mechanischen Grund: erst mit dem Codex wurden die “umzublätternden Seiten” als quantitative Einheiten des bewahrten Wissens Teil der Buchgeschichte. Vor allem aber galt dem Codex – aus einer Reihe von konvergierenden Gründen – die denkbare höchste Wertschätzung. Eine dieser Gründe waren die enormen Produktionskosten von Büchern, die auf Pergament, also auf spezifisch zubereitete Kalbs-Haut als Schreibgrundlage angewiesen waren; hinzu kam die Schreib- und auch Lesekompetenz der Kleriker als einer schmalen sozialen Gruppe. Unter solchen Voraussetzungen ergab es sich, dass allein Texte des höchsten Bedeutungsgrads (und das hieß beinahe ausschließlich: Texte in der lateinischen Sprache) bewahrt, niedergeschrieben und überliefert wurden. Aber vor allem fiel die Aura der göttlichen Offenbarung als Ursprung allen Wissens auf den Codex, ein Ursprung und Grund des Wissens, der von Menschen nicht zu ersetzen und so beständig von Vergessen und materieller Erosion bedroht war.

Erst in den spätmittelalterlichen und frühneuzeitlichen Jahrhunderten, aber schon lange vor der Erfindung des Buchdrucks um 1450, eroberten Texte der aristokratischen Unterhaltung, besonders volkssprachliche Minnelieder, das Medium des Codex. Und bald schon zeichnete sich dann die Tendenz ab, in einem Codex Texte nur eines Autors zu sammeln. Petracas “Canzoniere” ist ein frühes Beispiel dieser Entwicklung, und seine Erhebung zum Lorbeer-gekrönten Dichter in Rom deutet an, wie die neue Rolle des literarischen Autors in einer hierarchischen Verbindung zu Gott als dem vormals einzigen “Autor” (das hieß “Urheber”) stand. Erst seit jener Zeit wurde auch ein Begriff von “Fiktion” mit den literarischen Texten verbunden, genauer die Trennung zwischen dem Anspruch auf Wahrheit und dem Bezug der Texte auf greifbare Wirklichkeiten. Hinzu kam bald, was Niklas Luhmann einmal “Kompaktkommunikation” genannt hat. Die frühen “literarischen” Texte begannen jede Art von Situationen zu beschreiben, in denen sie gelesen oder rezitiert werden sollten, und wurden so – aus der Perspektive individueller Leser – weitgehend unabhängig von der Realität solcher Situationen.

Bis hin ins frühe neunzehnte Jahrhundert gewann die nun schon ekstatische Stellung der inzwischen gedruckten literarischen Bücher immer weiter an Intensität. In dem Maß, wie Autoren und Leser sich als “cartesianische Subjekte” verstanden und so im Blick auf sich selbst von allen physischen und sozialen Unterschieden absehen wollten, entstand eine neue Intimität zwischen ihnen als wechselseitig “lieben Freunden.” In der Aufklärung wurde solche Vertrautheit gerahmt von “ästhetischer Autonomie,” die eine Distanz zum Alltag durchsetzte und erhielt. Zugleich steigerten sich die mit dem Begriff “Literatur” verbundenen Ansprüche und Erwartungen. Nur dank der Formen von Literatur und einer dem Status der Fiktion abzugewinnenden Unabhängigkeit von der Wirklichkeit glaubten Autoren das Unsagbare in der “Tiefe” ihres Gemüts zum Ausdruck bringen zu können, und gerieten zudem – im Einfluss des heraufkommenden “historischen Weltbilds” – unter den Druck einer beständigen Innovations- und Originalitäts-Verpflichtung.

Im neunzehnten Jahrhundert schließlich verwandelte sich die gewachsene Intimität und Ekstatik der literarischen Kommunikation in eine exzentrische Position gegenüber der Gesellschaft, die bald schon Züge von Aggressivität und Verweigerung annahm. Diese Haltung vor allem erklärt das Enstehen von Büchern, die sich in ihren Inhalten und in ihrer Sprache bewusst aus der sozialen Zirkulation von Wissen zurückziehen wollten und umso mehr die Besonderheit ihrer “Materialität” in Layout, Illustration oder Einband betonten. Das zeitgleich entstehende Format des “Taschenbuchs” musste die komplexe Sonderstellung des hoch-literarischen Buchs nur unterstreichen.

Selbst in dieser extremen Kompression veranschaulicht unsere Geschichte, warum der Besitz von Büchern vom neunzehnten Jahrhundert an als synonym mit Bildung galt, warum es ganz undenkbar geworden war, sich je von ihnen zu trennen – und warum sie mittlerweile im Schlagschatten der elektronischen Kommunikation zu unseren Lieblings-Patienten werden mussten. Natürlich gibt es keinen aktiven Impuls der Zerstörung oder auch nur der herablassenden Arroganz gegenüber dem literarischen Buch seitens der in die elektronische Situation hineingeborenen Generationen, doch sie lesen in einer Weise, welche die über Jahrhunderte entstanden Komplexität der literarischen Kommunikation zum Kollaps bringen wird. Vor allem lesen sie permanent — auf größere oder kleinere Bildschirme konzentriert – und erwerben so eine erstaunliche Kompetenz, in kürzester Zeit enorme Menge von “Information” zu verarbeiten. In dieser Hinsicht können wir vor-elektronischen Leser schon lange nicht mehr mithalten. Entsprechend schwer fällt es aber auch denen, die Lesen und Schreiben mit einem Keyboard gelernt haben, die Formqualitäten von Texten zum Gegenstand ihrer Aufmerksamkeit zu machen und gerade über sie zur vermuteten “Tiefe” eines Autors als “Freund” zu gelangen.

Vielleicht hat die Tatsache, dass Bildschirmlesen als Lebensform immer wieder für Minuten und Sekunden durch das Schreiben von “Botschaften” abgelöst wird, dazu geführt, dass der Unterschied zwischen Autoren und Lesern heute abgeflacht wirkt. Unter meinen Nachbarn scheint in jedem Haus an einem literarischen Buch gearbeitet zu werden, und manchmal frage ich mich ironisch und auch besorgt, ob jede dieser Autorinnen wenigstens einen einzigen Leser finden wird. Seit das Web vom “laufenden Kommentar über die Welt” zu einem Äquivalent der Welt avanciert ist, hat – angesichts dieser stets “konstruierten” Welt – auch die Fiktion ihre Distinktionskraft als eine Sonderbedingung der Kommunikation verloren, und Buchläden oder gar Bibliotheken kommen unseren intellektuellen Nachfolgern als Ort des Wissens oder gar der Konzentration kaum mehr in den Sinn. Hat die elektronische Kommunikation “das Ende des literarischen Buches” eingeläutet?

Vieles spricht ja für diese Ansicht, zumal sie – vor allem für die älteren Generationen – ein angenehmes Empörungspotential bereit hält. Doch ich glaube, dass einer stärker differenzierten These höherer prognostischer Wert zukommt. Gewiss, intellektuelle Leistungsfähigkeit und sogar Bildung wird für eine demographische Mehrheit der Zukunft ganz ohne Bücher denkbar sein – und diese Mehrheit wird das litearische Buch, das nie ihre Liebe oder ihr Patient war, auch kaum vermissen. Als ebenso minoritärer wie durchaus sichtbarer Gegenentwurf entwickelt sich aber ein Verhaltenstyp, dem gerade das emphatisch dysfunktionale Buch als stolzes Zeichen von Exzentrizität und kulturellem Anspruch gilt. Von diesem Verhaltenstyp werden teure Antiquariate leben (und die gängigen Buchläden über-leben), weil man dort Bücher nicht wegen ihres Inhalts sondern wegen ihres Werts als Sammelstücken kauft. Und wer zu den Kunden solcher Antiquariate gehört, der möchte die öffentliche Bibliothek als Raum der Konzentration gegen ein Spezial-Archiv austauschen, das allein er (zusammen mit einer Gruppe von Spezialisten) zu nutzen versteht.

Zwischen dem – möglicherweise spurlosen – Verschwinden des literarischen Buchs für die (anders) gebildete Mehrheit der Zukunft und seiner (vielleicht manchmal etwas verkrampften) endzeitlichen Verklärung als Sammelstück könnte sich eine neue, vielleicht angenehm ernüchterte Form der literarischen Lektüre herausbilden. Es fällt mir auf, dass nicht wenige meiner Freunde, vor allem meiner nicht-iteraturwissenschaftlichen Freunde, die sich ihre Existenz ohne Literatur kaum vorstellen können, eine Vorliebe für Audio-Bücher entwickelt haben. Als Medium verpflichten Audio-Bücher ihre Hörer auf einen Grad an Aufmerksamkeit, der selbst das vom mittelalterlichen Codex kommende literarische Buch an Intensität und Dauer überbietet — und zugleich liefern sie mit der Stimme des Vorlesers einen zusätzlichen sinnlichen Anhaltspunkt, der vielleicht die ebenfalls von der Stimme bewirkte Verengung des Auslegungsspielraums ausgleicht.

Einen “Weg zurück” zum neunzehnten Jahrhundert als der großen Epoche der – klassischen – literarischen Lektüre wird es nicht geben – und noch weniger eine Renaissance der Unterstellung, dass literarische Bildung der Kern jeder Art von Bildung zu sein habe. Vielleicht ist es ja wirklich wie mit dem “Herz für Kinder” in den achtziger Jahren. Die Zahl der Geburten ist seither – trotz des kleinen Aufschwungs im vergangenen Jahr – beständig gesunken. Doch es ist natürlich auch eine Option geblieben, Familien “mit Kinderwunsch” zu gründen — genau wie die literarische Lektüre längst nicht ganz verschwunden ist. Deswegen wohl gibt es jetzt Rückfenster-Aufkleber zur Feier der kleinen Buchläden – und des literarischen Lesens.

29. Aug. 2015
von Hans Ulrich Gumbrecht

13
1953

     

15. Aug. 2015
von Hans Ulrich Gumbrecht

17
4399
     

Kippe und Trinkflasche als Embleme der Gegenwart

“Fit wie ein Turnschuh” (ältere Herren halten dieses Bild noch für beinahe hip) sah die Undergraduate Studentin aus, als sie wie vereinbart diesen Freitag Punkt acht Uhr dreißig morgens zu meinem Büro kam, um herauszufinden, ob die Teilnahme an einem Doktoranden-Seminar im Herbst über “Tod und Literatur” für sie lohnend sein könnte. Ihr Haar war noch etwas feucht vom Duschen, sie trug rote Shorts, Nikes natürlich, eine gut geschnittene graue Trainingsjacke und dazu den akademischen Rucksack, wie er jetzt flächendeckend Akten- wie alle andere Taschen ersetzt hat — und selbst den auch sehr praktischen kleinen Rollkoffer auf Popularitäts-Distanz hält. Ob sie ein Sportlerinnen-Stipendium (ein “athletic scholarship”) hätte, fragte ich, und sie sagte nein, aber gut geraten, denn während der High School-Jahre sei sie 5000 Meter gelaufen (Bestzeit um die achtzehn Minuten).

In einer wohl dafür vorgesehenen Außentasche ihres Rucksacks steckte einer jener auch ziemlich sportlichen Behälter, die man in Deutschland jetzt “Trinkflaschen” nennt, so als gäbe es nennenswerte Flaschen, die nicht zum Trinken da sind (Riechflaschen haben ja seit dem neunzehnten Jahrhundert ihre Beliebtheit verloren). Um Missverständnisse zu vermeiden, will ich betonen, dass nicht jeder Trinkflüssigkeits-Behälter den Namen “Trinkflasche” verdient. Trinkflaschen, bestätigt vielfach das Web, müssen aus “umweltfreundlichem” oder “schadstoffarmem” Material sein (“Tritan” zum Beispiel, was immer das ist) und im Regelfall durchsichtig, damit man sie rechtzeitig nachfüllen kann, fast ausschließlich mit Wasser und nur ausnahmsweise einmal mit Fruchtschorle. Außerdem gehört zu ihnen eine Schlaufe, die nicht nur den (“auslaufsicheren”) Verschluss unverlierbar macht, sondern es der Besitzerin auch ermöglicht, wenn immer das Leben eine physische Herausforderung zu werden droht, die Trinkflasche durch Befestigung an der Gürtelschnalle zu einem Körperteil werden zu lassen. Dort sieht sie dann, aus ökologischer und ästhetischer Perspektive, wie ein Seitenstück der Birkenstocksandalen (eher als der Nikes) aus, auf deren flache Nüchternheit sich heute nicht wenige Existenzen gründen.

Obwohl der Hausarzt und der Kardiologe mir mindestens einmal pro Jahr und alternierend aus zweifellos guten Gründen eine Trinkflasche ans Herz und in meine über die Schulter getragene Tasche legen wollen, kann ich mich mit der Empfehlung nicht anfreunden, zumal ich in einem Land und auf einem Campus lebe, wo an jeder Ecke ein “Water Fountain” wie eine melancholische Geste der Erinnerung auf immer weniger Benutzer wartet (ob das Wasser solcher “Fountains” als minderwertig gilt, vergesse ich immer zu fragen). Meine Studentin vom Freitagmorgen hingegen verstand nicht einmal die Frage, seit wann die Trinkflasche in ihrem Rucksack steckt – derart existentiell unvordenklich ist sie ihr geworden. Im Vergleich zu ihr sehe ich mich als Romantiker einer Zeit lang vor der Trinkflaschen-Gegenwart, der seiner von schadstofffreien Körpern unmerklich angestoßenen Phantasie ihren Lauf lässt: einen tiefen Schluck aus der wie durch ein Wunder nicht eingefrorenen Trinkflasche zu nehmen, stelle ich mir vor, auf der letzten Strecke einer Erstbesteigung im Himalaja; den rettenden Schluck aus der ebenso erstaunlicherweise kühl gebliebenen Trinkflasche bei einem Schwächeanfall mitten in der Sahara; oder, als Öko-Ersatz des katholischen Sakraments von der letzten Ölung, den von einem Sanitäter verabreichten letzten Schluck aus der Trinkflasche, bevor ein Autounglück tödlich wird.

Warum beklagt sich aber niemand darüber, dass Trinkflaschen ziemlich unförmig aussehen, wie sie in den Rücksäcken stecken oder zu Beginn des Gesprächs neben das Handy auf den Tisch in meinem Büro plaziert werden? Warum wagt vor allem kein Beobachter zu sagen (wie der kleine Junge in Hans Christian Andersens Märchen von “Des Königs neuen Kleidern”), dass man eigentlich nie jemanden aus der Trinkflasche trinken sieht? Trinkflaschen, heißt die sozialhistorisch gestimmte Antwort, sind in einer Gegenwart, wo – im Gegensinn zu Hölderlin – existentielle (Be)Dürftigkeit gleichbedeutend mit sozialem Verantwortungsbewusstsein geworden ist, zu einem im matten Glanz der Schadstoffarmut erstrahlenden Kondensat und Emblem unseres höchsten Wertes geworden. Und dieser Wert heißt Selbst-Erhaltung. Wer auf Wasser setzt – statt auf Coca Cola, Bier oder Schnaps, der (oder die) tut das Mögliche, um sein (oder ihr) Todesalter über die Hundertjahres-Grenze hinaus zu schieben, schon vor dem ersten Studienjahr und lange bevor jenes Leben beginnt, in dem früher nur noch Gesetze – keine Eltern oder andere “relevanten Erwachsenen“ mehr – dem Genuss im Weg stehen können. Heute findet legitimer Genuss in der “Bionade” seine Grenze. Und wenn man schon zum Wasser-Wert entschlossen ist, dann wird es ganz unwichtig, wirklich Wasser zu trinken, solange nur die Wasser-Bereitschaft durch einen Wasser-Behälter angezeigt ist.

Wo diese Logik herrscht, versteht niemand mehr, dass gerade Rauchen ein scharfer Genuss sein kann – und was für ein Genuss, vor allem in der an Betäubung grenzenden Wachheit nach der ersten Frühmorgen-Zigarette und mit der euphorisierenden Andeutung von Schmerz, den der erste Zug aus der dieser Zigarette in der Lunge auslöst! Meistens setzen die Morgen-Jogger sofort zu einer demonstrativen Kurve an, wenn sie mich mit meiner Zigarette im Weg stehen sehen. Manche von ihnen verwickeln mich aber auch in ein aufklärend therapeutisches Gespräch: Rauchen schade meiner Gesundheit, teilen sie mir in erstaunter Besorgnis mit und lassen sich ihre Zuwendung einen Moment des Mitrauchens kosten. Unvermeidlich folgt darauf eines jener peinlichen Gespräche, wo beide auf verlorenen Posten stehen und kaum noch zu einem Ende finden.

Denn einen Weg zurück gibt es nicht: das als Geste der Selbstzerstörung erlebte Rauchen ist das Gegen-Emblem zum Wasser-Trinken, in Zigaretten konzentrieren sich längst – wie früher einmal in den Kernkraftwerken – alle sonst auseinander strebenden Befürchtungen und Aggressionen dieser Welt. Gescheitert sind allemal die nie wirklich entschlossenen Versuche, dem Rauchen in anspruchsvollen Spezial-Boutiquen eine Aura kosmopolitischer Eleganz zu geben. Und wo nun gerade die Intellektuellen zur Avantgarde der Lebens-Bewahrung geworden sind, wirken auch jene Photos aus der Hoch-Zeit des französischen Existentialismus (vor nicht mehr als sechzig Jahren) wie Relikte aus archäologisch ferner Vergangenheit, als ein Denker-Gesicht ohne Gauloise im linken Mundwinkel nicht überzeugend war. Wer heute von Zigaretten abhängig ist (eine weniger unfreundliche Beschreibung steht kaum zur Verfügung) und also alle Gefahren der Lebensverkürzung in Kauf nimmt, der wird auf manchen Flughäfen (zum Beispiel in Frankfurt) in gelb-schlierigen Plastikboxen gebündelt und den Kindern öffentlich zur Warnung vorgesetzt, wie – berichtete einst Michel Foucault – die Wahnsinnigen des siebzehnten Jahrhunderts hinter Eisengittern. Und wer dort einmal geraucht hat, der weiß, dass er im gesellschaftlich Abseits angekommen ist. Bei den Zeitgenossen mit der billigsten Kleidung, den dünnsten Zeitungen, den meisten Tattoos und den nervigsten Ticks.

So sind Zigaretten heute immer und nur noch Kippen, prinzipiell und schon lange bevor sie angezündet werden, hässlich gebrochene, flach zertretene, von Speichel befeuchtete und mit Asche vermischte Kippen. Nur: welche Gründe und Werte orientieren die aggressive Aussonderung der Raucher und ihrer Kippen aus der Welt des dritten Millenniums? Woran versündigen sie sich? Sozial schädlich sind ja gar nicht die selbst-zerstörenden Raucher, um die man immer einen Bogen machen kann. In einer Demographie, die keine Antwort auf die Frage hat, wie immer weniger aktiv Arbeitende die aus Lebenserhaltungs-Obsession immer breiter werdenden Altersmargen vor ihnen finanzieren sollen, müsste gerade Lebensverkürzung zu einem sozialen Wert avancieren. Als ein positiver Beitrag zum gesellschaftlichen Glück der Zukunft, als funktionales Äquivalent zu freiwillig gezahlten Extra-Steuern wäre deshalb die aktive Selbst-Begrenzung des Lebens zu feiern. Einkommensteuersenkung für Raucher sollte ein politisches Ziel sein – und zukünftige Generationen sind beizeiten darauf vorzubereiten, statt dem Alter das Rauchen zu ehren. Ein Thema für “Literatur und Tod” also, in der Creative Writing-Version?

15. Aug. 2015
von Hans Ulrich Gumbrecht

17
4399

     

01. Aug. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Soll man in Amerika studieren?

22
12325
     

Soll man in Amerika studieren?

Die Frage wird ja in Deutschland privat und auch öffentlich oft diskutiert, meist wohl als rhetorische (und das heißt als schon vorab beantwortete) Frage, die zu der Einsicht führen soll, dass sich ein Aufwand in so vielen Dimensionen, wie er für Europäer mit einem Studium in den Vereinigten Staaten verbunden ist, am Ende nicht lohnt. Dies mag aus vielen Gründen und in vielen Fällen durchaus plausibel sein. Erstaunlich ist aber, dass solche Gespräche fast immer und ohne jede Skepsis von einigen Prämissen ausgehen, die nicht zutreffend sind – einfach falsch tatsächlich, ohne Unschärfe oder Ambivalenzen. Zum Beispiel setzt man voraus und nimmt sehr ernst, dass die Studiengebühren an besseren amerikanischen Universitäten unerschwinglich seien (erst vor kurzem erzählte mir eine Mutter aus eher wohlhabender deutscher Familie, dass sich ihre Tochter genau aus diesem Grund erst gar nicht an der – amerikanischen – Universität ihre Träume beworben hatte). Zugleich wird die für Universitäten in den Vereinigten Staaten fundamentale Unterscheidung zwischen “College” und ”Professional School” kaum je erwähnt (selbst in einem von dieser Zeitung vor wenigen Wochen veröffentlichten Artikel eines in Deutschland geborenen Professors, der, obwohl er mittlerweile an einer prominenten amerikanischen Universität unterrichtet, seinen Lesern darlegen wollte, “wieviel amerikanische Unis immer noch von deutschen lernen können”). Vor allem aber benutzt man wie selbstverständlich den Ausdruck vom ”amerikanischen Universitätssystem” und geht also davon aus, dass es in den Vereinigten Staaten – so wie in Deutschland — eine institutionelle Homogenität der Universitäten gibt, die durch nationale Traditionen wie durch Gesetze definiert und bewahrt wird.

Keine dieser Prämissen entspricht der Wirklichkeit, so unbeirrt sie auch nun schon über viele Jahrzehnte alle Korrektur- und Differenzierungsvorschläge überlebt haben. Zunächst gibt es einfach kein nationales “amerikanisches Universitätssystem” — und diese Feststellung bezieht sich auf mehr und auf Einschneidenderes als den bloßen Eindruck, dass Universitäten sich heute überall in einer Phase schneller und sichtbarer Differenzierung befinden. Nicht allein wurden die ältesten amerikanischen Hochschulen, zu denen einige der immer noch prominentesten Universitäten gehören (etwa Harvard und Yale), lange vor der Konstituierung der Nation im Jahr 1776 gegründet, also lange bevor auch nur die Möglichkeit einer nationalen Vereinheitlichung bestand. Die Verfassung und ihre frühen Auslegungen untersagten dann der zentralen Regierung — zum Schutz der verschiedenen christlichen Gemeinschaften, von denen viele damals noch in einzelnen Bundesstaaten dominierten — jegliche kulturelle Initiative, ob es nun um Religion, Erziehung oder Unterhaltung ging. “Universitätssysteme” konnten deshalb nur in Bundesstaaten entstehen, in New York, Michigan und Kalifornien zum Beispiel, aber selbst dort tendieren sie intern eher zu Differenzierung als zu Homogenität, was wohl zurueckgeht auf ihre Konkurrenz mit einer in die Tausende gehenden Zahl von privaten Universitäten — und in der vergangenen Jahrzehnten auch immer mehr mit einer auf bundes-staatliche Unterfinanzerung, welche die Einwerbung privater Spenden (und mithin Differenzierung und Divergenz) notwendig gemacht hat. Nicht wenige private Universitäten in Amerika nehmen übrigens in Anspruch, was in Deutschland ganz undenkbar und wohl auch illegal wäre, weil es dem Prinzip der “akademischen Freiheit” nicht entspricht: sie vermitteln offen und programmatisch Wissen im Einklang mit ihren jeweiligen ideolgischen und religiösen Wertsystemen.

Was nun (zweitens) die Studiengebühren angeht, so haben mittlerweile die besseren amerikanischen Universitäten – ich nehme vorweg: wohl die meisten von denen, welche für europäische Studenten überhaupt attraktiv sein können – auf der College-Ebene ein System eingeführt, das über Bewerbungen nach ausschließlich intellektuellen Kriterien entscheidet und das heisst: unter Ausklammerung aller finanziellen Gesichtspunkte (man nennt das “needblind”). Die Familien jener Bewerber, die von einer solchen Universität zugelassen werden, müssen ihre Finanzverhältnisse offenlegen, nach denen dann die “tuition” individuell berechnet wird. In Stanford etwa, wo die Gebühren um $ 50,000 pro Jahr liegen, entfallen diese ganz bei einem Jahreseinkommen von unter $ 100,000 und sind erst ab ungefähr $ 300,000 voll zu entrichten. Prinzipiell anders – und natürlich immer lokal differenziert — sind die Bedingungen bei den weiterführenden “Professional Schools” (oder “Graduate Schools”). In den Geisteswissenschaften einerseits geht die Tendenz dahin, nur kleine Zahlen von Doktoranden aufzunehmen – alle mit Vollstipendium und einer monatlichen Finanzhilfe von etwa $ 2,000. In der Medizin dagegen, in der Rechtswissenschaft oder in den Ingenieurswissenschaften werden meist die vollen Studiengebühren erhoben, für deren Zahlung zugelassene Studenten aber – im Blick auf die innerhalb weniger Jahre zu erwartenden Einkommen – meist problemlos einen Bankkredit bekommen.

Doch was genau hat es inhaltlich auf sich mit dem Unterschied zwischen “College” und “Professional School”? Es handelt sich dabei um eine institutionelle Struktur, die als allgemeine akademische Grundform ausschließlich in den Vereinigten Staaten existiert (mit einer gewissen Affinität zu der inner-englischen Sonder-Situation von Cambridge und Oxford) — und deshalb von außen nicht ohne weiteres zu verstehen ist. Das vierjährige College-Programm soll prinzipiell alle Wissensbereiche einschließen, sich in der zweiten Hälfte durch Konzentration auf einen selbstgewählten Schwerpunkt (“Major”) intensivieren — und zu einem Niveau führen, das in etwa dem deutsche Begriff einer “gehobenen Allgemeinbildung” entspricht. Viele College-Absolventen, eine Mehrzahl wohl, vollziehen dann die eigentliche Berufsausbildung in der Anstellung bei einer Firma oder Institution (für die es natürlich keine Garantie gibt). Eine Reihe von Berufen (Arzt, Rechtsanwalt, Ingenieur, Hochschullehrer etc.) setzt allerdings ein weiterführendes Studium an Professionals School voraus, für das man sich erneut bewerben muss – und zwar in der Regel nicht an jener Universität, wo man das College absolviert hat.

Die amerikanische Disparität in der Bedeutung der Namen von akademischen Institutionen und in ihrer Grundstruktur ist anscheinend unbegrenzt. Grundsätzlich bleibt das Wort “University” mit einer Institution verbunden, deren Studentenzahlen sich im Verhältnis von etwa 75 % und 25 % zwischen College und Professional School aufteilen. Doch auch unter dem Namen “College” kann sich eine Hochschule mit Professional School verbergen (Yale) und unter dem Namen “University” eine Hochschule ohne Professional School (Dartmouth); es gibt prominente Universitäten mit einer Mehrheit von Graduate Students (University of Chicago) und andere, wo deren Anteil weit unter einem Viertel liegt (Princeton University hat erst in den letzten Jahrzehnten Graduate Programs entwickelt). Die Frage, wie es zu dieser grundegenden Doppel-Struktur – vor allem zum nationalen Sonder-Phänomen des College — gekommen ist, gehört zu jenen Rätseln, “die sich nur historisch lösen lassen” — ohne dass die historischen Antworten je markant ausfallen können.

Die ersten Universitäten auf heute amerikanischem Boden wurden – meist unter dem Namen “College” übrigens – im siebzehnten und frühen achtzehnten Jahrhundert mit dem Hauptziel der Berufsausbildung von Geistlichen begründet. Erst im neunzehnten Jahrhundert gewann dann an einigen Hochschulen der Gedanke Konturen, zwischen den Abgang von der High School und die akademische Berufsausbildung eine Phase einzuschieben, welche dem Lernen des Lernens — an exemplarischen Gegenständen — gewidmet sein sollte. Eben in dieser Idee lag der Ursprung des College als Institution und nationaler Sonderform, die gegen 1900 in den verschiedensten Versionen und Begründungen an Beliebtheit gewann und während des frühen zwanzigsten Jahrhunderts endlich in lokal spezifischen Lehrplänen festgeschrieben wurde. Deren Haupt-Konvergenz darin lag, sich nicht als Plan einer Berufsausbilldung zu verstehen, sondern als deren Voraussetzung.

Warum diese Form, diese Konkretisierung eines Bildungsideals ohne zentralen Bildungsbegriff, aber ausgerechnet in den sonst auf ihren Pragmatismus so besonders stolzen Vereinigten Staaten derart erfolgreich war, wird wohl für immer ein Gegenstand historischer und soziologischer Spekulation bleiben. Die in Europa gängige, etwas herablassende These, dass in der College-Ausbildung ein Ausgleich für das niedrige Niveau der Highschools liege, greift kaum, weil letztlich auch im sekundären Bildungssektor – genau wie bei den amerikanischen Universitäten – die Qualitätsamplituden unbegrenzt sind. Plausibler ist daher die Ansicht, dass die Entstehung des College im neunzehnten Jahrhundert vorbewusst und ohne explizites Programm eben auf den nationalen Trend extremer Divergenz – nicht nur in der Bildung – reagierte, was diese Institution zum zentralen Ort der Homogenisierung einer grundsätzlich heterogenen Gesellschaft von Einwanderern machte. Dazu mag sich die puritanisch-pädagogische Überzeugung gesellt haben, dass es tunlich sei, den Versuchungen des Fleisches in den post-pubertären Jahren des Lebens durch Konzentration auf geistige Gehalte vorzubauen.

Doch das internationale Interesse an den amerikanischen Universitäten geht ja gar nicht auf ihre – von außen nur selten verstandene — Grundstruktur zurück, sondern auf die Aura und die Leistungen einer kleinen Zahl unter ihnen. In den meisten weltweiten Rankings von Hochschulen – beileibe nicht nur in denen, die aus den Vereinigten Staaten stammen – ist die gute Hälfte der am höchsten eingeschätzten Unversitäten amerikanisch. Auch diese Tatsache gibt historischen und soziologischen Analysen eine schhwierige Erklärungs-Aufgabe vor. Immerhin lassen sich einige gemeinsame Merkmale für jene – nicht nur amerikanischen — Hochschulen identifizieren, die während der vergangenen Jahrzehnte in den Rankings am deutlichsten gestiegen sind. Diese Merkmale konvergieren mit der amerikanischen Grundsituation einer markanten institutionellen Divergenz. In ihrem Ansehen gestiegen sind erstens Universitäten, die – ob staatlich oder privat – eine besondere Freiheit zur Ausbildung eines individuellen Profils hatten; die es sich zweitens leisten konnten, bei der Auswahl ihrer Studenten und ihres Lehrpersonals ausschließlich (oder zumindest vor allem) intellektuelle Qualitätskriterien anzuwenden; die drittens in Städten mit einer Einwohnerzahl von deutlich unter einer halben Million liegen und eine Konzentration ihrer Aktivitäten in der Präsenz des Campus kultivieren; und die viertens eine Dominanz von praxisorientierten und naturwissenschaftlichen Fächern mit kleinen geisteswissenschaftlichen Abteilungen hoher Qualität verbinden.

Diese Beschreibung trifft aber auch genau – das hört man in Deutshchland nicht gerne – auf einige Schweizer Universitäten zu, etwa auf die Eidgenössische Technische Hochschule in Zürich oder auf die Wirtschaftshochschule in Sankt Gallen. Damit wird die europäische Frage, ob man in Amerika studieren soll, nur noch komplexer. In den Möglichkeiten ihrer Beantwortung stellt sich dann ein wesentlicher Unterschied zwischen College und Professional School heraus. Ein Medizinstudium in den Vereinigten Staaten etwa lohnt sich aus der Perspektive beruflicher Ausbildung nur dann, wenn entweder das Lehrangebot überragend ist oder individuellen Interessen in besonderer Weise entspricht — zumal man auf der anderen Seite mit dem Risiko eines Widerstands gegen amerikanische Ausbildung auf dem europäischen Arbeiytsmarkt rechnen muss und (ausser in den Geisteswissenschaften) mit unvergleichlich höheren Studiengebühren als zum Beispiel in Deutschland.

Ein College-Studium an den besten amerikanischen Universitäten hingegen wird für Bewerber, die zugelassen wurden, nur dann an finanziellen Gründen scheitern, wenn ihre relativ wohlhabenden Familen nicht so substantiell in Bildung investieren wollen, wie das für die meisten vergleichbaren amerikanischen Familien selbstverständlich ist. Allerdings liegt die einzig denkbare Motivation zum College-Studium in der Sehnsucht nach Bildung als existentiellem Wert und als Grundlage einer Lebensform. Denn ganz wörtlich genommen kann sich ein Absolvent von Harvard, Princeton, Stanford oder Yale ja für seine – fast unvermeidlich ausgezeichnete – College-Bildung “nichts kaufen.” Die eine Antwort auf unsere Ausgangsfrage, welche sich daraus ergibt, ist eingermaßen überraschend: wem es um eine kompakte berufliche Ausbildung mit daraus unmittelbar folgenden finanziellen Vorteilen geht, der sollte nicht ein College-Studium in Amerika anstreben.

01. Aug. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Soll man in Amerika studieren?

22
12325

     

18. Jul. 2015
von Hans Ulrich Gumbrecht

18
9524
     

Der amerikanische Gott (und ob Europa ihn braucht)

“The Book of Mormon” heißt das erfolgreichste amerikanische Musical dieses nicht mehr ganz neuen Jahrhunderts, und die mit der aggressiv-ironischen Cartoon-Serie “South Park” berühmt gewordenen Libretto-Autoren Trey Parker und Matt Stone nehmen diesmal treffsicher die Heiligtümer amerikanischer Religiosität ins Visier.

Ihre Protagonisten sind zwei junge “Elders” aus der “Kirche von den Heiligen der letzten Tage,” die nach einer raschen Standard-Ausbildung in Utah auf Mission geschickt werden, nicht, wie sie hoffen, nach Florida, sondern nach Uganda. Das “Uganda” des Musicals ist ein von Aids verseuchter und einem verrückten Tyrannen zugrunde gerichteter Alptraum, dessen Bewohner – verständlicherweise — für Religion so wenig Interesse und Geduld haben, dass die Missionare auf verlorenem Posten stehen. Noch nie hat ein “Ugander” den Mormonen-Glauben angenommen. Zu allem Überfluss wirkt einer der beiden “Elders” denkbar verhaltensgestört. Das “Buch Mormon” hat dieser Missionar, wie schnell deutlich wird, noch nie gelesen, weshalb er, von einer explosiven Mischung aus Furcht, Narzissmus und sexuellen Phantasien getrieben, bei seinen Predigten alle möglichen Moralverschreibungen und Zukunftsvisionen erfindet (zum Beispiel ein ausschweifendes Schlaraffen-Leben in Salt Lake City), die seinen Hörern gefallen könnten. Und der Erfolg gibt ihm recht: bald schon konvertieren die ersten “Ugander” zu seiner Kirche, was die Mormonen-Autoritäten auf den Plan ruft, well sie die Methoden des neuen Missionars studieren und ihn feiern wollen.

Wie so eine Geschichte — wenigstens in der Tonlage des Musicals — enden muss, lässt sich dann leicht voraussehen. Die Vorgesetzten entdecken schnell, wie wenig der Glaube der eben getauften Mormonen mit der Orthodoxie ihrer Kirche zu tun hat. Ganz überraschend jedoch gestehen die konvertierten “Ugander,” dass sie die Inhalte des vermeintlichen Irrglaubens ohnehin immer schon auf ihre eigene Weise “als Metaphern” verstanden haben. So feiern die abschließenden Songs und Chöre die eine große Einsicht: gut kann nur eine Religion sein, die ihren Gläubigen Freude bereitet (oder, proto-soziologisch formuliert, “die den Bedürfnissen ihrer Kunden entspricht”).

Viel erstaunlicher freilich als die Handlung des Musicals fiel die offizielle Reaktion der “Church of the Latter Day Saints” aus. Sie hat dem Stück, anfangs noch etwas verhalten, mittlerweile aber geradezu enthusiastisch, ihren mormonischen Segen geschenkt. Im Programmheft findet man mehrere ganzseitige Anzeigen, auf denen gutaussehende junge Frauen und Männer mit verschiedenen Hautfarben den Zuschauern empfehlen, nach der Freude am Musical nun das Buch ihrer Religion mit ernsterer Freude zu lesen. Ein Bild inszeniert diese Botschaft sogar mit einem sympathischen Schuss von gekonnter Selbst-Ironie: “The Book is Always Better.” Aus mehreren Gründen kommt dieser Werbung ein bemerkenswerter Symptomwert zu. Die Mormonen sind eine der größten, wirtschaftlich einflussreichsten und am schnellsten wachsenden religiösen Gemeinschaften in den Vereinigten Staaten. Daneben haben kompetente Religionswissenschaftler sie immer wieder als besonders typisch für einen übergreifenden kulturellen Stil der amerikanischen Religiosität identifiziert.

Ebenso signifikant, aber weniger Mormonen-spezifisch ist die statistisch belegbare Tatsache, dass sich jene freundlichen Anzeigen an ein – im internationalen Vergleich – außergewöhnlich geneigtes Publikum wenden. Zwar ist der Glaube an Gott sogar in den Vereinigten Staaten während der vergangenen Jahrzehnte zurückgegangen, doch immerhin steht für immer noch über achtzig Prozent der Amerikaner die Existenz Gottes ganz außer Frage — im Vergleich zu knapp vierzig Prozent der Deutschen (vierundfünfzig Prozent im früheren Westdeutschland und nur dreizehn Prozent im ehemaligen Ostdeutschland). Eine Besonderheit dieses weiter zur dominanten sozialen Wirklichkeit gehörenden amerikanischen Gottes, liegt nun darin, dass fast all seine Gläubigen (achtundsechzig Prozent gegenüber etwas über zwanzig Prozent in Deutschland) ihn aus persönlichen Begegnungen zu kennen glauben. Was hat es dann zu bedeuten, wenn eine so emblematische Gruppe wie die Mormonen innerhalb dieser massivsten religiösen Gesellschaft der Welt entschlossen positiv und voll freundlicher Toleranz auf die Parodie und Ironie eines Musicals reagiert? Wohl kaum, dass die Mormonen sich und ihre Religion nicht mehr ernst nehmen. Ebenso wenig, dass es sich um ein Zugeständnis aus beginnender Schwäche handelt.

Die im Alltag nicht zu übersehende, verlässlich dokumentierte und mittlerweile wohl tatsächlich einzigartige gesellschaftliche Zentralstellung der Religion in Amerika ist, allein darin stimmen die Fachleute überein, ein Phänomen voller Rätsel. Man kann sie historisch (in ihrer Entstehung) und soziologisch (in ihrer Struktur) beschreiben, ohne dass solche Beschreibungen zu einer Erklärung ihrer Besonderheit führten. Sicher, die britischen Kolonien in Nordamerika hatten sich schon sehr früh zu einer Zuflucht für religiöse Extremisten entwickelt, die dort “eine scheinende Stadt auf dem Berg” errichten wollten — und tief bis ins zwanzigste Jahrhundert blieb Verfolgung aus religiösen Gründen eine Haupt-Motivation für die Auswanderung nach Amerika. In Reaktion auf die Vielfalt von radikalen Gemeinden im Land verbot seit dem späten achtzehnten Jahrhundert der erste Zusatz (“Amendment”) zur amerikanischen Verfassung dem Staat jede Einrichtung von religiösen Institutionen (“Establishment Clause”) — zugleich aber auch ihre Unterbindung (“Free Exercise Clause”). Die “Free Exercise Clause,” meinen prominente Rechts- und Politikhistoriker heute, sei immer wieder – jedoch nicht in historischer Kontinuität – vom Staat genutzt worden, um bestehende religiöse Gemeinschaften als Grund-Gewebe staatsbürgerlicher Gesinnung zu fördern und zu schützen.

Insgesamt jedoch fällt vor allem – ganz anders als im Leben der amerikanischen Politiker – eine ostentative Distanz der staatlichen Organe zur religiösen Praxis auf. In seinen von einer Reise im Jahr 1904 angeregten Aufsätzen zum Sonderstatus der amerikanischen Religion geht Max Weber von der komplementären Beobachtung aus, dass dort Gemeinden (er nennt sie meist “Sekten”) – und nicht etwa die viel komplexeren “Kirchen” im Sinne von “Konfessionen” – die Grund-Ebene religiöser Praxis bilden. Zweitens werde die jeweilige Gemeinde, wo man “innerweltliche Askese” lerne, das heißt eine besondere “Elastizität” bei der Selbst-Einordnung in soziale Gruppen, zu einem zentralen Element individueller Identität. Aufgrund dieser grundlegenden Funktion, stellt Weber drittens fest, erscheinen theologisch-inhaltliche Unterschiede (etwa zwischen Methodisten, Anglikanern, Katholiken, Lutheranern, Mormonen und sogar amerikanischen Juden) weitgehend neutralisiert.

So treten dann viertens mythologische oder gar sakramentale Strukturen zurück gegenüber der Betonung einer je individuellen Lektüre “Heiliger Schriften” – unter der einen Bedingung, dass solche individuellen Auslegungen im Kontext der Gemeinde nicht exzentrisch erscheinen dürfen (gerade so wird “Elastizität” eingeübt). Vor dem Hintergrund dieser Beschreibung, wird verständlich, was etwa der ehemalige Präsident George W. Bush im Sinn haben muss, wenn er Jesus immer wieder “my favorite philosopher” nennt: Religion existiert in individuell geprägten Sammlungen von autoritären Zitaten (aus den Heiligen Schriften und aus dem Mund Gottes), an denen man sein Leben ausrichtet. Ob ein Gläubiger wie Bush aber den übergreifenden Stellenwert des Kreuzesopfers in der christlichen Mythologie versteht oder Sakramente in ihrem gemeinschaftsbildenden Status, bleibt dahingestellt.

Als der eminente Literaturwissenschaftler Harold Bloom vor gut zwei Jahrzehnten in einem Buch die “American Religion” seiner Gegenwart analysierte, kam er (wahrscheinlich in Unkenntnis von Webers Aufsätzen) zu durchaus ähnlichen Ergebnissen — und zu einer Bewertung, die im scharfen Gegensatz zu Webers insgesamt positivem Eindruck steht. Wie schon Weber betont auch Bloom die Verwischung theologisch-inhaltlicher Unterschiede zwischen den verschiedenen Gemeinschaften der amerikanischen Religion und (unter dem Leitbegriff der “Gnosis”) ihre Tendenz zu höchst individuellen Interpretationen, die oft im Eindruck und der Gewissheit persönlicher Begegnungen mit Gott fundiert seien. Diese Beobachtung nun entspricht genau der Religion der Mormonen – und dem Libretto des Musicals “The Book of Mormon.” Joseph Smith wurde zur Gründerfigur seiner Kirche ja aufgrund des – gnostischen – Anspruchs, von Gott zum Propheten einer bis dato unbekannten Erscheinung und Gegenwart von Jesus Christus in Nordamerika erwählt zu sein. Die Freiheit des Fabulierens, welche sich der Mormonen-Missionar im Musical herausnimmt, treibt die gnostische Tendenz dann auf die Spitze — und bringt sie zu ihrer logischen Erfüllung.

Blooms bittere Kritik an der amerikanischen Religion ergibt sich aus einer einzigen, aber entscheidenden Abweichung von Webers Beschreibung, welche möglicherweise eine historische Entwicklung des vergangenen Jahrhunderts widerspiegelt. In seiner Sicht findet die nationale Tendenz zur individuellen Auslegung Heiliger Schriften heute in der Gemeinschaft (und in der Gemeinde) keine Grenze und Bewährung mehr. Vielmehr soll sich aus der Überzeugung, in persönlicher Beziehung mit Gott zu stehen, eine grenzenlose Legitimation für millionenfach grenzenlose Egozentrik ergeben. Ihre Theologie und missionarische Praxis mit solchen Begriffen zu beschreiben, das würde sich die “Kirche von den Heiligen der letzten Tage” wohl verbitten. Doch dass sich diese Kirche so eng an ein erfolgreiches Musical angeschmiegt hat, dessen Pointe genau in einer radikalen (bis grotesken) Entgrenzung subjektiver Exegese liegt (“solange sie den zu konvertierenden Kunde Freude bereitet”), lässt sich nicht übersehen – und gibt implizit Blooms Beschreibung der “American Religion” recht.

Die – bisher aufgeschobene – Frage nach der besonderen Rolle des Staats in der amerikanischen Gesellschaft kann dann allerdings zu dem Schluss führen, dass man dem Pessimismus von Blooms Buch wie er sich aus dem Befund eines Schwunds sozialer Bezugshorizonte in der amerikanischen Religion ergibt, nicht unbedingt und vorbehaltlos zustimmen muss. Verglichen mit den europäischen Nationen verhält sich der amerikanische Staat bis heute zurückhaltend, was Interventionen in die Privatsphäre der Bürger angeht (so erklären sich etwa die Schwierigkeiten bei der Einführung einer flächendeckenden staatlichen Krankenversicherung).

Keinesfalls zurückhaltend hingegen erscheint derselbe Staat einerseits in seiner Außen- und Militärpolitik (die internationalen Klagen darüber sind seit der Mitte des vergangenen Jahrhunderts nie verstummt) und – für die Gesellschaft, deren Exekutivorgan er ist — in der Öffentlichkeit. Belege dafür sind die Allgegenwart der Nationalflagge auf dem amerikanischen Territorium ebenso wie die für viele Europäer absurd wirkende Häufigkeit der Anlässe, zu denen die Nationalhymne gespielt wird. Undenkbar, dass ein Spiel im American Football — selbst auf der College- oder der High School-Ebene — ohne Nationalhymne beginnt. Nach dem Abpfiff versammeln sich dann Mitglieder beider Mannschaften – allerdings nie alle von ihnen — auf der Mitte des Spielfelds, um Gott zu danken: für den Sieg, für die Freundschaft, für die Cheerleaders, oder auch weil sie von Verletzungen verschont geblieben sind. Im Gegensatz zum Einleitungs-Moment der Nationalhymne jedoch ist das Gebet ein Moment der persönlichen Begegnung mit Gott, den die (meist staatlichen) Institutionen ermöglichen, ohne ihn verpflichtend zu machen.

In Europa ist seit einigen Jahren zunehmend von einer “Ent-Säkularisierung der Gesellschaft” die Rede und von einer anscheinend komplementären “Re-Politisierung der Religion.” Eher hinter vorgehaltener Hand kommt deshalb auch die Frage auf, ob diese Tendenzen etwas von der “amerikanischen Religion” lernen können. Wer sie im Sinn von Weber und Bloom versteht, was natürlich keinesfalls mit einer Teilnahme an ihren Lebensformen gleichzusetzen ist, wird wohl eher zu einer negative Antwort tendieren. Denn wie zum Beispiel die eingangs zitierten Statistiken zeigen, ist das Interesse von Europäern an jener persönlichen Begegnung mit Gott, die den Amerikanern so wichtig ist (und an den daraus erwachsenden Verpflichtungen für ihr Privatleben), erstaunlich gering – und anscheinend weiter im Schwinden begriffen. Was die “sozial” genannte private Sicherheit angeht, vertraut man eher dem Staat, während “Werte” oder “Lebensstile” als Horizonte individuell-säkulärer Selbstbedienung fungieren.

Wonach sich aber zahlreiche, vielleicht nicht alle europäischen Nationen – mit zwei Weltkriegen und einer Kaskade von Säkularisierungsschüben in ihrer Vergangenheit – sehnen, sind öffentliche Rituale der Gemeinschaft. Die vom Design her ja durchaus elegante, allenthalben sichtbare, doch in ihrer kollektiven Wirkung eigentlich inexistente Europa-Flagge ist ein Symptom für diese Situation. Im Trend liegen dagegen – trotz aller auf faschistische Traditionen verweisenden Mahnungen der Intellektuellen – Ereignisse, welche, ohne “staatlich” auszusehen, Tausende von Menschen in der Konzentration auf einen zentralen Gegenstand des Erlebens zu Gemeinschaften machen: Konzerte, Sportveranstaltungen, Public Viewing, Kirchentage, Papstmessen. Nichts könnte der “American Religion” fremder sein als solche Rituale. Europa hat also wirklich keine Verwendung für den amerikanischen Gott – vielleicht muss es bloß seinen eigenen Gott wieder(er)finden.

18. Jul. 2015
von Hans Ulrich Gumbrecht

18
9524

     

04. Jul. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Was ist in Europa aus der „Freude“ geworden?

8
2117
     

Was ist in Europa aus der „Freude“ geworden?

Das Wort klingt ja irgendwie altmodisch, wie eine etwas peinliche Erinnerung an die frühen Jahre der alten Bundesrepublik, deren erster Präsident dem jungen Staat und seinen schüchternen Ritualen ihre zurückhaltende Würde in württembergischen Tonfall gab und dabei unvermeidlich das Potential von kollektiven Gefühlen zu aktivieren hatte, die in den zwölf nationalsozialistischen Jahren eingeübt und von den meisten Deutschen mit Inbrunst gelebt worden waren. Schillers fast immer im Grenzbereich des Sprichwörtlichen liegende lyrische Kadenzen (zuerst ja gewiss auch auf Württembergisch imaginiert) gaben wie eine Stimmgabel die Tonlage vor, welche zum Zungenschlag des Präsidenten passte. Diese Gedichte hatten auch genug an einem mit überirdischen Sphären spielenden National-Pathos gehabt, um ihren Autor zu einem Lieblingsdichter der Nazis werden zu lassen (woran Schiller keine Schuld traf), und andererseits besassen sie hinreichend säkular-revolutionäre Energie für den Bedarf einer in beiden Staaten dezidiert neuen Zeit der deutschen Geschichte.

Dass die Delegierten aus beiden Staaten sich für die deutsch-deutschen Olympiamannschaften der fünfziger und sechziger Jahre auf Schillers “Ode an die Freude” in Beethovens Vertonung (vom Ende der Neunten Symphonie) als Hymne einigten, war also wirklich kein Wunder. “Freude, schöner Götterfunke, / Tochter aus Elysium, / Wir betreten feuertrunken, / Himmlische, dein Heiligtum.” An diese Verse, da bin ich mir sicher, hätte ich mich bis ins hohe Alter wohl auch dann erinnert, wenn ich kein Literaturwissenschaftler geworden wäre (allerdings war mir viele Jahre lang nicht aufgefallen, dass ich den lyrischen Auftakt im Sinn von “Freude schöner GötterfunkeN” missverstanden hatte, ohne Komma nach “Freude” und mit den “Götterfunken” im Genitiv Plural — als sei die “Freude” eine Reaktion auf von den Göttern versprühte Funken, statt selbst der aus ihrer Nähe entstandene Funke zu sein).

So schöne Verse wie “Freude heißt die starke Feder / in der ewigen Natur. / Freude, Freude treibt die Räder / in der großen Weltenuhr,” die nicht zum Auftakt der Ode gehören, sind allerdings, muss ich leicht verlegen zugeben, nicht zu einem Teil meines heute noch auswendig abrufbaren Lyrik-Repertoires geworden. Auf die Schiller-Beethovenschen Klänge aber passten durchaus die Antworten meiner Mutter, wenn ich sie fragte, warum es denn (vor allem im Frühjahr) so viele Feiertage wie den 1. Mai gab, den Vatertag und, angenehm nah bei meinem Geburtstag, auch den 17. Juni. “Das soll die deutschen Arbeiter ehren und alles, was sie für uns tun,” sagte meine Mutter ohne Zögern und mit einer im Rückblick ja sehr symptomatischen Verengung des proletarischen Internationalismus auf die Tugend einer spezifisch deutschen (und also per Konnotation vormals national-sozialistischen) gesellschaftlichen Klasse. Großzügiges Verständnis zeigte sie sogar für die Alkohol-durchflossenen Selbstfeiern auf den jährlichen Kollektiv-Ausflügen zum Vatertag (anders gesagt: sie tolerierte den einen Freuden-Exzess für die plattfüßigen Bacchanten der Nation), und schließlich erklärte sie mir sogar, wie aus dem unterdrückten Protest von Arbeitern in Ostberlin Vorfreude auf ein wiederzuvereinigendes Deutschland entstehen sollte. All diese Auskünfte hatten durchaus Konturen und einen Schwung, den ich heute – gut sechzig Jahre später – in meiner Vorstellung mit der Jungvolk- und Bund-Deutscher-Mädchen-Sozialisation meiner Eltern verbinde (wobei es fällt mir schwer fällt, das erleichternde “warum denn nicht?” hinzuzufügen).

Als wir uns dann zehn Jahre später aufs Abitur vorbereiteten, echte “Pennäler” schon (oder noch), nicht selten mit Schlips und Jackett im Unterricht und einer offiziellen Raucherecke im Schulhof, begannen einige meine Klassenkameraden (sagte man damals) selbstironisch und doch auch mit Begeisterung den “Sedanstag” zu feiern, in einer Gaststätte übrigens, die sich “Alt Sedan” nannte, das heißt: den Tag des entscheidenden Sieges der preußischen über die französische Armee im Krieg von 1870/1871. Schwer zu sagen – im Blick auf jene unmittelbare Vorzeit der sogenannten “Studentenrevolution von 1968” – ob ihre Selbst-Ironie ein Protest gegen (immer noch) zuwenig oder gegen (schon wieder) zuviel nationale Freude in unserem Alltag war. Zwei oder drei von meinen Sedan-inspirierten Freunden erschienen jedenfalls nicht zur Abiturfeier (und ließen sich das Abschlusszeugnis per Post zustellen), was im Juli 1967 entweder (konservativ) wie ein Sakrileg oder (progressiv) wie ein Affront wirken musste. Etwas war nun endlich in Bewegung geraten, in eine Krise sogar, mit jener kollektiven Freude, welche die Politiker-Generation von Heuss und Adenauer so geschickt über die Schwelle von 1945 hinweg gerettet hatte.

Nun vermute ich, dass die Unsicherheit hinsichtlich positiver Kollektiv-Gefühle schon damals eher ein europäisches als ein “spezifisch deutsches” Problem war – und bis heute geblieben ist. Denn als zum Beispiel mitte der achtziger Jahre ein europäisches Spezialisten-Gremium eingerichtet wurde, um die Feierlichkeiten von 1989 zum zweihundertsten Jahrestag der französischen Revolution vorzubereiten, gab es dort eine starke und intellektuell herausragende Fraktion von vor allem französischen Kollegen (einer von ihnen war der große Historiker François Furet), die vorschlugen, das zentrale Fest ihrer Nation in gewollt ironischem Bezug auf vorausgehende Formen der Feier des 14. Juli 1789 zu inszenieren und begehen. Nicht unmittelbar nach dem zweiten Weltkrieg, sondern erst im letzten Drittel des zwanzigsten Jahrhunderts geriet so eine abendländische Tradition von nationalen Feiern und nationaler Freude ins selbstzweifelnde Stocken.

Doch was genau bedeutet “Freude” in diesem Zusammenhang, was ist die “Freude,” die Europa möglicherweise verloren hat? Es geht natürlich nicht um das individuell positive Gefühl über ein erlebtes Ereignis oder auch eine Erinnerung, auf die man mit Lächeln (und übrigens ganz vorbewusst auch mit einer Bewegung der Augenrundmuskeln) reagiert. Ebensowenig ist es die Freude einer in sich selbst noch überschaubaren und explizit konstituierten Gruppe von Familienmitgliedern, Parteimitgliedern, Fans oder Spezialisten anlässlich einer aus ihrer jeweiligen Perspektive positiven Situation. Schließlich kann es auch jene individuell permanente Freude nicht sein, die nach einer allgemeinen Empfehlung – vor allem in der Philosophie des Konfuzius – jedes recht geführte individuelle Leben am Ende belohnen soll.

Ich beziehe mich vielmehr auf eine nur in großen Gruppen entstehende oder auch durch Rituale zu evozierende Freude, eine Freude in Gruppen, wo Individuen sich nicht mehr durchgängig kennen können und auch nicht – im Sinn von Lobbys — durch umfassend geteilte Wünsche, Interessen oder Intentionen (“alle wollen klassische Musik hören,” “alle wollen, dass eine bestimmte Mannschaft gewinnt”) kollektive Identität gewinnen – sondern eher durch ähnliche Bezugspunkte in ihren jeweils individuellen Geschichten. Es handelt sich um Gruppen, in denen zum Beispiel alle Sizilianer sind oder rothaarig, eine katholische Familientradition haben oder einen Bachelor of Arts von der University of Oregon. Ihre Freude braucht einen jeweils spezifischen Ort, um sich zu artikulieren, hat immer einen Beginn, soll über eine bestimmte Zeit andauern und am Ende vom weitergehenden Alltag absorbiert werden. Vor allem aber ist es diese Form kollektiver Freude, in der die Sichtbarkeit und Spürbarkeit der akkumulierten individuellen Freude für jede Einzelne und jeden Einzelnen zu einer objektiven Umwelt von kollektiver Freude als Stimmung werden, in die sie eintauchen können.

Man sieht diese Freude global, nach einem besonders gelungenen und als Ereignis charismatischen Konzert, bei Sport-Ereignissen oder bei den Feiern von Siegen und Meisterschaften. Aber sie ist – zumal in Europa – kaum noch eine Form, die sich im Alltag der Politik, der Ausbildung oder des Berufs zeigen könnte. Ist dieser Verlust Teil der europäischen Entwicklung hin zu einer Grundkonfiguration, wo der Staat allein noch die Verpflichtung hat, Individuen zu schützen und zu versorgen, ohne ein kollektiver Fluchtpunkt der Gefühle bleiben zu dürfen? Und wo Bildung als eine ausschließlich individuelle Dimension von Leistung und Kompetenz aufgefasst wird.

Der europäischen Union ist es nicht gelungen, ihre eigenen Feste zu etablieren und ihren eigenen Ton der Freude zu finden, obwohl sie in vielen Mitgliedsländern von der Bürger-Mehrheit begrüßt wird. Ich habe den Eindruck, dass sich ihre Feier-Tage als – neutrale – Frei-Tage mit regelmäßig wiederholten Fest-Kommentaren und Reden an der Periphere der öffentlichen Medien vollziehen. Äquivalente zum amerikanischen “Fourth of July” oder zu “Thanksgiving” gibt es selbst in jenen europäischen Nationen kaum mehr, die sich ein positives Verhältnis zur eigenen Geschichte leisten können – und wollen (wie Großbritannien und Frankreich). Tage einer bejahenden Reflexion auf die Nation und des Bezugs auf traditionelle Ritualen, selbst bloße Formulierungen wie “celebrating our nation” sind ganz und gar unüblich geworden, so dass europäische oder nationale Feiertage zu Tagen der individuellen Freizeit werden.

“Commencement” heißt die Jahresabschlussfeier an amerikanischen Universitäten, genauer: die Feier für die ihre College-Erziehung und andere Programme abschließenden Studenten, “Commencement” (“Beginn”) offenbar deshalb, weil dieser Tag ja nicht nur am Ende von Bildungs- und Ausbildungszeit steht, sondern so auch notwendig zum “Beginn” einer individuell neuen Lebensphase wird. Mitte Juni war ich – als Vater – beim Commencement Day der University of Oregon. Der Festakt, in dem jedes Jahr mehreren Tausend jungen Frauen und Männern aus allen Studiengängen offiziell ihr neuer akademischer Status verliehen wird, begann mit der Nationalhymne (a capella-gesungen), setzte sich mit dem Vortrag eines ”Ehemaligen” fort, der in der Welt elektronischer Musik sehr erfolgreich arbeitet, führte zu dem an einen Segen erinnernden Ritual der Verteilung akademischer Würden — und endete mit einem Rock-Song, der in den Pausen bei allen Heimspielen der sehr erfolgreichen American Football-Mannschaft der University of Oregon gespielt wird. Beinahe fünftausend neue Bachelors, standen auf, tanzten in einer Explosion von Freude, animierten die zwanzigtausend um sie versammelten Verwandten und Freunde zum Mittanzen, tanzten aus dem Basketball-Stadium hinaus – und in ihre Lebens-Zukunft.

Hat eine Über-Säkularisierung – aus verständlicher Angst vor Situationen mit kollektivem Enthusiasmus – solche Rituale in Europa für immer zerstört? Und, das ist die eigentliche Frage: warum sollte man sie und mit ihnen die Freude zu neuem Leben erwecken? Immer vorausgesetzt, dass sich dies überhaupt schaffen ließe.

04. Jul. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Was ist in Europa aus der „Freude“ geworden?

8
2117

     

20. Jun. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Dino-Saurier!

4
1989
     

Dino-Saurier!

Als ich eingeschult wurde, waren die Erwachsenen der Bundesrepublik längst dabei, die kein Jahrzehnt alten Schrecken der Vergangenheit in einem Bierrausch aus Fleiß und wunderbar erfolgreichem Wirtschaftsstreben zu ertränken. Der Urknall des deutschen Fußballs hatte — wie die erste Stufe einer Rakete — am 4. Juli 1954 das junge alte Land in die Umlaufbahn seiner neuen Respektabilität getragen — während das Spielzeug, von dem wir träumten, ganz auf den Verkehr konzentriert war. Alle Jungen aus der Nachbarschaft eigentlich (selbst die von der “Wickenmeier Waisenanstalt,” wo meine Groß-Tante Kostka unter ihrem Nonnenschleier sorgte und arbeitete), alle Jungen hatten eine mehr oder weniger ausführliche Sammlung von Wiking-Autos, die man nebeneinander aufstellen, tauschen und ohne Aussicht auf Vollständigkeit eben sammeln konnte (bis heute tut es mir weh, dass ich einen blauen Wiking Krupp-Laster nie bekam, den mein sonst immer großzügiger Vater versprochen hatte). Zum Kinder-Fuhrpark gehörten oft auch zwei oder drei aufziehbare Schuco-Autos, manchmal sogar eine ferngelenkte Limousine, und zu Weihnachten setzte das milde Fieber der Modelleisenbahnen ein, mit zwei Lokomotiven, mehreren Güterwagen und einem kleinen Schienen-Rund — was die beliebten Marken “Märklin,” “Trix” und “Fleischmann” für uns schnell zu einem Äquivalent der damals noch hochgehaltenen konfessionellen Unterschiede machte.

Dinosaurier aus Bakalit oder weicheren Versionen von Plastik gab es damals noch nicht in der Spielzeugläden und auch keine Dinosaurier-Kinderbücher, sonst könnte ich mich daran ganz sicher erinnern. Ich hätte sie mir sofort zum Geburtstag und auch zu Weihnachten gewünscht — weil Saurier schon sehr lebhaft durch meine Vorstellung trabten oder sprangen, seit die Eltern zum ersten Mal von ihnen erzählt hatten. Genauer gesagt, denn so hatte ich mir das ganz unverständliche Detail von den “Kaltblütern” zurechtgelegt: die Dinosaurier meiner Phantasie bewegten sich wie riesige Eidechsen, schnell und abgehackt, zwischen langen Momenten des Stillhaltens und unter einer immer archaisch glühenden Sonne. Die Kaltblüter-Prämisse, welche mehr als hundert Jahre ohne Frage gegolten hatte, begann damals gerade revidiert zu werden, was offenbar eine neue, intensive Phase biochemischer und genetischer Forschung auf den Weg brachte, im Vergleich zu der die klassischen zoologischen Beschreibungen bald etwas mythologisch wirkten. Vielleicht war es jener Schub erneuerten Forschungs-Interesses und erneuerter Populär-Faszination, der die Dinosaurier dann endlich in die Spielzeugläden brachte. Ich habe jedenfalls sehr früh geglaubt, ohne jenes Wort noch zu kennen, dass meine sechs- oder siebenjährige Saurier-Begeisterung “avantgardistisch” war.

Drei verschiedene kulturelle Dimensionen flossen schon immer in den Dinosaurier-Bildern zusammen — und deshalb beinahe unbemerkt auch durch meine Phantasie. Die neuesten naturwissenschaftlichen Entdeckungen in ihrer unvermeidlich spekulativen Anwendung auf (nur selten vollständige) archäologische Funde oder Rekonstruktionen; weniger sichtbar, aber vielleicht entscheidend: die sich historisch wandelnden Modalitäten von Zeitlichkeit, das heißt: die verschiedenen Formen, Vergangenheit, Gegenwart und Zukunft aufeinander zu beziehen; und vor allem eine unwiderstehliche Sehnsucht, immer mehr und immer anderes über sehr ferne Vergangenheiten zu erfahren, obwohl wir ahnten, dass so ein Wissen keine Bedeutung für unsere eigene Welt hatte.

Schon immer und überall auf der Erde waren Knochen gefunden worden, die man heute selbstverständlich als Saurier-Fossilien identifizierte — doch vor dem frühen neunzehnten Jahrhundert wurden sie stets in mythologische Bezugsrahmen eingeordnet. Als Überreste von feuerspeienden Drachen etwa oder als Knochen von Riesen aus ferner Urzeit. Erst seit dem frühen neunzehnten Jahrhundert, seit der Emergenz jener Zeit-Modalität, die wir seither das “historische Weltbild” nennen und aus der das evolutionäre Denken hervorging, gewannen solche Knochen ihren Status als Spuren innerhalb eines zu “Geschichte” gewordenen Bilds von der Natur. Schon bald provozierten kühne Spekulationen — vor allen in Paris und London — ernsthafte wissenschaftliche Debatten, die zum Beispiel Goethe während seiner letzten Lebensjahre mit leidenschaftlichem Interesse verfolgte. Doch erst 1842 erfand der englische Paläntologe Richard Owen den Namen “Dinosaurier” als ein Kompositum aus den griechischen Wörtern für “Schrecken” und “Eidechse” – ein Wort, das sich vielleicht auch deshalb durchgesetzt hat, weil seine beiden Teile offenbar permanente Reaktionen der menschlichen Psyche eher als genaue vergleichende Beobachtungen widergeben: ein Gefühl des Überwältigt-Seins und eine die überwältigende Größe der Dinosaurier gerade ausblendende Assoziation mit den damals noch jedermann vertrauten Eidechsen. 1858 ermöglichte dann ein fast vollständiger Skelett-Fund in New Jersey die früheste bis heute als angemessen geltende Rekonstruktion des zweibeinigen Tyranno-Sauriers – und löste eine weltweite “Dino-Manie” aus, jene starke populärkulturelle Reaktion auf paläontologisch-wissenschaftliche Bilder von Dinosauriern, die seither nur stärker geworden ist.

Zwar haben sich die durch Dinosaurier-Bilder ausgelösten Phantasien nie ganz von der Forschung getrennt, doch auf der anderen Seite gehorcht ihre Dynamik sicher nicht einer ausschließlich wissenschaftlichen Logik. Die Singularität der Dinosaurier-Faszination könnte etwa damit zu tun haben, dass wir sie – vorbewusst oder halbbewusst – als Embleme einer “absoluten Vergangenheit” auffassen. Dinosaurier dominierten — in einer ungeheuren Differenzierung von Gattungen — das Tier-Leben auf der Erde zwischen zweihundertfünfunddreißig und fünfundsechzig Millionen Jahren vor der Zeitrechnung, ohne dass eine evolutionäre Entwicklungslinie hin zu den heute im Vordergrund stehenden Gattungen, zumal zu den Säugetieren führte — wahrscheinlich mit Ausnahme der Vögel, die als Nachfahren der Dinosaurier gelten. In unserer nicht-wissenschaftlichen Vorstellung aber scheint selbst die evolutionäre Kontinuität zwischen Dinosauriern und Vögeln durch ihren kategorialen Größenunterschied aufgehoben zu sein. Noch wichtiger ist in diesem Zusammenhang das “Verschwinden” der Dinosaurier in einer evolutionspragmatisch gesehen erstaunlich kurzen Zeitspanne, für die es noch nie eine konsensfähige Erklärung gegeben hat. Die am häufigsten genannten möglichen Gründe für das “Sterben” der Dinosaurier – wie das Ereignis eines Meteoriten-Einschlags oder ein “abrupter” Klimawandel – haben durchaus mythenfähiges Potential. All diese Voraussetzungen zusammen geben uns den Eindruck, dass Dinosaurier einerseits zur wissenschaftlich gesicherten Vorgeschichte des heutigen Lebens auf der Erde gehören, ohne andererseits in irgendeiner Beziehung evolutionärer Kontinuität mit dem menschlichen Leben zu stehen. Anders gesagt: Dinosaurier sind — aus planetarer Sicht — Teil einer archäologische Vorgeschichte und haben doch – menschheitsgeschichtlich — den abgerückten Status von Versatzstücken aus einer Mythologie. Darauf genau soll sich der Begriff von der “absoluten Vergangenheit” beziehen.

Schon in der Zeit meiner “avantgardistisch”-kindlichen Dinosaurier-Begeisterung hat mich zweitens eine “erlebte Disproportion” zwischen ihrer Körpergröße (vor allem bei den vierbeinig pflanzenfressenden Sauropomorphen) und der vermutet geringen Substanz ihres Gehirns beeindruckt — von der ich natürlich auf minimale Intelligenz schloss. Auch dieser Eindruck ist – leider, bin ich versucht zu sagen – längst revidiert oder zumindest relativiert worden, ohne dass sich damit die Intensität meiner Projektion verändert hätte, und die spezifische Projektion ist nicht, wenigstens in meiner eigenen Vorstellung nicht, als ein Akt der Herablassung gegenüber anderen Gattungen aufzufassen. Eher, so habe ich mir immer wieder neidisch und noch ohne die entsprechenden philosophischen Begriffe vorgestellt, waren Dinosaurier nie mit Problemen “rationaler Entscheidungsfindung” konfrontiert; jede ihrer Bewegungen konnte nur das sein, was sie war, nämlich ein Akt ohne Reflexivität, ohne Bewusstheit von einem Selbst oder gar einer Melancholie.

Natürlich trifft dies in aller Wahrscheinlichkeit für die meisten Tiere zu, doch für meine erste Ahnung von einem Leben ohne Selbstbeoachtung waren Dinosaurier die einzigen Embleme. Hinter solch projizierten Gefühlen, Gedanken und Bildern muss anscheinend immer die menschliche Sehnsucht liegen, in den Bewegungen des eigenen Körpers ganz aufgehen zu können – vielleicht nach der Art jener kurzen und wohligen Momente, während derer man sich beim Strecken der Beine und Arme (oder auch beim Gähnen) in seinem Körper “zuhause” fühlt. Sicher, mein Wissen, dass sich gerade Dinosaurier-Gehirne jene Ebene der Selbstbeobachtung gar nicht leisten konnten, die Voraussetzung für ein Genießen des Zuhause-Seins im eigenen Körper gewesen wäre, dieses Wissen hat später unzählige Male die erfüllte Sehnsucht meiner Projektion durchgestrichen, “eins mit dem eigenen Körper” zu sein. Und doch fährt mir dieses zweite Saurier-Gefühl noch im Alter oft durch Mark, Bein — und Bewusstsein.

“Anthropozän” schließlich ist der noch junge, ökologisch inspirierte Name für unsere Gegenwart als ein Erdzeitalter, das mit den ersten zerstörenden Auswirkungen menschlicher Kultur auf unsere eigene Biosphäre begonnen haben soll — und diese Perspektive hat die Tradition der “Dino-Manie” wohl noch einmal in ihrer Intensität variiert und gesteigert. Zunächst illustrieren die traditionell von Dinosauriern bevölkerten Bilder heißer Tage und feucht-schwüler Nächte auf der Erdoberfläche mittlerweile einen in der Geschichte der menschlichen Imagination noch neuen und zunächst sehr abstrakten Gedanken: es ist der Gedanke an einen Planeten, dessen Bestimmung gerade nicht in der Realität menschlichen Lebens aufgeht. Zugleich ändert sich mit diesem Blick auch der Stellenwert des Wissens vom Verschwinden der Dinosaurier. Dieses Wissen durchschneidet nun nicht mehr allein eine potentielle evolutionäre Kontinuität aus der fernsten Vergangenheit hin zum menschlichen Leben, sondern wird zur warnenden – oder drohenden – Vorwegnahme eines Verschwindens der (eigenen) Menschen-Gattung. Und wenn sich seit Heideggers “Sein und Zeit” in der Philosophie die Intuition und die Obsession einer Angst festgesetzt hat, welche ausgelöst wird durch die unerträgliche Vorstellung von der “Jemeinigkeit” des individuellen – eigenen – Todes, dann löst jetzt mit einem Mal der Gedanke an das (“selbstverschuldete”) Ende der Menschheit als Gattung, wie es das Ende der Dinosaurier geradezu allegorisch vorweggenommen hatte, eine Ambivalenz der Gefühle aus: sie bewegt sich zwischen kollektiver Angst (in Analogie zur Angst vor dem eigenen Tod) und dem — selbst-bestrafenden, aber doch zugleich erleichternden – Gedanken an die Erlösung “unseres” Planeten und “unseres” Universums von der Menschheit als Gattung.

Auch diese Zukunft ohne Menschheit ist als Zeit-Dimension absolut (so wie die Vorstellung von der vergangenen Gegenwart der Dinosaurier tendenziell absolut ist). Denn sie erscheint ja als eine von “uns” abgetrennte Zukunft, als eine Zukunft ohne die zukünftige Resonanz-Gegenwart einer Dimension der Selbstbeobachtung (im Sinn der menschlichen Erfahrung). Sie ist eine Zukunft, welche die Bilder unserer Vorstellung vom Leben der Dinosaurier nicht mehr repräsentieren, illustrieren oder verkörpern können – obwohl diese Bilder uns genau an sie erinnern. Die – absolute — Zukunft von 2015 aber hatte 1954 noch niemand im Sinn.

20. Jun. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Dino-Saurier!

4
1989

     

06. Jun. 2015
von Hans Ulrich Gumbrecht

20
5711
     

Was ist „Altern“ im Juni 2015?

Der Vater meiner Mutter starb im Sommer 1958, er muss einundsechzig oder zweiundsechzig Jahre alt geworden sein, und niemand ist mehr am Leben, den ich fragen könnte, wann genau er geboren war. Auf den Photographien aus der späteren Zeit seines Lebens scheint er ein Alter zu haben, das es heute nicht mehr gibt. Fast all diese Bilder waren “mit einem Glas in der Hand” während seiner Kuraufenthalte in Bad Wildungen von einem Photographen gemacht worden, dessen Name in den Karton eingedrückt ist, und sie zeigen einen Mann, der gut ausgeschlafen und doch endgültig erschöpft aussieht, etwas übergewichtig in den grauen Anzügen (mit Hut, Hemd und Krawatte), die trotzdem fast locker sitzen, weil sie auf einen noch massiveren Körper hatten passen sollen. Der Schritt meines Großvaters wirkt fest, und das Gesicht hat nur wenige Falten, doch es ist das Gesicht eines Manns, der sich im Alter als Lebensform eingerichtet hatte, ohne Resignation und mit einer absoluten Angst vor dem eigenen Tod. Ich kann mich erinnern, dass er uns alle immer wieder bat, das Wort “Tod” nie in seiner Gegenwart zu benutzen, und auch, wie er mir für einige Zeit fehlte nach seinem Tod. Denn ich hing an meinem Großvater, auch wenn es vielleicht nur der Stolz auf seinen schwarzen Opel Kapitän mit Weißwandreifen und der roten (wie man damals sagte) “Schnauze” war. Deshalb hätte ich am liebsten weggehört, als seine Freunde bei der Beerdigung sagten, es sei wohl besser für ihn, nicht mehr mit dem Asthma und dem Herzleiden kämpfen zu müssen, welche, wollten meine Eltern als die Ärzte in der Familie wissen, eine Folge von vier kalten Wintern in den Schützengräben des Ersten Weltkriegs waren. Niemand erwähnte damals, dass mein Großvater seine “Geschäfte” (ich weiß von einem mittelgroßen Hotel, mehreren Bierkneipen und einer ländlichen Schapsfabrik) noch einigermaßen fest in der Hand hatte, als das Herz zu schlagen aufhörte.

Mein Vater war fünfundachtzig Jahre alt, als er 2005 starb, an einer sich langsam und wie systematisch entwickelnden Krankheit, die ihn am Ende ersticken ließ. Anders als sein Schwiegervater, den auch er gemocht und sogar bewundert hatte, war mein Vater zum fünfundsechzigsten Geburtstag in den vertraglich festgeschriebenen und (wie es in der Lokalzeitung natürlich hieß) “wohlverdienten” Ruhestand getreten, so dass noch zwei Jahrzehnte vor ihm lagen, um ausführlich an der Krankheit zu leiden und wohl auch an Unterbeschäftigung, die er täglich mit einer Vielfalt von Aktivitäten ohne Fluchtpunkt unsichtbar machen wollte. Einmal hörte ich, dass mein Vater auf den beiden Friedhöfen unserer Heimatstadt zu Beerdigungen von Mitbürgern ging, die er nur vage oder überhaupt nicht gekannt hatte, um unaufgefordert eher ausführliche Reden an ihrem Grab zu halten. Manchmal kaufte er – wohl auch aus Langeweile – teure italienische Anzüge, Krawatten und Schuhe in dem einen “exklusiven Herrenmode-Geschäft,” das er kannte, und dabei kam ein erstaunlich sicherer Geschmack zum Vorschein, obwohl er die Anzüge kaum trug. Jugendlich aussehen zu wollen, vielleicht sogar etwas sonnengebräunt, war meinem Vater nicht fremd.

Zwischen heute Nachmittag und dem Termin in zwei Wochen, an dem der nächste Blog fertig sein soll, wird mein Geburtstag liegen, an dem ich, sagt meine Frau zurecht, in kindlicher Weise hänge (denn ich erinnere mich allzu gerne an den übersüßen Geschmack der Ananasschnitze aus der Konservendose als meinen Kindergeburtstags-Bonus). Gestern allerdings sagte mir Dr Peschak, ein eher junger kalifornischer Zahnarzt, der in Traunstein geboren ist, dass der Ersatz von zwei Zähnen nun zum ersten Mal wirklich unvermeidbar wird — und vielleicht hat diese Neuigkeit dem anstehenden siebenundsechzigsten Geburtstag einen unerwarteten Stellenwert gegeben. Mein Großvater war ja lange vor dem siebenundsechzigsten Geburtstag gestorben, und mein Vater muss an derselben Zeitstelle wohl geahnt haben, dass er nichts mehr zu tun hatte in und mit seinem Leben. Natürlich sind einige der Kontraste zwischen den späteren Jahren meines Großvaters und Vaters und meinem eigenen Alter jetzt im Juni 2015 individuell geprägt und mithin (“in einem größeren Zusammenhang”) zufällig. Doch zugleich geben mir solche Erinnerungen an die nächsten Vorfahren — neben dem vage erhebenden und auch erschreckenden Gefühl, zwischen ihnen und meinen Enkeln in einer schier unendlich biologisch-historischen Reihe zu stehen — auch den Eindruck, dass einige Schichten des Alterns von heute historisch besonders und wahrscheinlich sogar neu sind.

Gar nicht neu ist natürlich die nach philosophischen Lektüren antrainierte Möglichkeit des Versuchs, mir meinen eigenen Tod (in seiner “Jemeinigkeit,” wie Heidegger schrieb) vorzustellen, ein Versuch, der nie aufhört, manchmal dumpfe und manchmal auch helle Angst auszulösen. Vor genau dieser Angst schützte sich mein Vater durch Friedhofs-Begeisterung und mein Großvater durch Friedhofs-Verbote. Dass ich kein Handy habe, ist wohl nur halb so heroisch (und doppelt so normal,) wie ich mir gerne einrede: in Wirklichkeit markiert elektronische Technologie in meinem Leben die erste Entwicklung, mit der ich nicht Schritt halten wollte oder konnte (aber gibt es wirklich jenen “exponentiellen” Anstieg von Schwellen dieser Art, von dem man so oft liest?). Immerhin, denke ich, hat die elektronische Technik den Entschluss ausgelöst, mir wenigstens allzu schnelle Vor-Urteile gegenüber intellektuellen Innovationen zu verbieten (auf die es in meinem Beruf ja ankommt), obwohl ich verbissene Impulse dieser Art nicht selten spüre. Aber das ging meinem Vater nicht anders mit den damals neuesten Entwicklungen in seinem Metier.

Eher historisch neu ist wohl – trotz des jüngsten Zahnarzt-Bescheids – ein mir erstaunlicher Grad von Gesundheit (den ich auch noch für unverdient halte, weil ich nie die Geduld hatte, mich darum zu kümmern): jährliche kardiologische Tests mit den bisher immer gleichen beruhigenden Ergebnissen; noch keine altersgemäß zu erwartenden (und definitiv nicht aufzuschiebenden) urologischen Beschwerden; nach dem Tod meiner Mutter in fortgeschrittener Demenz eine Sorge um das Gedächtnis, für die es heute eine “Gedächtnis-Klinik” gibt, deren beruhigende Auskunft mich von obsessiv werdenden Selbst-Experimenten erlöste. Die zentrale individuelle – und auch soziale und demographische – Veränderung sind also jene zwei oder mehr weitgehend störungsfreien Jahrzehnte, die im zum Normalfall werdenden Glücksfall heute vor einem Siebenundsechzigjährigen liegen. Zwei Standard-Reaktionen haben sich herausgebildet.

Die eine will ich (in pseudo-jugendlicher Bemühung um maximale politische Inkorrektheit) “prostatisches Glück” nennen. Es ist uns allen vertraut aus einem sich derzeit schnell entwickelnden visuellen Gestus der Werbung, der gut erhaltene Paare auf der endlich möglich gewordenen Kreuzfahrt, in schicker Freizeitkleidung oder manchmal sogar in einer sehr milden Parkbank-Version von erotischer Ekstase zeigt. Eine neue Lebensform, muss man sagen, die aus mittelfristiger volkswirtschaftlicher Perspektive nur begrüßt werden kann, so sehr sie auch die gesellschaftlichen Versorgungssysteme zukünftiger Altersgenerationen aushöhlt. Doch mein Horror vor prostatischem Glück (ist er eine heimtückische Variante der Unfähigkeit, positiv auf Innovationen zu reagieren?), der Horror vor prostatischem Glück hat wohl weniger mit der Sorge um die Zukunft meiner Enkel zu tun als mit der schon immer Ungeduld auslösenden Furcht, sich erst dann “die schönen Seiten des Lebens gönnen zu dürfen,” wenn es für Intensität zu spät geworden ist.

Die schrille und schon längst zur Zielscheibe galliger Kulturkritik gewordene Alternative konkretisiert sich im Bestehen auf fortgesetzter und in der Utopie von ewiger Jugendlichkeit (oder gar Jugend), die sich in den Vereinigten Staaten wohl besonders raumfordernd verbreiten, wo durch einen Beschluss des Obersten Gerichtshofs alle verbindlichen Berufs-Altersgrenzen aufgehoben sind. Angeblich erlauben sich nur zehn Prozent der Kollegen an meiner Universität den Entschluss, mit der Lehre je definitiv aufzuhören. Gegen die banale und zugleich warnende Tatsache einer unaufhaltsam wachsenden Alters-Distanz von ihren Studenten halten sie an Selbst-Einschätzungen ihres pädagogischen Charismas (und auch ihrer intellektuellen Schärfe) fest, die mich an die romantischen Lieder vom – angeblich – immer besser werdendem Wein erinnern. Aber auch die europäischen Sozialsysteme schützen nicht vor der Illusion, dass man im Pensionsalter einen geistigen Zenith erreichen kann.

Das seit zwanzig Jahren immer vertrauter werdende und immer sonorer klingende Kompliment, dass ich nicht so alt aussehen soll, wie ich “nur nach Jahren” bin, ist mir zum Überdruss geworden. Könnte es nicht ein Ziel (oder mindestens eine Möglichkeit) werden, genau so alt zu sein, wie man ist – und immer weiter wird? Ich denke an einen inzwischen verstorbenen Kollegen, der meinem Vater kurz vor dessen Tod begegnete und mir von seiner Bewunderung für ihn als einem “würdigen Greis” schrieb. Die beiden Worte wirkten schon damals exzentrisch – und snd heute dazu verdammt, als Ironie aufgefasst zu werden. Was bedeutet, dass wir uns weiter weg bewegt haben von der Vorstellbarkeit einer Lebensform, die nicht versucht, das Alter durch seine Verleugnung von sich selbst zu erlösen.

Nach einer solchen, ganz anderen Lebensform beginne ich mich zu sehnen, ohne dass ich sie mir vorstellen kann. Gibt es eine lesenswerte Form zu schreiben etwa, die allein alte Autoren erreichen können, ohne “besser” sein zu wollen? Bis vor kurzem habe ich den Begriff des “Altersstils” ausschließlich mit einem Prozess nachlassender Kraft verbunden. Vielleicht aber kann die Rede von der möglichen “Würde” des Alters in unserer Vorstellung den Platz freihalten für eine späte Phase des Lebens, die wir in der Vergangenheit und in anderen Kulturen entdecken können, ohne noch ein Äquivalent in unserer Gegenwart gesehen zu haben.

06. Jun. 2015
von Hans Ulrich Gumbrecht

20
5711

     

23. Mai. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Literatur als Seelenwanderung?

8
3504
     

Literatur als Seelenwanderung?

Ausgezeichnet: Robert Musil gegen Ende des Ersten Weltkriegs© Literaturmuseum KlagenfurtAusgezeichnet: Robert Musil gegen Ende des Ersten Weltkriegs

„Seelenwanderung,“ das klingt nach jener bis heute nicht ganz abgeklungenen Tendenz der Intellektuellen des neunzehnten Jahrhunderts, ihre eigene Sehnsucht nach einer Einweihung in Geheimes und zugleich Überirdisches, wie sie die christliche Tradition nach der harschen Kritik der Aufklärung nicht mehr zu befriedigen schien, in geographisch oder proto-theologisch anderen Kulturen finden zu wollen, in asiatischen Zwischenwelten von Religion und Philosophie (Schopenhauer) etwa oder in Pantheismen mit pädagogischem Anspruch (unter denen Rudolf Steiners Variante bis heute erfolgreich geblieben ist – vor allem bei einer bestimmten Bildungs-Mittelschicht, die kulturell nicht weiter entfernt sein könnte von der Klientel der Scientology, obwohl sie ihr sozial-strukturell durchaus nahe ist). Solange allerdings der Begriff „Seele“ im Kompositum der „Seelenwanderung“ mit dem „Geist“ gleich- und vom „Körper“ abgesetzt wird, interessieren mich Spekulationen zu diesem Thema kaum, weil sie das Verhältnis zwischen dem Geist, der einen Körper sucht oder auch, hinduistisch und buddhistisch, der sich von der Bindung an einen Körper befreien oder erlösen will, weil sie das Verhältnis von Geistern und den Formen ihrer Verkörperungen beliebig lassen (anders gesagt: in den meisten Fällen solcher Spekulation hat die Identität eines Geistes keine Konsequenzen für die Form eines Körpers, in der er konkret wird).

Wenn wir aber, was die christliche Tradition eigentlich schon immer vorausgesetzt hat, unter dem Begriff der „Seele“ eine je besondere Verbindung von Geist und Körper verstehen (wie vor allem bei den zwei in der jüdisch-christlichen „Genesis“ von Gott erschaffenen Menschen), dann wird Seelen-Wanderung zur Reinkarnation (oder Wiederverkörperung), weil ja nun an das Wiedererscheinen eines Geistes in seiner besonderen Identität auch – wenigstens – Grund-Komponenten einer Identität der körperlichen Form gebunden sein müssen. In dieser Dimension von Seelenwanderung and Reinkarnation bewegen sich eigentlich schon all die endlosen – und heute in sympathischer Weise politisch-inkorrekten – Gespräche und Diskussionen über die Ähnlichkeiten zwischen verschiedenen Individuen innerhalb von Familien. Mein sechsundzwanzigjähriger Sohn ist Restaurant-Manager und sieht seinem überzeugt pantheistischen Großvater mütterlicherseits sehr ähnlich, der – ohne es zu wissen – aussah wie manche Hollywood-Schauspieler aus den fünfziger Jahren. Hat also auch mein überbietbar säkularer Sohn ein – noch nicht sichtbar gewordenes — spirituelles Potential wie sein Großvater? Ich selbst entwickele mich, wenn die alten Photos nicht täuschen, immer mehr zu einer physiognomischen Kopie meines 1960 verstorbenen Großvaters, der eine hierarchisch herausgehobene und durchaus einträgliche Rolle im Rotlicht-Distrikt einer Ruhrgebiets-Stadt spielte. Habe ich also existentielle und berufliche Möglichkeiten ungenutzt gelassen – und könnte ich sie vielleicht (über eine Generation hinweg) an meinen bald fünfjährigen Enkel Diego weitergegeben haben, der, wie ich manchmal zu meiner Freude höre, mir ähnlich sehen soll?

Solche Gedankenspiele mit der „Seele“ als Konvergenz von Körper und Geist haben wohl unvermeidlich — auch da, wo dies gar nicht bewusst wird — einen kosmologischen Horizont, der leicht in Religiosität umschlagen kann (ohne dass dies je notwendig wäre). Denn über den an Al Capone erinnernden Großvater und über meinen Clark Gable ähnlichen Sohn bin ich ja – sind wir – einerseits verbunden mit dem Beginn der Menschheit (und sogar ihren Vorgeschichten) und andererseits mit den Zukünften der Menschheit (oder ihrem möglichen Ende). Und nun hat mich vor wenigen Tagen mein Freund Jan Soeffner, ein kompetenter Literaturwissenschaftler „im besten Alter,“ mit der These überrascht, dass in dieser zweiten Bedeutung des Wortes, die eben Verbindung von Geist und Körper voraussetzt, auch unser Verhältnis zu literarischen Texten oft – und vielleicht sogar immer und systematisch – ein Verhältnis der Seelenwanderung ist.

*

Musil um 1930 am Schreibtisch© dpa Picture-AllianceMusil um 1930 am Schreibtisch

„Die meisten Menschen, die man auf Martin Scorseses Klassiker ‚Raging Bull’ anspricht,“ schreibt mir Jan, „denken mehr an Robert De Niro als an den Inhalt des Films. Sie denken an das Boxtraining, das er absolvierte, die Kämpfe, die er bestritt, den Boxstil, den er von Jake La Motta (dem darzustellenden Boxer) persönlich lernte, den Tonfall und die Körperhaltung, die er im Film einnahm und die darin sichtbar werdende Lebensart. All dies bleibt im Gedächtnis. Von der Handlung des Films weiß stattdessen kaum jemand etwas zu berichten, nicht einmal an die Dialoge erinnert man sich. Das Handwerk des Schauspielers hat hier etwas Markanteres hervorgebracht als die konzeptionelle Arbeit an diesem ‚Autorenfilm.’

Mit Literatur, denkt man zuerst, hat so etwas nicht viel zu tun. Denn dort soll es ja es um die Leserimagination gehen, nicht um schauspielerische Verkörperung. Doch der Sachverhalt ist komplizierter Ich denke zum Beispiel an Italo Svevo, einen italienischen Schriftsteller des frühen zwanzigsten Jahrhunderts. Für die Abfassung seines großen Romans ‚La Coscienza di Zeno’ (deutsch übersetzt als ‚Zeno Cosini’ oder ‚Zenos Gewissen’) übte er selbst seinen Protagonisten geradezu ein, statt ihn sich nur vorzustellen. So schrieb Svevo in einem Brief vom 17. Februar 1925 an den Dichter Eugenio Montale: ‚Ich nahm Zenos Art zu gehen an, rauchte wie er und spürte in meiner Vergangenheit all seine Abenteuer auf, die sich meinen eigenen angleichen ließen, einfach weil die Erinnerung an ein eigenes Abenteuer eine Rekonstruktion ist, die leicht zu einer völlig neuen Konstruktion wird, sobald man sie nur in eine andere Atmosphäre überträgt. Dadurch verliert sie auch nicht ihren Wert als Erinnerung und nicht einmal ihre Wehmut.’

Das Aufspüren der eigenen Erinnerungen zur Verkörperung eines anderen Charakters sollte später eine maßgebliche Technik des sogenannten ‚Method Acting’ werden, dem auch De Niro anhängt. Tatsächlich war Zeno für Svevo etwas Ähnliches wie La Motta für De Niro: nicht ein Subjekt, mit dem man sich identifizieren konnte, sondern eine Haltung, die es zu lernen und zu durchleben galt. Bald bekamen Svevos Schriftstellerkollegen diese Haltung zu spüren: Svevo wurde berüchtigt für jene Neigung zu schonungslosen ironischen Kommentaren, die man auch von seinem Romanhelden kennt. Er war ein guter Freund von James Joyce und eines der angeblichen Vorbilder für dessen fiktionalen ‚Ulysses’ mit dem Namen Leopold Bloom. Als Svevo sich daran machte, den Roman „Ulysses“ zu lesen, suchte er sich die Zeit aus, in der noch heute viele der Bewunderer von Joyce den ‚Bloomsday’ feiern, und holte dazu, wie er Joyce sofort mitteilte (Brief vom 10. Juni 1924), dessen Bruder Stanislaus zu sich. In seiner Gegenwart las er den Text ‚Kapitel für Kapitel in dem Versuch, ihn zu durchleben.’

Nicht nur im Schreiben, sondern auch beim Lesen vermied Svevo den Kurzschluss zwischen Imagination und Papier. Stattdessen schloss er stets die leibliche Haltung und ihr Umfeld mit ein. Das mag überraschen, weil der Roman von Joyce auf den Geist Blooms, auf sein Bewusstsein angelegt ist – und das war Svevo auch durchaus klar (die bessere Übersetzung seines eigenen Roman-Titels ist ‚Zenos Bewusstsein’). Außerdem scheint der ‚Ulysses’ ein Werk zu sein, das auf endlose Dechiffrierung hin angelegt ist — was von der Literaturwissenschaft mit mehreren Bibliotheken an Sekundärliteratur belohnt wurde. Dass es in der Lektüre stattdessen auf ein ‚Durchleben’ oder auch ein ‚Ausleben’ ankommen soll, scheint eine relativ exzentrische Haltung zu sein.

Dass ein solcher Vorgang durch reine Entzifferungsarbeit keinesfalls geleistet werden kann, ist offensichtlich. Ich selbst muss zum Beispiel gestehen, dass mir Robert Musils ‚Mann ohne Eigenschaften’ lange Zeit sehr überschätzt vorkam. Ich fand diesen Roman zu lang, zu umständlich, teilweise albern und manchmal unerträglich besserwisserisch. Doch dann kam ich auf die Idee, mir Musils Text in österreichischem Tonfall vorzulesen. Seither kann mir dieser Roman gar nicht lang genug sein – mit seiner großartigen intellektuellen Eleganz und unübertroffenen Komik, in der sich die klügsten Betrachtungen immer wieder überraschend ablösen. Den Unterschied machte keine neue ‚Erkenntnis‘ im engeren Sinn des Wortes. Der Roman hatte nur eine andere Haltung gefunden, die sich in der Stimme und ihrer Stimmung niederschlug, in unterschwelligen Gesten und – insgesamt sozusagen – in einer durchgehaltenen Motorik.

Einen solchen Lese-Vorgang möchte ich ‚Seelenwanderung’ nennen. Das Wort ‚Seele‘ ist dabei körperlich zu verstehen. Es geht mir um den Vorgang, wie Bücher verkörpert werden. Die Frage, wie man diesen Vorgang insgesamt vollzieht, ist mir wichtig, weil ich mir nicht vorstellen kann, dass ein im Text produzierter ‚Inhalt’ einfach als Haltung mit einem Mal in meinen Körper einfahren könnte. Körper müssen, glaube ich, erst einmal ausprobieren und lernen, scheitern und eine Richtung spüren und schließlich finden, bis sie es am Ende gelernt haben, sich an einen fremden Text anzuschmiegen (was natürlich nicht immer gelingt, weshalb jedem von uns viele große Texte ein Leben lang unzugänglich bleiben). Für diesen Vorgang scheint mir ‚Seele‘ das richtige Wort zu sein. Der Geist, wie wir in der Alltagssprache von ihm reden, denkt einmal dies und einmal jenes und kann sich reibungslos immer wieder neu erfinden. Einen Seelenwandel hingegen gibt es nicht von heute auf morgen. Er muss sich am Gelingen und Scheitern langsam abschleifen, bis er sicher und flüssig werden kann. Aber ist der Wandel einmal da, dann spürt man, dass der Geist sich nicht hätte vorstellen können, wie viel sich auf diese Weise ändert. Etwas Ähnliches gilt auch für den Moment der ‚literarischen Seelenwanderung’ im Unterschied zur Auslegung von Literatur. Sie vollzieht sich langsam und hat – in jedem einzelnen Fall – ganz im wörtlichen Sinn – ungeahnte Konsequenzen.

Will man die Macht der Seelenwanderung bewusst beim Lesen nutzen, so kommt man wohl nicht umhin, an den Autor zu denken. Das mittlerweile stramm auf die Sechzig zugehende literaturwissenschaftliche Motiv vom ‚Tod des Autors’ war der Seelenwanderung natürlich nicht förderlich. Dabei kam es von dem eigentlich sympathischen Anliegen, jene klebrige Weihe loszuwerden, welche etwa die deutsche Öffentlichkeit vor ein paar Wochen noch einmal beim Tod von Günter Grass überkam. Vergleichbares gibt es auch in der literaturwissenschaftlichen Welt, wo man ausgerechnet Michel Foucault und Roland Barthes – die maßgeblichen Ausrufer des Autorentods – zum Gegenstand jener Autorenverehrung gemacht hat, die sie bekämpft hatten. Kurz: die geistige Autorität des Autors hat sich vom eigenen Tod nicht sonderlich beeindrucken lassen. Einen intellektuellen Tod starb stattdessen der Körper des Autors. Seit vielen Jahrzehnten schon schreibt man überall dort, wo in ‚vorkritischer’ Zeit das Wort ‚Autor’ gestanden hatte, sehr differenziert und etwas beflissen von ‚Autorfunktionen,’ ,Textintentionen,’ ‚Textstrategien,’ oder ‚impliziten Autoren.’ Diese Begriffe sind komplex, präzis und vor allem konzeptuell sehr unterschiedlich. Was allein sie vereint, ist der Ausschluss der Autoren-Körpers.

Literarische Seelenwanderung aber braucht den Körper des Autors. Dabei geht es nicht um einen individuellen Körper. Der Tonfall, der mir den ‚Mann ohne Eigenschaften’ erschlossen hat, war nicht Musils eigener Tonfall, sondern derjenige eines Kollektivs. Autorenkörper sind relevant als Katalysatoren atmosphärischer und vielstimmiger Seelen. Die Seelenwanderung ruft kulturelles Gedächtnis wach. Nicht die Wissens-Seite dieses Gedächtnisses, für die der Begriff gemeinhin verwandt wird, sondern eine kollektive Variante dessen, was Psychologen das prozedurale Gedächtnis’ nennen, das Gedächtnis, welches Fertigkeiten, Gewohnheiten und Haltungen festhält. Erzählungen lassen verschiedene Seiten des kulturellen Gedächtnisses in den Vordergrund treten: das Wissen, die Fertigkeiten, die erinnerten Ereignisse und Personen, den besonderen Tonfall einer Kultur. Im Fall von ‚Raging Bull’ steht De Niros Haltung im Vordergrund, nicht die erzählte Handlung und ihre narrative Anordnung. Das scheint mir auch für die ‚Coscienza di Zeno’ zu gelten und, wer weiß, vielleicht sogar für den ‚Ulysses.’ Wer sich allein auf Textstrategien und Wissensanordnungen konzentriert, dem wird dies – und die Möglichkeit des Seelenwanderung — allerdings entgehen.“

*

Dieser Prozess einer „Seelenwanderung“ zwischen Leser und Autor, über den Jan Soeffner schreibt, unterscheidet sich auch von dem Verhältnis der „Identifikation“ zwischen Lesern und Protagonisten, auf das sich die Literaturwissenschaft bisher konzentriert hat (was natürlich kein Fehler war). Wenn wir uns mit einer wirklichen oder fiktionalen Person identifizieren, so nehmen wir mittels unserer Imagination den besonderen Ort ein, den diese Person besetzt. Im besten Fall der fiktionalen Identifikation löst dann unsere Imagination im eigenen Körper Reaktionen aus, welche sich nicht von den Reaktionen auf eine (der fiktionalen entsprechenden) wirklichen Situation unterscheiden. Unabhängig davon, ob es Appetit, erotische Faszination oder politische Erregung ist, welche eine vorgestellte Situation im Körper des Lesers auslöst, der Körper, an dessen Stelle der Leser sich mit seiner Imagination stellt, ist immer der Körper des Protagonisten.

So gesehen unterscheidet sich des Verhältnisses zwischen Leser und Autor als Seelenwanderung deutlich von der Beziehung zwischen Leser und Protagonisten als Identifikation. Nicht die vorgestellte Umwelt oder Situation des Autors spielt bei der Seelenwanderung die primäre Rolle, sondern der Körper des Autors oder der Autorin selbst. Die literarische Seelenwanderung ist – sozusagen – gelungen, wenn ein Leser Robert Musils eine Passage aus dem „Mann ohne Eigenschaften“ mit einem österreichischen (oder gar einem kärntnerischen) Akzent liest, das heißt, wenn der Leser – in einer physischen Dimension zumindest – zu Robert Musil wird. Oder auch: wer eine der in ihrer poetischen Form so komplexen und schönen Hymnen von Friedrich Hölderlin rezitiert, der ist – über gut zwei Jahrhunderte hinweg – mit Hölderlin in einer konkreten Weise verbunden, die dem physischen Verbundensein von zwei Tänzern ähnelt und die keinesfalls voraussetzt, dass derjenige, der rezitiert, irgendetwas von der historischen Situation weiß, in der Hölderlin lebte. Dies genau aber ist bei Identifikation – im Hinblick auf historische oder fiktionale Situationen – der Fall.

Die Entdeckung von Jan Soeffner konvergiert mit der Grund-Intuition der neuen permanenten Ausstellung im Marbacher Literatur-Museum, deren Katalog dem Wort „Seele“ eine besondere Sichtbarkeit gibt. Sie eröffnet eine Vielzahl von Fragen und Spekulatonen, die verschlossen blieben mussten, solange das persönliche und vor allem das körperliche Verhältnis der Leser zum Text allein über Identifikation und Protagonisten zu denken waren. Im Sinn der „literarischen Seelenwanderung“ kann man als Leser selbst einem Autor „nahe“ sein, dessen Weltanschauung man verabscheut. So genau sieht die Ambivalenz meiner Reaktion auf den französischen Romancier Louis-Ferdinand Céline aus, der mich mit dem Rhythmus seiner Prosa so sehr in Beschlag nimmt, wie mich seine exaltierte Sympathie aus den dreißiger und vierziger Jahren für den deutschen Nazismus abstößt. Was Balzac angeht, so bin ich mir nun endlich gewiss, dass meine Faszination für sein Werk mehr von der Präsenz seiner Person abhängt als von seinen Protagonisten. Vielleicht kann mir die Dimension der „Seelenwanderung“ am Ende sogar erklären, warum ich schon immer den Eindruck hatte, dass Dante – bei aller tatsächlich grenzenlosen Bewunderung – „nicht mein Typ von Autor“ ist, ohne dass ich mich dafür schuldig fühlen muss.

23. Mai. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Literatur als Seelenwanderung?

8
3504

     

09. Mai. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Die „führenden Verbrecher des zwanzigsten Jahrhunderts“ und ihre moralischen Werte

8
8396
     

Die „führenden Verbrecher des zwanzigsten Jahrhunderts“ und ihre moralischen Werte

Antworten auf eine bestimmte Art von Fragen, bündige Fragen vor allem, wird ein Intellektueller, der auf sich hält, eher verweigern, denn das gehört zu seinem Selbstbild als Teil einer Lebensform. Genau so ging es mir, als vor einigen Sonntagen beim Abendessen mit der Familie die Frage aufkam, wer wohl die “größten Verbrecher des zwanzigsten Jahrhunderts” (und der Weltgeschichte überhaupt) gewesen seien. Man verweist in solchen Situationen gerne – und eigentlich banalerweise – darauf, dass mögliche Antworten von den je zugrunde gelegten Kriterien, Werten oder Perspektiven abhängen und drückt sich so um ein Urteil, dessen eigentlicher Anlass ja gerade (und immer) solche Fragen oder Phänomene mit höheren Komplexitäts-Anforderungen sind. Im speziellen Fall der Frage nach den größten Verbrechern der jüngeren und fernen Vergangenheit lässt sich dann außerdem mit einem selbstzufriedenen Hauch moralischer Herablassung anmerken, dass schon der Gebrauch eines Begriffs wie “Verbrecher” problematische (und deshalb mindestens der Offenlegung bedürftige, man sagt auch gerne “substanzialistische”) Voraussetzungen impliziere – und schließt dann mit dem bequemsten aller intellektuellen Gemeinplätze, nach dem ohnehin “alles relativ” sein soll.

Doch die Frage faszinierte mich mehr, als ich zugeben wollte — eigenartigerweise wohl deshalb, weil schon vor allem Nachdenken und allen Relativierungs-Impulsen feststand, dass die Antwort “Hitler und Stalin — und zwar in dieser Reihenfolge” heißen musste, ohne dass sich irgendwelche Alternativen einstellten. Ergiebiger für das Abend-Gespräch waren aber zunächst chronologisch weit ausschweifende Assoziationen, die zu flamboyanteren, weil zumindest in Teilaspekten ambivalenten und auch deutlicher pathologisch scheinenden Protagonisten des Übels führen (falls man nicht in jener Engführung von Hoch-Moral und Logik, welche durchaus zersetzende Konsequenzen für die Rechtssysteme der Neuzeit gehabt hat, alle “Verbrechen” als Symptome für – Bestrafung aussetzende — “Pathologien” ansehen will). Typen wie der römische Kaiser Nero oder Heinrich VIII. von England finden Resonanz in jenen Schichten der Imagination, die erklären, warum Dantes “Inferno” literarisch so unvergleichlich eindrucksvoller ist als sein “Paradiso” oder das (übrigens erst von Dante auf Begriffe und Bilder gebrachte) “Fegefeuer.” Heinrich VIII. zumal gilt vielen Historikern als einer der grossen Monarchen aus der englischen Geschichte, und auch der junge Nero hatte nach seinem Regierungsantritt im Alter von siebzehn Jahren einige für die Ausdehnung des römischen Reichs und für die Konsolidierung des Imperiums als Regierungsform erstaunlich erfolgreiche Entscheidungen getroffen.

Sprichwörtlich sind Nero und Heinrich VIII. freilich geworden, weil sie eine Energie des Verbrechens zu verkörpern scheinen, die aus persönlicher Leidenschaft entstand und über die ihre Berater wie ihre eigene Vernunft mit immer blutigeren Konsequenzen die Kontrolle verloren. Dass grenzenlose sexuelle Begierde in beiden Fällen die treibende Passion war, dass die meisten Opfer Neros und Heinrichs deshalb individuelle Opfer waren und dass sie beide am Ende ihres Lebens von den (politischen und physischen) Folgen ihrer Maßlosigkeit eingeholt wurden (was wie die Andeutung einer aus der Transzendenz kommenden moralischen Bestrafung wirkt), dies alles hat sie zu ikonischen Gestalten der – stets Literatur-trächtigen – Individualität des Verbrechens gemacht.

Wenn mit Adolf Hitler und Josef Stalin Protagonisten eines ganz anderen psychischen Zuschnitts unsere Imagination des jüngst vergangenen Verbrechens beherrschen, so bestätigt sich darin die in wachsender chronologischer Distanz zur Gewissheit werdende Identifikation des zwanzigsten Jahrhunderts als “Zeitalter der Ideologien.” Seine Vorgeschichte kann man in einer knappen Sequenz von Tatsachen zusammenfassen. Da die Zeit um 1900 jenen historischen Einschnitt markiert, wo die christliche Religion in ihren verschiedenen Ausprägungen als kollektiv vorausgesetzter Rahmen des Alltags kollabiert war und wo zugleich die Philosophie ihre seit der Aufklärung anhaltende Bemühung aufgab, die Möglichkeit einer objektiven Welterfassung durch die menschliche Kognition zu erweisen, führte der von den Besiegten so sehr wie von seinen Siegern als existentielle Katastrophe erlebte Weltkrieg zu einer Sehnsucht nach neuen, bündigen Orientierungssystemen, die sich vielfach und explizit in der Hoffnung auf “neue Mythen” artikulierte.

Erst diese Sehnsucht ließ während zwanziger Jahre – zuerst in Italien und bald auch in anderen Ländern Europas — den Faschismus entstehen und gab dem schon früher als politisches Gedankensystem entwickelten Kommunismus den Status einer “Ideologie.” Im Gegensatz zu “Weltanschauungen” betonten Ideologien ihren absolute Kohärenz- und ihren unbegrenzten Gültigkeits-Anspruch als Systeme der Welterklärung, welche auf binären begrifflichen Unterscheidungen beruhten und diese Unterscheidungen mit extremen Wertkontrasten aufluden. Entscheidend war dabei, dass etwa die Kontraste zwischen der “jüdischen” und der “arischen Rasse” oder zwischen dem “Proletariat” und der “Bourgeoisie” nicht beim Typologischen stehenblieben, sondern aufgrund ihrer moralischen Wert-Aufladung eine Verpflichtung zur “Säuberung” der Welt vom jeweiligen Gegenprinzip enthielt — und mithin auch eine moralische Legitimation für alle Akte von Gewalt gegen die Verkörperungen der Gegenprinzipien.

Adolf Hitler und Josef Stalin inszenierten sich als Agenten dieses Moralismus, mit verschiedenen Intensitätsgraden vielleicht und mit dem einen – eher theoretischen als praktisch relevanten – Unterschied, dass im Kommunismus eine “Konversion” von der dem Proletariat feindlichen Klasse als prinzipiell möglich galt, während die Logik des Nazismus alle Distanznahmen vom Status der “nicht lebenswerten” Rassen oder Lebensformen ausschloss. In der Verkörperung solcher jeweils zentralen Werte wollten Hitler und Stalin asketisch wirken, ausschließlich auf ihre eine, zugleich transzendentale und in der Mitte des Volkes stehende Rolle als “Führer” konzentriert. Dies war der Grund, warum sie alle nicht-asketischen Aspekte ihres Privatlebens vor der Öffentlichkeit abschotten ließen (allein das Vegetariertum und die Tierliebe Hitlers wurden betont). Heute wissen wir, dass alle Gerüchte von wild ausschweifenden Lastern im Leben von Stalin und Hitler Projektionen einer Phantasie waren, die eigentlich zum Typus des durch persönliche Leidenschaften angetriebenen Verbrechers (im Stil von Nero und Heinrich VIII.) gehörten. In ihrer alltäglichen Wirklichkeit waren die Privatsphären der führenden Menschen-Monster des zwanzigsten Jahrhunderts erschütternd banal: Stalins und Hitlers erotische Beziehungen zogen sich ohne dramatische Steigerungen hin, und sie waren beide fasziniert von zeitgenössischen amerikanischen Filmproduktionen, die sie ihren Volks- und Klassen-Genossen natürlich vorenthielten: Stalin von Chaplin-Komödien und frühen Western, Hitler von den ersten Trickfilmen des Faschismus-Sympathisanten Walt Disney (ein Gespräch zwischen Adolf Hitler und Heinrich Himmler über den “tragischen Tod” von Bambis Mutter gehört zu meinen obsessiven Tagträumen).

Die Zahl der Opfer von Verbrechern dieses im zwanzigsten Jahrhundert dominierenden Typus war so unvergleichlich hoch, weil sie sich aus dem neuen Dispositiv einer Industrialisierung des Tötens ergab, das durch die jeweils neuesten technischen Möglichkeiten potenziert wurde (die “Gaskammern” der deutschen Konzentrationslager waren Ergebnis eines langen “Entwicklungsprozesses,” in dem auch ökologische Gesichtspunkte eine wichtige Rolle spielten). Es passte zum Bild der persönlichen Askese und Hygiene, dass die Diktatoren sich – von wenigen individuellen Ausnahmen abgesehen – auf Distanz von den Szenen körperlicher Grausamkeit hielten. Umgekehrt und retrospektiv ist es aus demselben Grund so schwierig (oder tatsächlich unmöglich), Schätzungen der Opfer-Zahlen in halbwegs präzise Angaben zu überführen (im Falle Stalins schwanken sie zwischen drei Millionen und sechzig Millionen). Denn aufgrund ihrer Distanz zu individuellen Szenen des Verbrechens kann bis heute jede Katastrophe, die sich während der Regierungszeiten von Stalin oder Hitler ereignete, als ein verdecktes Dispositiv in der Logik zur Eliminierung nicht lebenswerten Lebens gedeutet werden: möglicherweise ließ Stalins Regierung Missernten der frühen dreißiger Jahre zu Hungersnöten werden, um die Zwangskollektivierung der Bauern voranzutreiben, und vielleicht war der deutsche “Volkssturm” am Ende des Zweiten Weltkriegs ein Versuch, schließlich auch die deutsche Rasse auszulöschen, weil sie die auf physische “Überlegenheit” gesetzten Hoffnungen ihres “Führers” enttäuscht hatte.

Strukturell gesehen waren die Herrschaft von Mao-Tse Tung über China und von Pol Pot über Kambodscha späte Varianten desselben Modells – mit einer signifikanten Variante. Sowohl Mao-Tse Tung wie Pol Pot stellten an bestimmten Momenten ihrer Karriere die Industrialisierung des Tötens auf einen von ihnen nur noch ausgelösten, aber demonstrativ nicht mehr kontrollierten autopoetischen Prozess um, indem sie die Macht und die Gewalt der inneren “Reinigungen” an “Rote Garden” (in China) und an die Volksmiliz der “Roten Kmer” (in Kambodscha) übertrugen. Dadurch gewannen sie eine Aura pseudo-demokratischer Legitimität, setzen millionenfache Energie persönlicher Grausamkeit frei und trieben die Zahlen der Opfer selbst über das Maß von Hitler und Stalin hinaus. Konstant aber blieben die Verankerung des Tötens in der Logik einer binären Moral und die asketische Selbststilisierung der führenden Verbrecher.

Trotz ihres emblematischen Status für das zwanzigste Jahrhundert hatten Adolf Hitler und Josef Stalin natürlich auch ihre historischen Vorgänger. Der blaulippig “tugendreiche” und “unbestechliche” Maximilien de Robespierre, der sich in der frühen Phase der Französischen Revolution für die Abschaffung der Todesstrafe engagiert hatte und bei einem Schreiner in Untermiete wohnte, als er wenige Jahre später mit seinen politischen Strategien die Guillotine-Dynamik des seriellen Tötens von allen Restriktionen durch das Rechtssystem freisetzte — und an die kollektiven Impulse der unterprivilegierten Sansculotten delegierte, der blaulippige Robespierre ist wohl der prominenteste unter ihnen. Dass er dem Willen eines Gotts der Vernunft und der Tugend zur Realisierung verhelfen wollte, stand für Robespierre ebenso außer Frage wie mehr als dreitausend Jahre zuvor für den Pharao Echnaton, der alle an “die alten Götter” erinnernden Zeichen und Inschriften ausmeißeln ließ, um sein Reich allein dem einen liebenden Sonnengott zu weihen.

Zum Glück sind für uns Zeitgenossen des fortschreitenden einundzwanzigsten Jahrhunderts – beinahe global anscheinend – schon die bloße Vorstellung und Erinnerung schwer nachvollziehbar geworden, dass noch vor wenigen Jahrzehnten Verbrecher wie Hitler oder Stalin, Mao-Tse Tung oder Pol Pot im Namen ihrer Moralsysteme eine ekstatischen Begierde der Gefolgschaft freisetzen konnten. Berechtigt uns diese affektive Distanz zu der Hoffnung, dass wir für immer gegen diese Begierde immunisiert sind? Sollte die Hoffnung je in Gewissheit umschlagen, dann wäre sie naiv und gefährlich. Fürs erste allerdings scheint der gefährliche Rückfall von einer eigenartigen strukturellen Umkehrung blockiert. Moralistische Prinzipienreiterei ist heute – mehr denn je vielleicht – zu einer individuellen Leidenschaft geworden. Und solange die fundamentalen Werte der Individuen in hinreichend viele zentrifugale Richtungen streben, neutralisieren sie sich wechselseitig.

09. Mai. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Die „führenden Verbrecher des zwanzigsten Jahrhunderts“ und ihre moralischen Werte

8
8396

     

25. Apr. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für „Herrlich volklicher Wille.“ Was zeigt sich in Heideggers „Schwarzen Heften“?

20
13253
     

„Herrlich volklicher Wille.“ Was zeigt sich in Heideggers „Schwarzen Heften“?

Offenbar nur wenige Tage nach dem vom Nationalsozialismus zum Tag der “Machtergreifung” erhobenen 30. Januar 1933 notierte Martin Heidegger, seinerseits ergriffen: “Ein herrlich volklicher Wille steht hinein in ein großes Weltdunkel.” Kritische Reaktionen, die noch an die deutsche Öffentlichkeit gelangen konnten, identifizierte Heidegger als Teil einer Vergangenheit, deren Gegenwart ihn an eine Kloake erinnerte: “Die ganze Verkommenheit des abfließenden Zeitalters zeigt sich darin, dass es nichts weiter als Gegenbewegung noch auszulösen vermag als das dilettantische Gerede und Getöse der ‘politischen Wissenschaft.’” Ganz selbstverständlich ging er davon aus, dass dieser “unvergleichbare” Moment auch der deutschen Philosophie – und also ihm selbst – eine historische Rolle zuweisen musste: “Die Unvergleichbarkeit der Weltstunde, deren Schlagraum die deutsche Philosophie zum Erklingen bringen soll” (“Schlagraum” steht im Allemannischen für ein zum Abholzen durch einen Haushalt abgegrenztes Stück Wald).

Heidegger jedenfalls sah in den Ereignissen vom Beginn des Jahres 1933 erste Antworten auf eine von ihm mit rhetorischem Pomp beschriebene Frage. Das war nicht wirklich die Frage, ob “wir es vermögen, zu erfahren und zu erfragen, welcher Vorrang unserem Volk vom Schicksal zugemessen ist,” für die er — in einer komprimierten Beschreibungsformel seiner eigenen philosophischen Position — die Antwort parat hatte: es sei die dem deutschen Volk vom Schicksal zugewiesene Aufgabe, die “Ausgesetztheit in das Seiende (Geworfenheit) anfänglich aufzunehmen und in ihre harte Vereinzelung und fragende Klarheit umzugestalten!!” Heideggers eigentliche, weil auch für ihn offene Frage richtete sich auf die “Schicksalsbereitschaft” (ein Wort, das er damals gerne gebrauchte) dieses Volkes und seiner Philosophen, darauf also, ob sie “die Kraft” fänden, “zurückzutreten in die Bereitschaft und Bereitung der bildenden Würdigung dieser Würde des Volkes und des Ausbaus seines Ranges, in den es einrücken soll.” Mit anderen, etwas schlankeren und weniger verwirrenden Worten, die Heideggers Überheblichkeit in der Vordergrund rücken: das ganze Schicksal der Nation sollte von ihrer Bereitschaft und Fähigkeit abhängen, seine eigenen Denk-Impulse aufzunehmen und zu der für sie angeblich bestimmten Größe auszuarbeiten.

Eine kurze Reflexion über “Die Deutschen” aus jenen Wochen zeigt, dass Heidegger Grund zum Zweifel an der Schicksalsbereitschaft seiner Nation sah angesichts einer “bodenlosen Ungeduld gegenüber allem Zurückfinden in ein wesentliches Wachstum.” Deshalb setzte er – nach dem Eindruck seiner Notizen tatsächlich bloß für wenige Wochen – alle Hoffnung auf Adolf Hitler: “Die große Erfahrung und Beglückung, dass der Führer eine neue Wirklichkeit erweckt hat, die unserem Denken die rechte Bahn und Stoßkraft gibt. Sonst wäre es bei aller Gründlichkeit doch in sich verloren geblieben und hätte nur schwer zur Wirkung hingefunden.” Wenige Tage bevor Heidegger am 1. Mai 1933 der NSDAP beitrat, hatte er das Rektoren-Amt der Universität Freiburg übernommen, gegen ein inneres Widerstreben, das wohl nicht gespielt war – und wahrscheinlich durch den Eindruck von Hitlers Charisma überwunden wurde: “Bedrängt zur Übernahme des Rektorats handle ich das erste Mal gegen die innerste Stimme. Ich werde in diesem Amt, wenn es hoch kommt, allenfalls dieses oder jenes verhüten können. Für den Aufbau – gesetzt, dass er überhaupt noch möglich ist – fehlen die Menschen.”

All diese Heidegger-Zitate stammen aus den vierunddreißig sogenannten “Schwarzen Heften,” welche in drei Bänden der Gesamtausgabe während des vergangenen Jahres zum ersten Mal publiziert wurden und sowohl unter Spezialisten als auch in der gebildeten Öffentlichkeit mehrerer Länder erhebliche Unruhe hervorgerufen haben. Sie enthalten um 1930 einsetzende, aber im einzelnen nicht datierte Notizen aus gut vierzig Jahren, die Heidegger offenbar im Blick auf eine Buch-Erscheinung bearbeitet und Mitte der siebziger Jahre als Teil seines Vorlasses an das Deutsche Literaturarchiv in Marbach hatte übergeben lassen. Mit den für ihn so typischen Tönen des Raunens hat er die Aufzeichnungen mehrfach beschrieben, etwa als “Versuche des einfachen Nennens” und vor allem als Veranschaulichung der Art und Weise, wie er ins philosophische Fragen gekommen sei. Es kann jedenfalls keinen Zweifel an der Einschätzung geben, dass Heidegger diese Hefte für intellektuell bedeutsam hielt – was mich angesichts ihrer durchgängigen Banalität nicht bloß überrascht, sondern wirklich erschrocken hat.

Und doch sind jene Reaktionen ihrerseits erstaunlich, die nach einer mittlerweile fast rhythmisch wirkenden Reihe von Heidegger-Skandalen nun erneut die Faszination des Philosophen für den Nationalsozialismus entdecken. Denn verändert hat sich die Lage ja nur insofern, als sich auf Grund der “Schwarzen Hefte” die Geschichte dieser Faszination jetzt geradezu mikroskopisch nachvollziehen lässt. Doch Heideggers Nähe zur nationalsozialistischen Bewegung stand seit 1933 nie in Frage, weshalb auch davon auszugehen war, dass er ihre Ideologie und deren Motive teilte. Auf diese historische Faktenlage konnte man schon immer und kann man noch heute – durchaus plausibel – entweder mit dem Entschluss reagieren, Heideggers philosophisches Werk zu ignorieren, oder mit der Bereitschaft, offen zu sein für eine Revision der Einschätzung seiner Bedeutung.

Die “Schwarzen Hefte” bestätigen so ziemlich alles, was über jene Dimension in Martin Heideggers intellektueller Biographie schon immer anzunehmen und auch zu befürchten war. Überraschend ist allein die wie gesagt verheerende denkerische Qualität dieser Notizen. Im Lauf der Nazi-Jahre zeigt sich nach einer kurzen Phase der Begeisterung und der Hoffnung, bei der “Erneuerung Deutschlands” eine entscheidende Rolle spielen zu dürfen, die wachsende Enttäuschung Heideggers über einen vom Pfad seiner Erwartungen abkommenden Nationalsozialismus, welche sich auf der persönlichen Ebene, wie es ein amerikanischer Kommentar treffend beschrieb, zu einer “rhapsody in resentment” und zu den schrillsten Tönen akademischen Standesdünkels steigert. Zunächst steht ein erwartbares Repertoire von positiven Begriffen und Motiven im Vordergrund: die hierarchische Komplementarität von “Führen und Folgen,” “Schicksalsbereitschaft,” “Entschlossenheit,” “Härte,” “Arbeitsfreude,” die Dynamik eines “Nach vorne” und vor allem immer wieder das Bestehen auf eine vielversprechende “Stimmung.” Aber bald schon dominieren ein Crescendo der Herablassung gegenüber Kollegen, denen die NSDAP mehr Aufmerksamkeit schenkte als Heidegger, und — unter dem allgegenwärtigen Wort der “Machenschaften” – das laute Lamentieren über eine Reihe von Tendenzen und Phänomenen, die Heidegger als Symptome eines allgemeinen Niedergangs ansah. Zu ihnen gehörten “Amerikanismus,” “Pazifismus” und natürlich “Liberalismus,” aber auch das “Boxen,” das “Kino” und das “Radio,” das er “idiotisch” nannte, um ihm eine seiner sprachwissenschaftlich fast immer dubiosen etymologischen Spielereien zu widmen.

Bemerkungen derselben Tonlage über “das Judentum” sind eher selten in den “Schwarzen Heften” und entsprechen dem antisemitischen Standard proto-faschistischer intellektueller Kreise im ersten Drittel des zwanzigsten Jahrhundert, wie ihn am bündigsten wohl Oswald Spengler in seiner Geschichtsspekulation über den “Untergang des Abendlandes” artikulierte. Für Spengler wie Heidegger hatte die “zeitweilige Machtsteigerung des Judentums darin ihren Grund, dass die Metaphysik des Abendlandes, zumal in ihrer neuzeitlichen Entfaltung, die Ansatzstelle bot für das Sichbreitmachen einer sonst leeren Rationalität und Rechenfähigkeit, die sich auf solchem Weg eine Unterkunft im ‘Geist’ verschaffte.” Einmal in Schwung subsumierte Heidegger auch die “phänomenologische Betrachtung” seines Lehrers Edmund Husserl unter jenem Gemeinplatz von der “leeren Rationalität” und sprach Husserls Philosophie deshalb das Potential ab, je “in die Bezirke wesentlicher Entscheidungen zu reichen.” Inmitten dieses Ozeans aus vielfach Ressentiment-geladener Banalität ohne Argumente, Intuitionen oder Variationen ist man als Leser beinahe überrascht, dass Heidegger das Wort “Rasse” meist mit Anführungszeichen verwendet. Deutlich auf die vom deutschen Staat und seiner Partei damals verbreitete “Rassen-Theorie” anspielend kritisierte er tatsächlich ihre Absolut-Setzung (was freilich bei einem Eintrag in ein privates Notizbuch keinen besonderen Mut forderte) – und beeilte sich zugleich doch, die grundsätzliche Bedeutung dieses ideologischen Horizonts zu unterstreichen: “Rasse – was eine notwendige und sich unmittelbar aussprechende Bedingung des geschichtlichen Daseins ist (Geworfenheit), das wird zur einzigen und hinreichenden nicht nur verfälscht – sondern zugleich als das, worüber gesprochen wird (sic!). Der ‘Intellektualismus’ dieser Haltung, das Unvermögen zu scheiden zwischen rassischer Erziehung und Theoretisieren über Rasse. Eine Bedingung wird zum Unbedingten aufgesteigert.”

Wir Leser Heideggers haben längst die bittere Realisierung hinter uns, dass all seine kritischen Bemerkungen über die “Nationale Bewegung” und ihre Ideologie-politischen Entscheidungen zusammen mit dem immer nur wachsenden Ressentiment ihn nie zu einer dezidierter Distanznahme oder gar zu einem Ansatz der Selbstkritik gelangen ließen – nicht einmal in den einunddreißig Jahren zwischen dem Ende des Zweiten Weltkriegs und seinem Tod. Heideggers Selbst- und Sendungs-Bewusstsein blieb trotz aller internen Niederlagen und gefühlten “Erniedrigungen” in den Jahren zwischen 1933 und 1945 ungebrochen: “Seit Jahren weiss ich mich in der Arbeit der Wissenserziehung auf dem rechten Wege und muss es ablehnen, durch das alberne Gerede vom ‘neuen’ Wissenschaftsbegriff von seiten grüner Jungen mich belehren zu lassen.” Wo dieses nachhaltige Selbstbewusstsein ab und an in hyperbolische Amplituden schnellt, sorgt es innerhalb einer Lektüre, die nie den Eindruck von Peinlichkeit überwindet, für Höhepunkte jenseits der Grenze zum unfreiwillig Komischen. So etwa in einem Gedanken, der ebenso feierlich wie vielversprechend als “Spiel und Unheimlichkeit historischer Zeitrechnungszahlen im Vordergrund der abgründigen deutschen Geschichte” überschrieben ist. Dort will Heidegger die aus seiner Sicht einschneidenden Momente in der deutschen Geschichte des neunzehnten Jahrhunderts markieren. Er setzt ein mit dem Beginn von Hölderlins Wahnsinn (“Hölderlin geht weg”) und dem Einsetzen einer nationalen Romantik (“deutsche Sammlung”) im Jahr 1806, fährt fort mit dem Jahr 1813 (“Der deutsche Anlauf erreicht seine Höhe und Richard Wagner wird geboren”), Hölderlins Tod und Nietzsches Geburt (1843/1844), mehreren Werken Nietzsches, dem Tod von Richard Wagner (1883), “Nietzsches Euphorie” vor dem Zusammenbruch” (1883) – um am Ende, nach zwei Gedankenstrichen und in Klammern, zielsicher beim Datum seiner eigenen Geburt zu landen: ”(26.9.1889).”

Aber was zeigt sich – neben solch leider unvergesslichen Stellen – auf den vielen hundert Seiten von Heideggers “Schwarzen Heften”? Im Hinblick auf die Inhalte, “Werte” und Vorurteile, meine ich, genau das, was ausgehend vom biographischen Vorwissen anzunehmen war. Sollte es also noch jemanden gegeben haben, der sich Illusionen über einen nicht wirklich vom Nationalsozialismus verführten und durchdrungenen Heidegger machte, so muss er jetzt verstummen. Überraschend und schmerzvoll ist hingegen seit der Veröffentlichung der “Schwarzen Hefte” — für alle, die Heidegger mit philosophischem Gewinn gelesen zu haben glauben — die durch nichts zu rettende Banalität seiner Notizen (zumal wir – wie schon erwähnt — wissen, dass ihm an ihrer Veröffentlichung so sehr lag). Muss diese Enttäuschung nun zum Beginn einer Abwertung aller anderen Heidegger-Texte werden? In ihrer Struktur, denke ich, bleibt diese Frage der früheren Frage nach den Konsequenzen ähnlich, die man angesichts der Fakten in Heideggers Leben zwischen 1933 und 1945 ziehen sollte. Eine Distanznahme ist plausibel — doch die Banalität der “Schwarzen Hefte” löscht nicht grundsätzlich die Bedeutung von Texten wie “Sein und Zeit, “Grundbegriffe der Metaphysik,” oder dem “Humanismusbrief.” Ihre inspirierende Kraft hat sich längst bewährt – und ist grundsätzlich ja sogar unabhängig von der Qualität der Gedanken in Heideggers Bewusstsein, die ihrer Entstehung vorausgegangen sein und sie begleitet haben müssen.

Bleibt die Frage, wie man den eklatanten Qualitätsunterschied zwischen den “Schwarzen Heften” und Heideggers anders ausgearbeiteten Schriften aus der Zeit von 1930 (dem Beginn der “Hefte”) bis zu seinem Tod (1976) erklären soll. Den meisten der bedeutenden Texte liegen Vorlesungen oder Vorträge zugrunde, die Heidegger – stets thematisch gut vorbereitet und konzentriert, aber auch in einem besonderen und fast immer berechtigten Vertrauen auf momentane Intuitionen – gehalten hat. Zu diesem Vortragsstil gehörte ein spezifisch dramatisierender Gestus, der beim Philosophieren unablässig auf die Möglichkeit eines anstehenden Durchbruchs im Denken und auf die damit verbundenen “Gefahren” verwies. Manchmal habe ich bei der Lektüre von Heidegger-Texten aus der Zeit nach 1930 den Eindruck, dass genau dieser Gestus des Vortragens und der Selbst-Inszenierung eine Vorläufer-Struktur für das Motiv vom “Wahrheits-Ereignis” als “Selbst-Entbergung des Seins” war (demzufolge es unmöglich sein sollte, den — potentiell das Dasein der Menschen bedrohenden — Augenblick der Selbstentbergung zu kontrollieren).

Der auf ein Publikum angewiesene Gestus seiner Selbstinszienierung jedenfalls scheint Heidegger inspiriert und sein Denken agil gemacht zu haben. Beim Schreiben persönlicher Notizen fiel diese für ihn anscheinend so wichtige Rahmenbedingung des Denkens aus, um seine Intuitionen in der Banalität von unendlich wiederholten, reaktionären Kalendersprüchen ersticken zu lassen. Und ein Autor von geschliffenen Sentenzen und Aphorismen, wie sie nur in der Einsamkeit des Schreibtisches entstehen, ist Martin Heidegger nie gewesen.

25. Apr. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für „Herrlich volklicher Wille.“ Was zeigt sich in Heideggers „Schwarzen Heften“?

20
13253

     

11. Apr. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Kalte Medien und die Intensität des Stadions

10
3225
     

Kalte Medien und die Intensität des Stadions

Dass man derart frieren kann in Kalifornien wie am Abend des letzten 30. Dezember, hatte ich fünfundzwanzig Jahre lang nicht wahrgenommen. Während dieser Tage finden die sogenannten “Bowl Games” im College Football statt, für die sich nach einem unendlich komplizierten System die besten Teams jeder Saison qualifizieren. Stanford, die Mannschaft meines Herzens, traf auf die University of Maryland und hatte das Glück, zu einem Beinahe-Heimspiel ausgelost zu werden (nicht einmal das Wort “auslosen” trifft genau den entsprechenden Sachverhalt), weniger als zwanzig Meilen vom eigenen Campus entfernt, im neuen Levis-Stadium der San Francisco 49ers aus der (professionellen) “National Football League.” Architektonisch gesehen repräsentiert das am Beginn der vergangenen Saison eingeweihte Levis-Stadium trotz all des Silicon Valley-Kapitals, an dessen Schnittstelle es gebaut ist, nicht mehr als Gegenwarts-Standard – und muss deshalb als eine vertane Gelegenheit gelten. Zu diesem Standard gehören Sektionen mit relativ niedrigen Tribünen an den beiden schmalen Enden, die offenbar an heißen Spätsommer-Tagen, zu Beginn der Spielzeit, eine frische Brise anziehen sollen. Doch an jenem kalten Dezember-Abend war das beinahe ausverkaufte Stadion nicht einmal halb gefüllt, und statt der angenehmen Sommer-Brise wehte ein schneidender Wind, der sich in einer sonst vom Wechsel der Jahreszeiten beinahe verschonten Gegend besonders gnadenlos anfühlte – und es selbst für sonst bedingungslose Fans einfach unmöglich machte, die gut dreieinhalb Stunden Spiel-Dauer im Freien auszuhalten, zum Beispiel hinter der Stanford-Band, deren Mitglieder während der Spielunterbrechungen sich gerade noch selbst warm spielten — aber gewiss nicht die Zuschauer.

Zur Halbzeit gab es keine Überlebens-Alternative mehr zu dem Versuch, um einen heftigen Preis Karten für die “Corporate Section” im Stadion zu kaufen, wo man in angenehmer Wärme zwischen unzähligen Bars und Buffet-Tischen das Spiel durch ein Fenster oder an den allgegenwärtigen Bildschirmen verfolgen konnte. Dies jedenfalls war meine zur Utopie quellende Hoffnung während der fast zwei Stunden in eisiger Kälte gewesen. Doch während die wenigen Fans im Freien angesichts des sich angenehm entwickelnden Ergebnisses zu kleinen Gruppen von immerhin halbwegs wärmender Euphorie zusammengerückt waren, schien das Spiel von der “Corporate Section” nun plötzlich in eine affektive Ferne gerückt, welche Konzentration noch unmöglicher machte als die Kälte. Über Gott und die Welt unterhielten sich die vermeintlichen Zuschauer dort, standen an für einen Whiskey on the Rocks und dann für den nächsten Hot Dog, um sich ab und an auch nach dem Spielstand zu erkundigen, ohne stets eine korrekte Antwort zu bekommen. Das sportliche Ereignis war an die Peripherie der Aufmerksamkeit gedrängt, um von ihrem Gegenstand zum bloßen Anlass für eine fluide, vielleicht ja sogar spezifische Form von Geselligkeit zu werden. Zugleich hatte sich meine Frustration verdoppelt: nicht nur vermisste ich den mich sonst ins Stadion lockenden Eindruck, Teil eines kollektiven Fan-Körpers zu sein; es wurde mir auch zum ersten Mal unverrückbar deutlich, dass ich zu alt geworden war für eine neue Form zentrifugaler Aufmerksamkeit, in die meine Kinder und meine Frau ganz ohne Probleme eintauchten.

Natürlich kann ich nicht umhin, die neue Modalität des Zuschauens, der sehr wohl die Zukunft gehören mag, als Ergebnis einer Dekadenz-Bewegung anzusehen. Doch ganz unabhängig von negativen oder positiven Reaktionen — wie lässt sich diese Entwicklung erklären, was sind die Gründe, welche eine neue Art von Aufmerksamkeit – vielleicht ja nicht allein in der Welt des Zuschauersports – so zentral gemacht haben? Dass uns die Frage prinzipiell in den Kontext der Mediengeschichte führt, wird zumal in Deutschland, wo die intellektuelle Medien-Faszination längst universal geworden ist, niemanden überraschen. Genauer aber mag der gewandelte Status des Sports für seine Zuschauer in der Frühgeschichte des Fernsehens angelegt gewesen sein.

Das erste regelmäßige Fernsehprogramm war 1935 in Deutschland eingerichtet worden, und schon die leichtathletischen Wettbewerbe der Olympischen Spiele von 1936 wurden von ihm übertragen. Doch auf diese Prestige-Erfolge der Nazi-Regierung folgten – national und international – fünfzehn Jahre der pragmatischen Ungewissheit und des Desinteresses. Es war, als sei die technische Realisierung des damals neuen Mediums, das während der zwanziger Jahre auf eine breite Wellenlänge populärer Imagination getroffen war, am Ende zu spät gekommen. Erst in den späten vierziger Jahren begann das Fernsehen dann schnell an Beliebtheit zu gewinnen – und zwar vor allem mit der Übernahme und dem Ausbau von zwei Gattungen, die zuvor im Radio große Erfolge gefeiert hatten. Das waren Quiz-Sendungen und Familien-Serien (nach dem Muster von “Father Knows Best,” in deutscher Übersetzung: “Vater ist der Beste,” bald dann national angeignet durch die Fernseh-Familien der norddeutschen Schölermanns und der hessischen Hesselbachs).

Woody Allens großartiger Film von den “Radio Days” der vierziger Jahre macht deutlich, dass sich dieses Medium schon lange vor seiner Konkurrenz mit dem Fernsehen an der Peripherie des Alltags etabliert hatte. Man hörte Radio neben der alltäglichen Arbeit und neben der Freizeit – und konzentrierte sich nur gelegentlich exklusiv auf seine Musik oder seine Wort-Inhalte. Erfolgreich war das Radio als ein “kaltes Medium,” als ein Medium, das zugleich mit den Alltagsbeschäftigungen lief – im Gegensatz zu den “heißen Medien” des Theaters und des Kinos, welche in verdunkelten Räumen die ausschließliche Aufmerksamkeit ihrer Zuschauer forderten. Diese grundlegende Typologie erklärt, warum sich – zumal in den fünfziger Jahren – eine wechselseitige Offenheit zwischen Broadway und Hollywood einspielte (die Karriere von Marlon Brando etwa setzte ein mit der Bühnenversion von Tennessee Williams’ Drama “A Streetcar Named Desire” und fand ihre Fortsetzung in der Verfilmung desselben Stücks), während auf der anderen Seite ja gerade die Übernahme von ursprünglich typischen Gattungen des peripheren Mediums “Radio” das Fernsehen auf seine Erfolgsspur brachte.

Mit solcher Deutlichkeit lassen sich divergente mediengeschichtliche Entwicklungen allerdings erst in der langfristigen Retrospektive ausmachen. Ich erinnere mich, wie wir im Haus meines Großvaters, der sich schon in den frühen fünfziger Jahren ein “Fernsehgerät” angeschafft hatte (weil sein Arzt ihm dazu – heute unbegreiflicherweise — als therapeutische Maßnahme angesichts seiner Herz-Beschwerden geraten hatte) die Wohnzimmerfenster eine Viertelstunde vor Beginn der täglichen Sendezeit verdunkelten, zehn vor fünf am Nachmittag (zur “Fröhlichen Turnstunde mit Adalbert Dickhut”), um uns dann wie im Kino auf Stuhlreihen vor dem Bildschirm zu versammeln. Bei den Weltmeisterschafts- oder frühen “Europa Cup”-Spielen jener Zeit füllte sich der Raum mit mehr oder weniger eingeladenen Gästen, die Bier aus der Flasche tranken, über neunzig Minuten kaum miteinander sprachen und sich nur bei Toren der eigenen Mannschaft – wie Stadionzuschauer damals – in die Arme fielen. Das frühe Fernsehen war Stadion, Kino und Bühne zugleich, und an einem typischen Samstagabend baten meine Eltern ihre Freunde zu Hawaii-Toast, Sekt mir Orangensaft und den beliebten Sendungen von Peter Frankenfeld oder Hans-Joachim Kulenkampff.

Niemand verließ damals das Stadion vor dem Abpfiff eines Spiels oder dem Ende eines Wettbewerbs, und live-Übertragungen waren selten, weil man davon ausging, dass sie unvermeidlich die Zahl der Zuschauer auf den Tribünen reduzieren müssten. Es war noch ein langer Weg hin zur Allgegenwart der Bildschirme in der privaten und öffentlichen Sphäre und bis zur Ausdifferenzierung des Fernsehens als einem prinzipiell “kalten Medium,” das – gerade von seiner peripheren Position – das Interesse an der ganz anderen Intensität eines Stadionbesuchs wecken und so seine Tribünen füllen konnte. Dieses komplementäre Verhältnis zwischen dem Fernsehen als kaltem und dem Stadion als heißem Medium dominierte dann, meine ich, in den letzten Jahrzehnten des zwanzigsten Jahrhunderts. Mittlerweile aber ist das Stadion – nicht nur das Levis-Stadium der San Francisco 49ers – zu einem Ort geworden, wo eine wachsend periphere, wahrscheinlich von der Habitualisierung des Fernsehens kommende Einstellung und eine (vielleicht ebenfalls wachsend) intensive Zuschauer-Partizipation nebeneinander existieren. Der Nachmittag oder der Abend in den VIP-Zonen vollzieht sich immer mehr zwischen den Lounges mit ihren Bars und Buffets und einer eher distanzierten Aufmerksamkeit auf das Spiel, welche oft in den laufenden Kommentar eines Gesprächs mit dem Sitz-Nachbarn mündet. Auf den billigeren (aber beileibe nicht billigen) Plätzen hingegen, die nur noch selten Stehplätze sind, versammeln sich Zuschauer, für die ihre Stadion-Zeit zum existentiellen Gegenpol eines Lebens in vielfacher medialer Zerstreuung wird. Wer nicht privilegiert genug ist, um Konzentration und Leidenschaft im Beruf zu finden, der kann solche Dimensionen des Erlebens als Teil eines kollektiven Fan-Körpers im Stadion suchen – aber zunehmend auch beim Public Viewing, wo für viele das Spiel selbst im Verhältnis zum Kollektiv-Erleben so marginal geworden ist, wie, aus ganz anderen Gründen, in der “Corporate Lounge.”

Offen bleibt vorerst, in welche Richtung sich das Stadion als öffentlicher Ort entwickeln wird — sollte es nicht einfach beim gegenwärtigen Nebeneinander von Distanz und Intensität bleiben.

11. Apr. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Kalte Medien und die Intensität des Stadions

10
3225

     

28. Mrz. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Warum wir unbedingt tanzen wollen, heute

12
3657
     

Warum wir unbedingt tanzen wollen, heute

“Rhythmus hat sie aber,” sagte unsere (lieber zitierte als erinnerte) Mutter, wenn wir wieder einmal bemerkt hatten, dass meine Schwester nicht nur ebenso unmusikalisch war wie ihr älterer Bruder, sondern auch die seltene Gabe hatte, beim Mitsingen von Weihnachtsliedern jeden einzelnen Ton dort zu platzieren, wo er gewiss nicht hingehörte. Mit den so entstehenden, nur prinzipiell, aber nie im Detail vorauszusehenden Kakophonien lief selbst “Stille Nacht” kaum je zur sonst garantierten Stimmungs-Temperatur auf. Und was den Rhythmus angeht, sah meine Schwester nur deshalb einen Deut besser aus, weil sie die Unfähigkeit, ihren Körper in die Form von Takten fallen zu lassen, ganz und gar mit mir teilte. Auf Klassenpartys mit der beliebten Band “The Four Trashmen” oder auf Festen im heimischen Party-Keller (unter Peinlichkeit stiftender Beteiligung unserer Eltern, die langsame Rhythmen und schummriges Licht nie aufkommen ließen) gelang es uns beiden allein, beim Tanzen auf “Let’s Twist Again” oder “I Want to Hold Your Hand” die Körper sichtbar, aber glücklicherweise unhörbar an den Bewegungen der anderen vorbei zu bewegen. Auch der Tanzkurs bei der “Tanzschule Hartung” wurde so, ob Damenwahl oder Herrenwahl, zu einer einzigen, nie eingestandenen Tortur, einschließlich des von all meinen Freunden (und Freundinnen) sehr herbeigesehnten Schlussballs. Das Trauma hat sich schon früh festgesetzt — und ist mir bis heute erhalten geblieben. Ich kann nie Treppen herauf- oder heruntergehen, ohne ans Stolpern zu denken und dann auch zu stolpern, und ich weiß, dass sich für mich die Sehnsucht nie erfüllen wird, den Körper seine Takte einfach finden zu lassen – und so mit der Frau zu tanzen, die ich liebe.

Über Rhythmus und lyrische Formen “wissenschaftlich” nachzudenken, hat alles nur noch schlimmer gemacht. Denn jetzt kommt das Trauma auch als intellektuelles Problem auf mich zu, wenn ich zum Beispiel registriere, dass die seit der Zeit des Surrealismus zum Standard der Moderne gehörenden “freien Verse” und das stille Lesen von elegant aufgemachten Lyrik-Bänden während der vergangenen Jahrzehnte vor allem (aber nicht nur) in Ost-Europa wieder von öffentlichen Lyrik-Rezitationen und von Texten mit perfekten Reimen abgelöst worden sind. Vielleicht hat ja diese Renaissance der traditionellen und verkörperten Formen, vielleicht hat auch eine neue “existentielle” Sehnsucht nach Tanz (“ich habe mich drei Monate beurlauben lassen, um in die Tango-Szene von Buenos Aires einzutauchen,” hörte ich neulich auf einem akademischen Kolloquium), vielleicht hat dieses neue Bedürfnis nach Rhythmus damit zu tun, dass die Zeit unserer Gegenwart nicht mehr linear abzulaufen scheint, nicht mehr – horizontal sozusagen – eingespannt zwischen eine offene Zukunft, die wir gestalten, und eine Vergangenheit, aus der wir lernen sollen. Eher sind wir gefangen in der leeren und zugleich überbelegten Weite einer Gegenwart ohne Richtungs-Dynamik, deren Zukunft von (realen oder vorgestellten) Bedrohungen wie dem “Global Warming” oder der Erschöpfung natürlicher Energiequellen besetzt ist, und deren nicht mehr auf Distanz zu haltende Vergangenheit die sich immer weiter verbreiternde Gegenwart überschwemmt. Es ist eine Gegenwart, in der wir oft seitwärts driften und uns bis zum Schwindel drehen, eine Gegenwart auch mit unendlich vielen Alternativen ohne Verbindlichkeit.

Wie die tragisch banalen Helden aus Beckett’s “Godot” bewegen wir uns, „ohne vom Fleck zu kommen” und sind Teil einer “intransitiven Mobilmachung,” die uns nirgendwo führt, aber atemlos und am Ende “ausgebrannt” macht. Immer hastiger wollen wir rennen, weil wir nirgends ankommen können, und das mag der Grund für unsere Sehnsucht nach Formen sein, zu der auch eine Tanz-Sehnsucht und die Sehnsucht nach Gedichten in klassischen Versmaßen gehören. Denn sie lassen uns hoffen, dass wir eins mit anderen Körpern werden und uns an ihnen festhalten können — immer vorausgesetzt, es gelingt, wozu ich noch nie imstande war, nämlich einem Rhythmus zu vertrauen, statt uns durchzählend auf ihn zu konzentrieren. Natürlich habe ich lange schon aufgegeben und fühle ich mich beinahe wie Richard Rorty, der Philosoph, als er im Angesicht des Todes schrieb, sein Leben wäre wohl viel “angenehmer und erfüllter” gewesen, wenn er „mehr Freunde im Alltag und mehr Gedichte im Gedächtnis“ gehabt hätte, mehr rhythmische Formen, denen sich der Körper überlassen kann und die ihm Formen geben.

Intellektuell gesehen allerdings kommt man an dieser Stelle über ein (pseudo)begriffliches Stammeln kaum hinaus, ohne sich zu fragen, was wir denn meinen, wenn wir “Rhythmus” sagen — und dass Rhythmen unser Leben “erfüllter” machen. Meine erste Antwort heißt, dass das Wort “Rhythmus” immer auf praktische Lösungen des Problems verweist, unter welchen Bedingungen “Zeitobjekte im eigentlichen Sinn” eine “Form” haben können. Als “Zeitobjekte” hatte Edmund Husserl jene Phänomene beschrieben, die allein in zeitlicher Entfaltung existieren können, Musik zum Beispiel, Sprache und natürlich jede Art von Bewegung. Unter dem unübersichtlich vielfältigen Angebot von Definitionen für “Form” wähle ich den Vorschlag von Niklas Luhmann, für den die “Einheit der Differenz zwischen Selbstreferenz und Fremdreferenz” eine Form ausmacht. Ein Kreis oder ein Quadrat zum Beispiel ziehen Aufmerksamkeit auf sich (“Selbstreferenz”) im Gegensatz zu all dem, was außerhalb des Kreises oder Quadrates liegt (“Fremdreferenz”). Wenn aber nun aus dem Kreis aus Oval wird und aus dem Oval ein Quadrat, dann fassen wir das Zeitobjekt einer solchen beginnenden Sequenz erst einmal nicht als Form auf. Hier genau liegt das Problem, dessen Lösung jede Art von Rhythmus ist. “Rhythmus” nennen wir eine solche Sequenz, sobald wir entdecken, dass sie eine bestimmte Abfolge von Formen immer aufs Neue durchläuft. Denn dann ersetzt die Stabilität der Sequenz — als Rhythmus — die Stabilität einer nicht zum Zeitobjekt werdenden Form.

Rhythmen sind das Medium jener Art von Koppelung (oder “Interaktion”) zwischen verschiedenen Systemen (etwa verschiedenen menschlichen Körpern), die Luhmann “Koppelungen erster Art” nennt. Dabei lässt die wechselseitige Wirkung der verkoppelten Systeme diese wiederholt – und im Prinzip endlos – durch dieselbe Sequenz von Zuständen laufen. Bei “Koppelungen zweiter Art“ hingegen bringt die Interaktion zwischen den gekoppelten Systemen beständig neue Zustände hervor, Zustände, die ohne die Interaktion von Systemen nicht zustande kämen, und bringt so eine interne Komplexität hervor, aus der endlich eine Ebene der Selbstbeobachtung und Selbstbeschreibung, also Bedeutung hervorgehen muss. Bei Interaktionen zwischen Menschen sind diese Koppelungen zweiter Ordnung mit einer hohen und jene Koppelungen erster Ordnung mit einer geringeren Bewusstseinsspannung verbunden.

Die von jedem Rhythmus (“Koppelung erster Ordnung”) vorausgesetzte und zugleich ausgelöste Ent-Spannung verstellt sich, wer – wie meine Schwester und ich – Tanzschritte mit einem “Eins-Zwei-Drei” begleitet, immer in Sorge, “etwas falsch zu machen.” Dass Rhythmen der laufenden Zeit Formen aufprägen, anders gesagt, dass rhythmisierte Zeitobjekte (immer wieder) einen Anfang und (immer wieder) ein Ende haben, im Gegensatz zur Zeit des Alltags, die keinen Anfang und kein Ende kennt, erklärt ihre zweite, die erinnerungsstützende Funktion. Als Form legt sich jeder Rhythmus dem offenen Verlaufen der alltäglichen Zeit auf und scheint diese Zeit des Alltags – solange die Wiederholung seiner Sequenzen anhält – zum Stillstand zu bringen. Alle von der Zeit erfassten Phänomene scheinen unter dem Einfluss von Rhythmen gleichzeitig zu werden, und das könnte erklären, warum das Andauern von Rhythmen die Wirkung eines “Fensters” hat, durch das Erfahrungen oder Wissen aus der Vergangenheit in die Gegenwart gelangen können. Hätte ich sie nicht im Lateinunterricht mit einem Merkvers (und sogar einer kleinen Melodie) gelernt, als ich elf Jahre alt war, könnte ich mich heute sicher nicht mehr an “a, e, de, cum, sine, pro und prae” als “die Präpositionen mit dem Ablativ” erinnern.

Schon allein die von ihnen bewirkte Koordination verschiedener Körper und die Aktivierung des Gedächtnisses würden die Intuition bestätigen, dass uns Rhythmen – im Singen, Tanzen und Sich-Bewegen — ein erfüllteres Leben schenken. Noch wichtiger und erstaunlicher aber ist ihre Fähigkeit – auch hier: über die Senkung der Bewusstseinsspannung — unsere Vorstellungskraft in einer Weise zu intensivieren, die uns glauben lässt, Rhythmen könnten entfernte Dinge und Körper heraufbeschwören. Wie das möglich ist, illustriert ein mittlerweile fast hundert Jahr altes Gedanken-Experiment des amerikanischen Philosophen George Herbert Mead. Mead lädt seine Leser ein, sich einen frühen Homo Sapiens vorzustellen, in dessen Bewusstsein ein Umweltgeräusch die Vorstellung von einem anderen Tier abruft. Ob es sich dabei nun um die Vorstellung von einem im Vergleich zum Homo Sapiens stärkeren oder schwächeren Tier handelt, immer werden solche Vorstellungen unmittelbare Innervation – und und durch sie Bewegungen des Angriffs oder der Flucht auslösen (wir alle wissen aus eigener Erfahrung, dass unsere Vorstellungen “nah” bei solchen Körpereaktionen liegen).

Eben diese unmittelbare Verbindung von Vorstellung und Innervation, welche Mead offenbar mit dem “frühen” Homo Sapiens assoziiert, ist beim “fortgeschrittenen” Homo Sapiens normalerweise durch Begriffe und andere mentale Schemata unterbrochen, mit denen primäre Vorstellungen gefiltert und interpretiert werden. Unter dem Eindruck von Rhythmus aber (und also mit einer gesenkten Bewusstseinsspannung) wirken auch für uns durch alle Arten von Umweltwahrnehmung (zum Beispiel durch die Rezitation von Gedichten) ausgelöste Vorstellungen direkt auf den Körper – der dann reagiert, als seien die in der Vorstellung präsenten Gegenstände auch physisch gegenwärtig. Es ist also die durch Rhythmen ausgelöste (oder zumindest intensivierte) unmittelbare Wirkung von Vorstellungen auf unsere Körper, welche uns glauben lässt, dass Rhythmen Dinge in räumliche Nähe heraufbeschwören können.

Diese Wirkung vor allem macht ein Leben unter dem Eindruck von Rhythmen zu einem erfüllteren Leben, zu einem Leben, in dem sich Gegenstände der Vorstellung zu unseren Freunden gesellen – und sie stellt sich ganz unabhängig von unseren Intentionen und Bemühungen ein. Nicht mehr setzt sie voraus als die Fähigkeit, unsere Körper den Rhythmen zu überlassen, auf die wir treffen – und die uns gleichsam dem dreidimensionalen Raum zurückgeben können. Danach sehnen wir uns – meist ohne es zu wissen — in einer Gegenwart, welche bis zum Extremwert der Ausschließlichkeit allein unser Bewusstsein herausfordert und in richtungslose Prozesse der Beschleunigung einspannt.

Dies alles beobachte ich – allzu aufmerksam – von außen und mit der resignierten Gewissheit, dass das Nachdenken über die Funktionen von Rhythmen nicht einmal ein schwacher Trost sein kann für all die Tangos und Walzer, die ich nie getanzt habe und nie tanzen werde. Unsere Mutter sah übrigens auch nicht so aus, als ob sie auf der Tanzfläche zuhause wäre, sie hatte eben andere Prioritäten, zum Beispiel, dass wir gute Noten vom Gymnasium nachhause brachten. Deshalb kann ich mich wenigstens für Momente an den in Versform erinnerten Regeln der lateinischen Grammatik festhalten — die mir sonst allerding, beim Lesen lateinischer Texte kaum helfen.

28. Mrz. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Warum wir unbedingt tanzen wollen, heute

12
3657

     

14. Mrz. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Welchen Nationalismus brauchte die europäische Union?

18
5987
     

Welchen Nationalismus brauchte die europäische Union?

Latein war die erste Fremdsprache, als ich 1958 von der “Volksschule” (wie sie damals hieß) aufs “Realgymnasium” wechselte, und der Lehrer, ein ebenso energischer wie ehrgeiziger Mitt-Dreißiger mit einem weichen Akzent aus dem Sudentenland und authentischer Begeisterung für die politischen Strukturen der damals noch jungen Bundesrepublik (manche seiner Kollegen raunten, er sei “eingeschriebenes Mitglied” der CSU) ließ keine Gelegenheit aus, uns Zehnjährige wissen zu lassen, dass die Sprache, mit deren Vokabeln und Grammatik wir kämpften, die Grundlage der europäischen Kultur sei. Doch diese gut gemeinten und früh adressierten Handreichungen aus dem staatsbürgerlich-pädagogischen Fundus blieben eigentlich immer weit entfernt am Horizont unserer Unterrichts-“Realien” wie den Präpositionen mit dem Ablativ oder den weiblichen Endungen der dritten Deklination, und sie wurden auch nicht konkreter, als wir bald von den lateinischen Konversationen am Hof Karls des Großen und der Europa vorwegnehmenden geographischen Form seines Reichs erfuhren.

Fünf Jahre später hingegen traf uns die Realität Europas allzu konkret in der physischen Präsenz eines Französischlehrers (Beginn der dritten Fremdsprache), dessen Begeisterung für das damals immer noch etwas feindlich oder wenigstens exotisch wirkende Nachbarland alle fortbestehenden Grenzen ignorierte. Manchmal hatte er noch die gerade zuende gerauchte Gauloise im Mundwinkel, wenn er das Klassenzimmer betrat, sein fränkischer Akzent war durchsetzt von einem westlich-nasalen Oberton, und manchmal machte er sich einen kalkulierten Spaß daraus, die ohne Widerworte übernommenen moralischen Vorurteile unserer Eltern “kleinbürgerlich” zu nennen. Kein Wunder, dass der Religionslehrer unübersehbar mit dem Gedanken an eine Strafe Gottes winkte, als sein Kollege auf einer nächtlichen Busfahrt nach Paris den damals mit Lebensintensität assoziierten Infarkt-Tod starb. Bis heute am Leben ist hingegen unser Geschichtslehrer geblieben, der eine dritte und noch einmal andere Europa-Agenda hatte. Von einem Austausch-Jahr in der Patenstadt Rochester zurückgekehrt, beschrieb er die Heimat der GI’s auf den Straßen unserer Stadt und schwärmte von der für uns eher nebulösen Möglichkeit einer Zukunft in den “Vereinigten Staaten von Europa.”

Erst im viel späteren Rückblick sind Dr. Kurt Fina, Erwin Engel und Josef Fick (Gymnasiasten in Bayern waren damals gehalten, ihr Studienräte als “Herr Professor” anzureden) für mich zu frühen Europäern, ja beinahe zu Propheten der Europäischen Union geworden. Trotzdem halte ich für bemerkenswert bis faszinierend eher die gegenläufige Tatsache, dass jene kalte Schulter, über die wir Schüler mit zehn, fünfzehn oder achtzehn Jahren auf Europa blickten, bis heute die kalte Schulter einer Mehrheit von Europäern geblieben ist – selbst in der europäischen Modell-Nation Deutschland. Breite Begeisterung oder gar starke Gefühle hat das Projekt nie und nirgends entfacht. Stets ist es als ein Plan der politischen Vernunft und der eher gymnasialen Zukunftshorizonte erlebt worden, und manchmal frage ich mich aus meiner pazifischen Ferne von heute, ob ihm nicht immer noch ein Schuss jenes weiter als gefährlich geltenden Nationalismus fehlt, den wir so unendlich weit hinter uns gelassen haben wollen. Nur, was für ein Nationalismus sollte das sein? Und hatte es nicht zu den Dauer-Zielen der EU gehört, gerade die Nationalismen zu überwinden?

Vielleicht wäre Europa schon etwas geholfen, wenn klar würde, dass der Begriff der Nation ein Produkt der Aufklärung war – und nicht der in politischer Hinsicht eher verrufenen Romantik. Ideengeschichtlich gesehen ersetzte er beinahe übergangslos die von der Vernunftkritik in Verruf gebrachte Institution der Monarchie “von Gottes Gnaden,” in der man sein Leben als Geschöpf Gottes und als Untertan eines Königs verbracht hatte. An die Stelle des Monarchen im Status eines Souveräns trat die Souveränität des Volkes, dessen Einheit als Nation sich für Denker wie Herder, Kant oder Fichte “natürlich,” das hieß aus der lokalen Tradition einer Sprache, einer Kultur und auch einer Ethnie ergeben haben sollte. Bald wurden dieser Grundgedanke und seine Werte dann zur Matrix für drei verschiedene Strukturen des Nationenbegriffs — und seines jeweiligen politischen Potentials.

Wo sich – erstens – die Ablösung der absoluten Monarchie in einer gelungenen “bürgerlichen” Revolution vollzogen hatte, also vor allem in England und in Frankreich, überschoss die Energie des jeweiligen Nationenbegriffs bald seine territorialen Begrenzungen. Die von England ausgehende koloniale Expansion war wie die europäischen Eroberungsfeldzüge Napoleon Bonapartes begleitet von dem ebenso hochfliegenden wie ernst gemeinten Anspruch, anderen Völkern die Werte der individuellen Freiheit und der Gleichheit vor dem Gesetz innerhalb nicht mehr national begrenzter Reiche zu vermitteln. Strukturell gesehen folgte selbst die Oktoberrevolution von 1917 noch diesem Muster, wenn sie von ihrer Zukunft eine permanente und Welt-Revolution erwartete.

Gerade die napoleonischen Feldzüge und europaweiten Besatzungszeiten aber machten den kulturellen Nationen in den unterlegenen Monarchien schmerzhaft bewusst, dass ihnen selbst der bahnbrechende Schritt einer Revolution – und im Fall von Italien oder Deutschland: auch der nationalen Einigung — nie gelungen war. So entstand dort ein — zweiter — nicht der über-nationalen Zukunft sondern einer idealisierten nationalen, meist mitterlalterlichen Vergangenheit zugewandter Nationenbegriff, eben der Nationenbegriff der Romantik. Er war mit der Aggressivität des Ressentiments geladen und von Träumen über das eigene Gewalt-Potential vergiftet. Nicht zufällig inszenierte sich die erste deutsche Reichsgründung nach dem preußisch-französischen Kriegs im Januar 1871 als Wiederkehr des Heiligen römischen Reichs deutscher Nation aus dem Mittelalter.

Zugleich entstand ein – dritter – Nationenbegriff im gedemütigten Frankreich der neu gegründeten “Dritten Republik.” Er folgte der (nicht nur) christlichen Logik der erhofften Erlösung von einer Situation, die unter dem Verlust früherer Gnade litt – und ihn durch ein Opfer in einen Zustand der neuerlicher Gnade umkehren wollte. Die Kirche von Sacré Coeur auf dem Montmartre von Paris zum Beispiel ging aus einer in diesem Sinn ausgelegten und verstandenen nationalen Buß-Kollekte hervor. Außerhalb Frankreichs wurden solche nationalen Erlösungs-Träume und affektiven Erlösungs-Investitionen bald nach dem Ersten Weltkrieg — vor allem wieder in Italien und in Deutschland — zur ideologischen Grundlage der faschistischen Bewegungen.

Eine Rückkehr des Nationalismus in faschistischer Form ist der europäischen Bewegung – trotz aller Unkenrufe während der sogenannten “Studentenrevolution” von 1968 und ihrer Nachbeben – glücklicherweise erspart geblieben. Andererseits aber hat der Gedanke vom “Vaterland Europa,” wie meine Lehrer gerne sagten, nie die Energie jenes – ersten – Typs von Nationalismus entfaltet, der über seine ursprünglichen Ziele hinauszugehen vermochte. Denn die Vorstellung von einer vielsprachigen und multikulturellen “Heimat” ist wohl für die meisten Europäer bis heute allzu abstrakt und fragmentiert geblieben; außer ihrer gemeinsamen Währung hat die Union nie Werte mit einer Aura der Innovation geschaffen; und im Blick auf weltpolitische Ziele und Krisenlagen hat sie sich beständig eine eigenartige (oder einfach nur bequeme) Zurückhaltung auferlegt. Vor allem aber war – mit der möglichen Ausnahme Deutschlands wohl – die Furcht vor nationaler Fremdbestimmung stets größer als die von gemeinsamer Stärke befeuerte Europa-Euphorie.

Vor allem während der vergangenen eineinhalb Jahrzehnte hat sich deshalb in der Europäischen Union statt einer Transformation des aus der Traditon ererbten Nationalismus in transnationale Energie eine vielfache Wiedergeburt des ressentimentgeladenen, zweiten, “romantischen” Nationalismus ereignet. Seine sichtbarste – und aus der Vergangenheit vertrauteste – Form hat er wohl in Frankreich mit dem anscheinend unaufhaltsamen Aufstieg der Familie Le Pen und ihrer Partei bis in die Nähe des Präsidentenamts entwickelt. In Spanien hingegen ist ein schon immer vielfach gebrochenes Nationalgefühl mittlerweile in mehrere neue Nationalismen implodiert, deren Kritik sich vor allem auf den existierenden Nationalstaat als Antagonisten und als Statthalter abstrakter europäischer Machenschaften richtet. Keinesfalls hat die Gegenwart der Europäischen Union also die Hoffnung erfüllt, den Nationalismus schlechthin als politischen und kulturellen Bezugsrahmen hinter sich zu lassen. Vielleicht war dies vom Beginn an bloß ein einseitiger Traum der Intellektuellen unter den Politikern.

Eine Wiederbesinnung auf Charles de Gaulles Vision vom “Europa der Vaterländer” muss unter diesen Bedingungen der Gegenwart halbherzig wirken, während ein Abschied von der Union in vieler Hinsicht allzu kostspielig würde. Vielleicht hat sich Europa also in jenen Momenten der Vergangenheit zu permanenter Form- und Energielosigkeit verdammt, als es die Chance versäumte, einen ganz anderen Nationalismus zu entdecken, zu entfachen und zu kultivieren.

14. Mrz. 2015
von Hans Ulrich Gumbrecht
Kommentare deaktiviert für Welchen Nationalismus brauchte die europäische Union?

18
5987

     

28. Feb. 2015
von Hans Ulrich Gumbrecht

11
2411
     

Ob man „heiraten muss“

Es muss um 1960 gewesen sein, als die alte Bundesrepublik in ihrer neuen Selbstgewissheit dogmatisch wurde und ich mit etwas mehr als zehn Jahren zu verstehen begann, warum meine Mutter zugleich streng, triumphalistisch und hämisch klang, wenn sie den Satz “die mussten heiraten” gebrauchte – ohne den nur wenige Tage vergingen. Die dabei vorausgesetzten Regeln des Lebens hatten keine Zweideutigkeit: eine Frau, die “er geschwängert hatte” (niemand nahm an diesem transitiven Verb Anstoß), nicht zu heiraten, galt immer noch als das “gute Recht des Mannes,” und nur besonders emphatisch disponierte Betrachter hielten es für allzu hart oder gar unschön, wenn er davon Gebrauch machte.

Im Heiratsfall aber, der als erfülltes “Muss,” als ihre erfüllte Pficht für die Frau auch ein Glücksfall war, kam unweigerlich die einfache Gleichung eines “Je-später-desto-schlimmer” ins Spiel: eine unter dem Hochzeitskleid noch gerade zu kaschierende Schwangerschaft wurde mit dem Datum der Geburt zu einer an Peinlichkeit grenzenden – kleinen — Schande, während ein Hochzeitstermin nach der Geburt der Kindes als sozial beinahe so unannehmbar wie keine Hochzeit galt. Auch die unüberbietbar orthodoxe Ansicht hatte ich damals mit Faszination aufgeschnappt, nach der eine Frau, die heiraten musste, ein rosafarbenes Kleid “vor dem Traualtar” zu tragen hatte – wie Witwen, die sich für eine weitere Ehe entschieden. Genau neun Monate nach der Hochzeit schließlich (mit einem kleinen, alle potentiellen Zweifel blockierenden “Sicherheitsabstand”) “ein Kind zu bekommen,”, schloss ich stolz auf meine neue Sach-Kompetenz, musste der Ideal-Fall sein.

Wie sehr sich in einem halben Jahrhundert der Ton und die Bedeutung der Wörter “heiraten müssen” verändert, ja umgekehrt haben, ist ein bemerkenswertes Symptom für den inzwischen eingetretenen gesellschaftlichen Wandel und auch für die Werte-Sicht der Gegenwart, zu der er geführt hat. Von einem ernsthaften “Muss” des Heiratens ist eigentlich nie mehr die Rede. Wenn sich die Heirats-Frage überhaupt stellt, dann ist ihr Hilfsverb eher ein “Soll” – mit sehr verschiedenen Bezugspunkten. Soll man besonders konservativen Familienmitgliedern den Gefallen tun, ohne andere Gründe eine stabile Paar-Beziehung zur Ehe zu machen? Soll man aus Steuer-, Versorgungs- oder Erb-Gründen die Ehe eingehen? Der schon geborenen Kinder wegen vielleicht (auch wenn die nichts zu vermissen scheinen)? Nur wenige Berufe oder Arbeitgeber-Rollen sind übrig geblieben, die zwischen stabilen Beziehungen ohne Ehe und vollzogener Ehe einen Unterschied machen – und ihre Position wird rechtlich prekär, sobald sie versuchen, damit bestimmte Vor- oder Nachteile für ihre Angestellten zu verbinden. Andererseits spricht es ja gewiss gegen die Ehe, dass zu ihr – mit statistisch schlagender Evidenz – das Risiko der Scheidung und der damit verbundenen finanziellen Nachteile, institutionellen Mühen und psychischen Schmerzen gehört. Warum sollte man sich ein so komplexes Risiko zumuten?

Und was könnte auf der anderen Seite heute überhaupt noch für Ehe und Heirat sprechen? Die Gelegenheit zum Beispiel, eine Paar-Beziehung in ihrer Stabilitaet zu feiern (was unerträglich vernünftig klingt) – oder etwas romantischer (und dann ploetzlich ziemlich schmalzig): sich öffentlich und gemeinsam über eine doppelte “Liebe des Lebens” zu freuen. Doch solche Feste sind teuer und bedürfen, wenn man sie denn haben will, längst nicht mehr wirklich der Eheschließung als institutioneller Voraussetzung. Für homosexuelle Paare allerdings sieht die Motivationslage anders aus. Denn ihr Entschluss zur Heirat und Ehe hat die fast unvermeidlich politische Implikation, nun – endlich — den Zugang zu einem Ritual und einem Status wahrnehmen zu können, die für Partner gleichgeschlechtlicher Beziehungen bisher unerreichbar geblieben waren. Hinzukommen mögen sehr spezifische, eher praktische Interessen, etwa der Wunsch, eine Form der Partnerschaft zu vereindeutigen, die wohl immer ein Minderheiten-Phänomen und deshalb ohne aktive Vereindeutigung für manche Beobachter immer konturenlos bleiben wird.

Dennoch ist anzunehmen – und zu hoffen, dass sich solch warm glänzende Euphorie angesichts der erreichten Gleichstellung homosexueller Paare eines Tages zur affektiven Normaltemperatur justieren wird (im Sinn der nüchternen Festellung des amerikanischen Philosophen Richard Rorty, dass der Kampf für Gleichberechtigung der Homosexuellen erst dann vollendet sein wird, wenn die Motivation für “Gay Pride Parades” verschwunden ist). Dann aber wird auch für homosexuelle Paare die Frage, “ob man heiraten muss,” genau so so klingen, wie sie heute schon für heterosexuelle Paare klingt, nämlich wie eine rhetorische Frage mit skeptischem Unterton – wie eine Frage also, deren negative Beantwortung unterstellt ist. Wer die Wörter “ob man heiraten muss” in dieser Weise verwendet – und das mag in einigen europaeischen Gesellchaften heute bereits die Mehrheit sein, hat im Normalfall all die (schon erwähnten) praktischen Gründe berücksichtigt, welche für eine Heirat sprechen können. Unterstellt ist dabei freilich, dass die institutionelle Form mit all ihren praktischen Verpflichtungen und Implikationen in einer Spannung zu jener beiden Dimensionen steht, welche die Schönheit einer Liebebeziehung ausmachen sollen: in einer Spannung zu der Freiheit, sich jeden Tag neu füreinander zu entscheiden; und in einer Spannung zu jenem ekstatischen Grad von Individualität, dem natürgemäß keine institutionelle Form entsprechen oder gar gerecht werden kann.

So scheinen wir bei einer Situation angekommen zu sein (und beginnnen, es uns in ihr gemütlich zu machen), deren Grundstruktur jedem Kulturhistoriker – vor allem jedem Literaturhistoriker – aus dem Mittelalter vertraut ist, ohne dass heute, wie es zur Zeit der Romantik und des Biedermeier der Fall war, ein bewusster Rückgriff auf diese Vergangenheit vorausgesetzt ist. Genau genommen allerdings werden wir nie wissen, wie erotische Liebe im Mittelalter tatsächlich erlebt wurde. Aber seit dem frühen neunzehnten Jahrhundert hatte sich europäische Kultur auf ein kleines Corpus von Texten, von so genannten “Liedern” konzentriert, die zuerst um 1100 im heutigen Südfrankreich entstanden waren, und deren Ton und Faszination dann ein produktives Jahrhundert lang in den europäischen Norden ausstrahlten.

Ihre mittelhochdeutschen Ableger nennt man “Minnesang” – und prinzpiell geht es im Minnesang immer um die paradoxale Situation und Einsicht (Intellektuelle unserer Gegenart könnten sie eine “double-bind Situation” nennen), dass erotische Erfüllung nur außerhalb der institutionellen Verpflichtungen von Ehe und Familie zu haben ist, was wiederum vom Ernst des Ehe-Sakraments ausgeschlossen wird.

Das literarisch gebildete Bürgertum der Romantik reagierte auf den Minnesang mit der zur Erwartung normalisierten gegenläufigen Überzeugung, dass Ehe als Institution permanent mit leidenschaftlicher erotischer Liebe vereinbar sei – und hat der westlichen Kultur in den folgenden Jahrhunderten damit ein oft mit Enttäuschung und Frustration endendes Erbe hinterlassen (der französisch-schweizerische Existentialist Denis de Rougment hat darüber ein ebenso leidenschaftliches wie lesenswertes Buch geschrieben). So könnte man schließen, dass die gegenwärtige Tendenz zur stabilen Partnerbeziehung ohne Ehe möglicherweise die zur Tradition gewordene Spannung zwischen Institution und Leidenschaft vermeiden wird. Und noch ein weiterer – vielleicht entscheidender — Unterschied gegenüber der mittelalterlichen und romantischen Konzeption von Liebe lässt sich in der Gegenwart beobachten. Als zentrale Medium ihrer Nähe und Einheit würden die meisten Paare heute wohl weniger wechselseitige erotische Faszination identifizieren als Freundschaft, Freundschaft im Sinn einer “unverbindlichen Form der Bindung, die hält,” Freundschaft als offene Beziehung der Komplementarität, in der sich zwei (oder mehr) Individuen einander ausdifferenzieren und entwickeln können (früher hätte man von “Individual-Bildung” geredet).

Im Alltag von heute bringt so der Bildungs-Konsum eine typische Paarbeziehung auf die Höhe unserer Gegenwart: das gemeinsame Konzertabonnement, der Freitagabend im Sterne-Restaurant, die Bildungsreise “auf den Spuren Darwins” nach Galapagos, neben Liebhaberausgaben surrealistischer Gedichte mit Picasso-Zeichungen als Weihnachtsgeschenk – und einmal im Leben Bayreuth (statt wie in einer “guten alten” Zeit, die es vielleicht nie gegeben hat, Zeit für Sex – wenigstens einmal pro Woche). Sex scheint eher peripher geworden zu sein in der Paarbeziehung von heute. Gar Kinder zu haben, wäre unvereinbar mit den Bildungsfahrplänen zum gemeinsamen Glück – und sollten sich Kinder denn in die Freundschaft und Liebe des Paars schieben, dann werden sie seit dem ersten Tag ihres Lebens als Bildungsaufgabe interpretiert, an der die Partner nur wachsen können. Wohin sie wachsen, weiss niemand.

28. Feb. 2015
von Hans Ulrich Gumbrecht

11
2411

     

14. Feb. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

9
2092
     

Was heisst schon „global“?

Ein stilbewusster Intellektueller, zumal ein stilbewusster akademischer Intellektueller (wenn man den Begriff trotz seiner potentiellen Widersprüche stehen lassen will), wird sich den Gebrauch des Wortes “global” eher verbitten. Denn die Rede vom “Globalen” fällt sofort unter den Brennstrahl einer Kritik, die schon immer zum Pflicht-Repertoire der Intellektuellen gehört hat, aber seit den späten achtziger und frühen neunziger Jahren, seit jener jüngeren Vergangenheit, die nichts für so überlebenswichtig hielt wie “kulturelle Identitäten,” unnachgiebiger und lauter denn je geworden ist. Dass jeder Begriffsgebrauch Unterschiede zwischen den Phänomenen verwischt, auf die er sich bezieht, ist als Vorbehalt und Warnung so alt ist wie die Texte, die wir gerne “philosophisch” nennen – Lichtenberg zum Beispiel wurde in seinen “Sudelbüchern” nicht müde, immer wieder an solche Ungenauigkeiten der Sprache gegenüber der Welt der Dinge zu erinnern.

In der Hoch-Zeit der kulturellen Identitäten lud sich dann ein bis dahin nur mitlaufendes skeptisches Raunen moralisch zu dem Vorwurf auf, dass viele unserer zentralen Begriffe – je inhaltlich breiter desto skandalöser – die Identität von Minderheiten nicht hinreichend berücksichtigen und also beschädigen. Soweit ging diese Differenzierungs-Vigilanz, dass eine ganz Reihe von Wörtern tatsächlich “ausgemerzt” wurden (wie man der Zeit nationalsozialistischer Sprachpolitik gesagt hätte). Vollkommen konsequent wäre freilich allein eine Reaktion gewesen, die den Gebrauch von Sprache überhaupt verboten hätte, denn es kann ja – nach ihrer Natur und Funktion – keine Begriffe geben, die nicht Unterschiede verwischen, sie nicht – so heißt das stets kritisch gemeinte Verb – “totalisieren.”

Das Wort “Globalisierung” tauchte nun, wenn ich mich recht erinnere, ausgerechnet in jenem Moment der Geschichte auf, wo nichts moralisch frevelhafter wirkte als eben das “Totalisieren.” Indirekt kam es wohl aus der Implosion des Staats-Sozialismus als jenem politischen und ideologischen System, dessen Konkurrenz mit dem Kapitalismus den Kalten Krieg befeuert hatte. Solange Ideen, Werte und zahllose Phänomene stets vorab entweder als “sozialistisch” oder als “kapitalistisch” zu identifizieren waren, kam der sprachliche Ausgriff aufs “Globale” niemandem in den Sinn. Und als er sich dann, plötzlich fast, nach dem Ende des Kalten Krieges anzubot, da stieß er nicht nur auf den moralischen Widerstand von Minoritäten-Beschützern, sondern war Teil einer tätsächlich problematischen Totalisierung.

Dabei haben die Begriffe des “Globalen” (für eine Struktur) und der “Globalisierung” (für einen Prozess) durchaus das Potential, Grundformen – vielleicht sogar zentrale Form – unserer Gegenwart zu beschreiben, wenn man sich nur die gar nicht so große Mühe einer Differenzierung macht. “Global,” ließe sich vorschlagen, sind im wörtlichen Sinn welt- und menschheitsumspannende Phänomene, die gleichwohl nicht alle heute lebenden Menschen betreffen und einschließen. Dann bezieht sich das Wort also auf Phänomene und Situationen, die für die meisten – aber eben nicht für alle — Zeitgenossen eine Rolle spielen. Vom Totalisierungsvorwurf ist “Globalisierung” ausgenommen, sobald sich genau angeben lässt, worauf sich das Wort” nicht beziehen soll oder was (ohne Wertungsimplikationen) “marginal” oder “periphär” erscheint.

Es gibt in dieser Hinsicht sehr verschiedene Dimensionen des nicht-globalen Periphären und Marginalen. Nordkorea und Kuba etwa muss man hier nennen, als Staaten und Gesellschaften, denen es nach 1989 gelungen ist, an der orthodoxen Form des Staatssozialismus (beinahe ohne Zugeständnisse gegenüber dem Kapitalismus als Sieger im Kalten Krieg) festzuhalten und die deshalb zur Abschottung gegenüber ihrer globalen Umwelt neigen. Solche ideologisch begründete Fälle der Abschottung unterscheiden sich, graduell zumindest, von Systemen oder Nationen wie Burma, deren Schließung offenbar der Kontinuität lokaler Machtstrukturen dient. Die beiden genannten Typen der Marginaliltät sind wiederum grundsätzlich verschieden von Zonen unseres Planeten, bis zu denen bestimmte, heute “global” selbstverständlich gewordene Technologien und Formen der sozialen Organisation noch nicht vorgedrungen sind. Dies scheint auf einige Regionen von Madagaskar zuzutreffen und (zumindest aus der romantisch gestimmten und politisch einfussreichen Perspekte der Anthropologie in Brasilien) auch auf Gebiete des Bundesstaats Amazonien.

So zeichnet sich eine intern heterogene Peripherie ab, deren einzig wirklich gemeinsamer Nenner in der jeweiligen Distanz zu dem einen Syndrom von “globalen” Strukturen und Gegebenheiten liegt. Doch was könnte nun – unterschieden von der Peripherie — ein nicht totalisierender Begriff des Globalen sein? Die am deutlichsten optimistische Antwort auf diese Frage macht das Globale zum Ergebnis des von Europa ausgehenden, fortgesetzten und angeblich noch nicht an sein Ende gelangten “Prozesses der Aufklärung.” Allerdings sind die Konsequenzen eines solchen Verständnisses strukturell kaum verschieden von den Ideologien aus der großen Zeit des Imperialismus, als “Britannien über die Wellen der Weltmeere regieren” und “Deutschland die Welt an seinem Wesen genesen” lassen wollte. Alle Bewohner von Madagaskar und Amazonien wären dann vom Prozeß (oder wie Jürgen Habermas sagen würde: vom “Projekt”) der Aufklärung mit den Segnungen der neuesten Technologien zu beglücken (in der friedlichst denkbaren Weise natürlich), während auf Burma oder die auf Volksrepublik China etwa moralischer Druck zur Herstellung parlamentarisch-demokratischer Institutionen ausgeübt werden müsste.

Mögliche Argumente oder Erfahrungen, die in Frage stellen könnten, dass einer Mehrheit chinesischer Bürger nach der Kapitalilisierung der nationalen Wirtschaft nun auch an an “westlichen Verhältnissen” in der Politik gelegen sei, dürfen in diesem Kontext keine Geltun haben, da der Prozess der Aufklärung sich selbst und seine Werte ausschliesslich und normativ setzt. Die meisten Intellektuellen unser Gegenwart, glaube ich, haben wahre Phobien gegen Totalisierung als Verwischung von Phänomen-Differenzen entwickelt, ohne mit der Absolut-Setzung westlicher Moral-Werte auch nur das geringste Problem zu haben (aus ihrer Sicht ist das einzig denkbare Problem in diesem Zusammenhang jede Verzögerung bei der Herstellung einer politisch korrekten Welt).

Wer die Normativität von Aufklärungs-Werten im Kern eines nicht-totalisierenden Begriff von Globalisierung vermeiden will, der muss also versuchen, Aufklärung als Struktur und als Prozeß aus einer anderen Perspektive zu sehen. Wenn aus diesem Grund noch einmal auf die Kulturen und Nationen an der Peripherie des Planeten (und des Globalen) blickt, dann fällt auf, dass sie sich – aus verschiedenen Gründen und in verschiedenen Intensitätsgraden – auf Distanz zu den elektronischen und vor-elektronischen Netzwerken der Kommunikation befinden. Vielfache Nachrichten über die Ambivalenzen des chinesischen Staats in dieser Hinsicht haben sich längst zu einer Fortsetzungsgeschichte der politischen Berichterstattung zusammengefügt, und eine konvergierende Geschichte aus strukturell ähnlichen Ambilvalenzen hat nun auch in Nordkorea eingesetzt. Aus ganz anderen Gründen, nehme ich an, würde es sich wohl als schwierig erweisen, bestimmte Regionen Madagaskars und Amazoniens mit dem Handy zu erreichen.

Dieser auf weitreichende, aber nicht den gesamten Planeten abdeckende Kommunikations-Netzwerke fokussierte Begriff der “Globalisierung” ist empirisch in doppelter Hinsicht: er soll nicht nur normative Implikationen ausschließen, sondern auch theoretische Setzungen, welche intern unbegründbar bleiben (wie zum Beispiel die Prämisse der soziologischen Systemtheorie, dass jede Gesellschaft – und letztlich die ganze Welt – ein Kommunikations-System sei). Das real existierende Globale hat seine Basis in technologischen Kommunikationsstrukturen, ist aber gewiss nicht auf ihre Materialität beschränkt und auf die Kompetenz, sie zu bedienen. Zu dieser Kompetenz gehört ja etwa ein bestimmtes Kompetenzprofil im Gebrauch der englischen Sprache – die hier einmal nicht (wie “kritische” Intellektuelle einzuwerfen sich früher verpflichtet gefühlt hätten) als ein Instrument hegemonialer Unterwerfung funktioniert, sondern als ein Medium, das wohl einfach leichter zugänglich ist als andere Sprachen mit einer großen Anzahl von Sprechern. An die elektronische Kompetenz und den Gebrauch der englischen Sprache schließen sich neue, “global” voraussetzbare Wissenstrukturen an (die im Detail wohl noch nie beschrieben worden sind) und daneben auch bestimmte Höflichkeitsregeln (man verfügt etwa über ein Repertoire erwartbarer Komplimente) und sogar ein gewisser Ton harmlosen Humors (es ist “global” zulässig und erwartbar, in einer e-mail ironische Bemerkungen über die elektronisch mitlaufende Rechtschreibkontrolle (“Spell check”) zu machen). Vor allem aber sind auf der Basis der elektronischen Netzwerke vielfache Beziehungen des wirtschaftlichen Austauschs — und vielerlei Waren — global verfügbar geworden.

In weniger als zwei Jahrzehnten hat “Globalisierung” als eine Kommunikationsform, in der wir uns lebenslang aufhalten können, weil sie eine früher undenkbare Vielfalt der Kontakte und der Wissensbestände zur Verfügung stellt, noch eine ganz andere Entwicklung im Prozess der Aufklärung zu einem kaum mehr überbietbaren Extrempunkt geführt. Im Sinn jenes berühmten Mottos aus dem siebzehnten Jahrhunderts “ich denke, also bin ich,” sind wir ausschließlicher Bewußtseins-orientiert, ausschließlicher “cartesianisch” geworden als dies je zuvor der Fall war. Diese Reduktion auf das Elementare in der menschlichen Existenz geht einher mit einer Nivellierung kultureller (und vielleicht sogar individual-psychischer) Unterschiede. Deshalb sind wir so (angenehm oder unangenehm) überrascht, wenn wir nach langen und stromlinien-funktionalen Sequenzen elektronischer Kommunikation zum ersten Mal den Umriss eines individuellen Körpers und die Züge eines individuellen Gesichts mit einem bestimmten, längst zur Gewohnheit gewordenen Gestus des Schreibens verbinden können.

Die Energien verschiedener Gegenbewegungen sind uns vertraut und zwar so deutlich, dass wir wohl auch sie zum Begriff des “Globalen” rechnen sollten. Auf die Einklammerung unserer Körper in der elektronischen Kommunikation haben wir mit der “Wiederentdeckung” des Körpers, mit einer neuen “Sehnsucht” nach Körpern reagiert — und auch mit einer neuen Körper-Sebstbewusstheit, welche sichtbar und bis heute bestimmte Segmente der Produktion und des Marktes, zum Beispiel die Modeindustrie, stimuliert. Dabei zeigt sich einerseits — als Gegeneffekt zum Nivellierungstrend der Globalisierung – ein neues Bestehen auf Differenzen, paradoxal gesagt: globale Trends der Ent-Globalisierung oder Regionalisierung. Regionale Kleidungskonventionen (vor allem in den islamischen Nationen), regionale Gaststromonien (vor allem von der Peripherie Europas) und regionale Formen und Farben des Designs (etwa in Südamerika) wären ohne Globalisierung als Herausforderung wohl nie mit der gegenwärtigen Intensität wiederauferstanden (und zum Impuls neuer Industrien geworden). In den meisten Fällen freilich stehen solche regionale Formen neben der — alltäglich ganz neutral-funktionalen — westlichen Tradition.

Möglicherweise heißt “global” also vor allem, sein Erwachsenen-Leben im Wechsel zwischen zwei kulturellen Schichten und Repertoires zu verbringen, der westlichen und einer “eigenen.”

14. Feb. 2015
von Hans Ulrich Gumbrecht
1 Lesermeinung

9
2092