Home
Fazit – das Wirtschaftsblog

Fazit - das Wirtschaftsblog

Für alle, die’s genau wissen wollen: In diesem Blog blicken wir tiefer in Börsen und andere Märkte - meist mit wissenschaftlicher Hilfe

Braucht die Geldpolitik ein drittes Mandat?

| 6 Lesermeinungen

Traditionell kümmert sich die Geldpolitik um die Stabilität des Geldwertes und oft auch um das Wirtschaftswachstum. Sehr engagiert wird heute diskutiert, ob sich Notenbanken zudem um die Stabilität des Finanzsystems kümmern sollen. Von einer spannenden Konferenz in Boston berichtet unser Gastautor Hans-Helmut Kotz *)

Hans-Helmut Kotz© Foto: CFSHans-Helmut Kotz

Die Federal Reserve Bank of Boston ist eine der Institutionen, die sich seit langem besonders intensiv Banken- und Finanzmarktthemen aus einer geld- und finanzstabilitätspolitischen Sicht widmet. Wichtig ist dabei die Perspektive: Die Politikrelevanz steht immer im Mittelpunkt.  Viele, die an Themen an der Schnittstelle zwischen Geldpolitik und Finanzwesen interessiert sind, haben deshalb die Konferenzbroschüren der Forschungskonferenzen der Boston Fed über Jahrzehnte gesammelt. Ben Friedman (Harvard), der die beiden Abschlusspanel der diesjährigen Konferenz am 3. Oktober moderierte, erinnerte eingangs an diese Philosophie. Er tat dies, weil er einen inhaltlichen Zusammenhang zwischen der ersten, 1969 abgehaltenen Konferenz, an der er als Doktorand teilgenommen hat, und der aktuellen sah. Damals war das Generalthema: die Steuerung monetärer Aggregate. An diesem Wochenende ging es um makroprudentielle Geldpolitik.

Geldpolitik mit systemischer Perspektive?

Wo der Zusammenhang liegen könnte, wurde in dem einleitenden Beitrag von Joe Peek, Eric Rosengren und Geoff Tootell deutlich. Dieser ging der Frage nach, ob die Fed ein drittes Mandat verfolgte – und zwar, wenn auch uneingestanden, schon seit langem. Moderne Geldpolitik, so wie sie seit etwa einem Vierteljahrhundert verstanden wird, beurteilt das Handeln der Notenbanken im Lichte einer Zielfunktion. Dabei geht es um möglichst geringe Abweichungen von zwei Zielen: dem Wachstumspfad des BIP und der mittelfristig angestrebten Inflationsrate (meist rund 2-Prozent-Anstieg des Verbraucherpreisindexes). Die Fed verfolgt mithin ein duales Mandat. Das tatsächliche Verhalten von Notenbanken wird in Reaktionsfunktionen abgebildet. Deren bekannteste ist die Regel von John Taylor. Sie beschreibt, wie auf Verfehlungen des Ausbringungs- und Beschäftigungsziels durch Veränderungen des Leitzinses geantwortet wird.

Peek und Kollegen berücksichtigen nun zusätzlich die neue (eigentlich: uralte) Notenbankaufgabe, Gewährleistung von Finanzstabilität. Dazu erweitern sie die Zielfunktion – genauer, die zu minimierende Verlustfunktion – um einen dritten Term. Dieser bemisst die Kosten von Instabilität oder den Nutzen eines belastbaren finanziellen Systems. Die Kosten, die aus Instabilität erwachsen, werden durch regelsetzende Eingriffe der Notenbank beeinflusst. Sie spiegeln zudem die Risikobereitschaft der Marktteilnehmer, die im Interesse der Allgemeinheit unter Kontrolle zu bringen ist. Denn ein Zuviel an Risikovorliebe ist der Grund für das potentiell kostenträchtige Abweichen von Vermögenswerten von ihrem eigentlichen oder fundamentalen Wert. So formuliert, besteht die Lösung darin, dass der Einsatz zweier Instrumente – des Leitzinses und der Regulierungsintensität – optimal festgelegt werden.

Um das Argument empirisch zu überprüfen, berücksichtigt Peek deshalb in einer erweiterten Taylor-Regel einen Indikator für Finanzstabilitätsprobleme. Dieser baut auf der Wahrnehmung eventueller Probleme auf – und zwar so wie sie in den Sitzungen des Entscheidungsgremiums, des Federal Open Market Committees (FOMC), das die Leitzinsen festlegt, zur Sprache kommen. Dazu wurden dessen Protokolle auf Formulierungen überprüft, die Finanzstabilitätsbedenken dokumentieren. Die Schätzungen, die Daten zwischen 1982 und 2009 verarbeiten, belegen allesamt, dass diese Sorgen einen spürbaren Einfluss auf die Fed-Politik hatten. Vor allem gilt dies für Umgebungen, in denen es zu negativen Störungen kam, etwa den Börsenkrach von 1987 oder die Asien-Russland-LTCM-Krise 1997/98. Dagegen wurden entstehende Blasen, die noch in der Aufbauphase waren, vom Leitzinskomitee offenbar kaum angesprochen. Darin kommt ein Verhalten zum Ausdruck, das Marktteilnehmern seit langem bekannt ist. Dafür wurde der Begriff des „Greenspan Put“ geprägt. Das ist eine für Marktteilnehmer entgeltfreie Verlustabsicherung, eine Ungleichbehandlung, die mit destabilisierenden Anreizen verbunden ist.

In der Diskussion des Papiers wurden nicht die üblichen Debattierpunkte gemacht: Wie vermag man Abweichungen von Fundamentalwerten zu ermitteln? Gibt es überhaupt Blasen? Es war schon vor der großen Nord-Atlantischen Finanzkrise schwer, das weitgehend vollständige Ausblenden von systemweiten Finanzmarktunfällen in den Modellen zu begründen. Für die praktische Politik war derartiger Agnostizismus natürlich nie eine Option. Vielmehr wurde der Ansatz der Autoren, die ja wirklich erfahrungssatte old hands in diesen Debatten sind, als beispielsetzend gelobt. Das Team um Rosengren hat unter anderem 1999 einen wichtigen Beitrag über die Komplementarität von Geldpolitik und bankindividueller Aufsicht und damit zur Begründung der Integration beider in einer Institution geliefert. Damals war allerdings das britische Modell der Trennung und Aufgabenteilung zwischen Aufsicht, also der Financial Services Authority (FSA), und Notenbank, der Bank von England, en vogue. Als Lehre aus der Krise wurden im Vereinigten Königreich mittlerweile die Reintegration – One mission, one bank – der FSA in die Bank of England gewählt.

Anil Kashyap (Chicago) lobte sehr viel an dem Papier, kritisierte aber vehement die viel zu simplistische Taylor-Regel. Sie sei nicht imstande, Notenbankverhalten angemessen abzubilden. Vor allem die Annahme des konstanten Referenzzinses – ein Mittelwert über lange Zeiträume, unabhängig von den Umständen – wurde als problematisch angesehen. Diese Kritik fand allgemeine Zustimmung. Peek und Kollegen gehen von einem komplexeren Entscheidungshintergrund aus. Und sie unterscheiden auch zwischen Boom und Krisenumständen und deren jeweils spezifischer monetären Verarbeitung. Es wurde darüber hinaus vorgeschlagen, weitere Instabilitätsindikatoren wie etwa den Volatilitätsindex der CBOE oder breitere Stressindikatoren zu benutzen. Tatsächlich weißt der Volatilitätsindex (VIX) einen hohen Gleichlauf mit dem Peek-Verfahren auf. Die Mitglieder des FOMC bedrängen vermutlich ähnliche Probleme wie die Marktteilnehmer.

Umsetzungskonzepte – die Vogelperspektive

In den beiden folgenden Panels wurden, aufbauend auf Vorträgen von Paul Tucker (Harvard Kennedy School und Ex-Bank of England) sowie Don Kohn (Brookings und Ex-Fed) Themen an der Schnittstelle zwischen Einzelinstituts- und Makro- bzw. systemischer Aufsicht sowie zwischen letzterer und der Geldpolitik behandelt. Paul Tucker unterstrich, dass einzel- und systemische Aufsicht unauflösbar verbunden seien. Beide müssten deshalb als Bestandteile eines stimmigen Systems konzipiert werden. Die Kernaufgabe bestünde darin, finanzielle Stabilität als Gemeinschaftsgut und nicht als öffentliches Gut zu gewährleisten. Von Finanzstabilität könne niemand ausgeschlossen werden. Ihre Nutzung sei aber durch Rivalität gekennzeichnet. Die Beteiligten wollten vorzugsweise nichts dazu beitragen, also schwarzfahren. Daraus leitete er Anforderungen an ein funktionsfähiges Aufsichtsregime ab.

Don Kohn betonte, dass makroprudentielle und Geldpolitik auf komplexe Weise interagierten. Sie wirkten beide über ihre die Beeinflussung der finanziellen Bedingungen. Um Synergien in der Informationsverarbeitung zu nutzen, sei es vorteilhaft, beide Funktionen unter dem Dach einer Institution zu haben. Es sollten jedoch zwei spezialisierte Komitees zuständig sein. Der Grund für diese Arbeitsteilung sei, dass beide „sehr unterschiedliche Wege, sehr unterschiedliche Instrumente sowie stark divergierende Zwischen-Ziele“ verfolgten. Für die Fed sei der naheliegende Ansatz, dass das FOMC die Geldpolitik wie bisher steuert, das Direktorium (das Board, dessen Mitglieder die Mehrheit im FOMC darstellen) sich aber auf die makroprudentiellen Themen konzentriert.

Für Lars Svensson (Stockholm School of Economics, IWF und Ex Riksbank) ist ebenfalls klar, dass beide Politikbereiche sehr unterschiedlich sind. Deshalb müssten die Mandate auch getrennt verfolgt werden. Gleichzeitig wäre es problematisch, wenn Zuständigkeiten für eine Aufgabe über diverse Institutionen verteilt würden. Verantwortungsfähigkeit sei ansonsten nicht zu gewährleisten. Daraus ergibt sich für Svensson zwingend, dass ein monetäres Gegenhalten aus Finanzstabilitätsgründen – das von der Bank für Internationalen Zahlungsausgleich (BIZ) seit langem empfohlene „leaning against the wind“ – abzulehnen ist. Die Geldpolitik dürfte nicht überfordert werden. Unter normalen, sprich: Nicht-Krisenumständen, bedarf es auch keiner Abstimmung. Die jeweiligen Funktionszuständigen sollten ihre Maßnahmen wählen, indem sie ein bestimmtes Verhalten der anderen Institutionen unterstellen, so wie es deren Mandat entspricht.

….und die Werkzeugkiste

Die beiden Schlusspanels befassten sich einmal mit Mess- und Diagnoseverfahren sowie zum anderen den Institutionen der Politikumsetzung. Nellie Liang (Fed Board) präsentierte Indikatoren finanzieller Verletzlichkeit, die von Ökonomen der Fed entwickelt wurden. Unabhängig von Modellüberlegungen, also recht eklektisch, allein datenorientiert, wurde eine Vielzahl von Indikatoren in einem Zeitreihenansatz auf ihre Verlässlichkeit bei der Einschätzung von Finanzstabilitätsproblemen in den Vereinigten Staaten untersucht. Diese Verfahren dienen insbesondere auch der Entscheidungsvorbereitung. So fanden sie zum Beispiel Eingang in eine Szenario-Analyse, die ein Komitee von Fed Gouverneuren noch am Tag zuvor erörtert hatte, in einem sogenannten Tabletop Exercise, das eine realistische Entwicklung skizziert, die makroprudentielle Fragen aufwirft. 

Adam Posen (Peterson Institute und Ex-Bank of England) würdigte das Arrangement an amerikanischen Aufsichtsinstitutionen vor dem Hintergrund internationaler Ansätze zur institutionellen Behandlung makroprudentieller Politik. Und der amerikanische Ansatz kam, gerade nach den Reformen des Dodd-Frank Gesetzes, dabei ziemlich schlecht weg. Vor allem wurde von Posen moniert, dass die Fed in ihrer Rolle als Retter letzter Zuflucht deutlich eingeschränkt wurde. Dass diese Kompetenzbeschränkung in künftigen Krisen ein Problem darstellen dürfte, hat auch Stanley Fisher (Fed Vize-Gouverneur) betont.

Die Diskussion war durch die Einschätzung geprägt, dass die europäische Architektur weit klarer sei. Dort hat man, so Vitor Constancio (EZB-Vizepräsident), die systemische Dimension vermutlich ernster genommen. Als saubere Blaupausen wurden vor allem der britische (one mission), aber auch der schwedische Ansatz, strikte Trennung zwischen Riksbank und Finansinspektionen, gesehen. Es wäre interessant der Frage nachzugehen, inwieweit das auch für den Euroraum zutrifft. Der einheitliche Aufsichtsmechanismus kontrolliert mehr als 120 Banken und mehr als 4/5 der Bankbilanzen. Er ist damit qua Reichweite makroprudentiell, jedenfalls was die Banken (nicht aber die Nichtbank-Banken) betrifft. Zudem ist er unter einem Dach mit der Geldpolitik. Das sollte Koordinationsprobleme mindern. Dennoch ist nicht ganz klar, jedenfalls von außen, wie Informationsaustausch funktioniert bzw., noch wichtiger, wie die Informationen verarbeitet werden. Es ist ebenfalls unklar, welche Rolle die nationale Ebene spielt bzw. spielen sollte.

Offene Fragen. Anregungen zum Weiterdenken

Sobald von den Übertragungswegen monetärer Impulse die Rede ist, folgt quasi unausweichlich (reflexhaft) der Nachsatz: davon wisse man zu wenig. Für die makroprudentiellen Einflusskanäle gilt dies in noch stärkerem Maße. Ben Friedman hat vor 40 Jahren das Bild gebraucht, man müsse bei einigen Sportarten das Auge auf den Ball halten. Hier ist selbst das Ziel nur recht unpräzise definiert. Vermutlich gibt es sogar mehrere Bälle.

Dennoch sind die Fragen in beiden Politikfeldern – der Geld- und der makroprudentiellen Politik (MPR) – sehr ähnlich. Das ist möglicherweise einer der Gründe, weshalb man mit vertrauten Konzepten der monetären Analyse über MPR diskutiert.

Posen schlug zum Beispiel eine Regelorientierung der MPR vor. Dafür spricht, dass sich Marktteilnehmer auf klare Signale verlassen können. Zudem wird die systematische Neigung, abzuwarten, begrenzt. Dieser bias hängt eng mit der Einschätzungsunsicherheit zusammen. Er ist vor allem kennzeichnend für Entscheidungsgremien, die keine hohe Vielfalt an Positionen aufweisen, in denen Gruppendenken die Regel ist. Das ist besonders kostenreich in Situationen, in denen außerhalb der Box gedacht werden muss.

Das Kernproblem ist aber, woran man eine bzw. die Regel ausrichten soll. Es gibt keine vorlaufenden, stets verlässlichen Indikatoren. Diese irrlichtern oft, produzieren Geräusche, also falsche positive Signale und eventuell auch falsche negative. Andere Indikatoren wären besser geeignet. Darauf hat Luc Laeven (EZB) in der Diskussion hingewiesen. Aber auch ein Indikator, der relativ selten falsche Signale sendet, ist möglicherweise problematisch – weil er überhaupt zu wenige Warnungen gibt. Keine einfache Regel vermag das Entscheidungsproblem vernünftig abzubilden. Das spricht nicht gegen derartige Analysen. Im Gegenteil. Gerade wenn man skeptisch gegenüber einfachen Regeln ist, also auf Urteil setzt, sollte man möglichst viel über die stilisierten Daten wissen. Hier geht es vor allem um kreditfinanzierte Vermögensblasen, wie Moritz Schularick (Bonn) und Ko-Autoren in vielen exzellenten Arbeiten gezeigt haben.

Es kommt etwa weiteres hinzu: Finanzinstabilitätsprobleme sind oft an spezifische Sektoren oder in spezifischem Verhalten begründet. Sie sind auf eine gewisse Weise weniger makro, mehr meso. Sie sind also spezifischer. Das legt ein fallweises Eingreifen nahe, eine differentielle Behandlung. Stanley Fischer und Mervyn King (NYU und Ex-Bank of England) sprachen davon, dass man spezifische Zinsen bräuchte. Ein ähnliches Ergebnis erreicht man mit unterschiedlichen, genau adressierten regulatorischen Anforderungen. Etwa bei der erforderlichen Kapitalunterlegung oder durch Kreditstandards, wie etwa eine maximal zulässige Einkommensbelastung. Derartige Regelungen lassen sich in Schattenpreise, besser Schattenzinsen oder  -kreditkosten, umrechnen.

Das ist alles nicht neu. In Deutschland gab es in den 1970ern die Diskussion über eine selektive Geldpolitik. Sie galt nicht nur als undurchführbar, sondern wenig zweckdienlich. Wenn man sich französische Lehrbücher zur Geldpolitik bis Mitte der 1980er anschaut, dann ist dort von encadrement du crédit die Rede, eine makroprudentielle Politik vor ihrer Zeit. Oder auch nicht: Don Kohn verwies darauf, dass selektive Eingriffe erst in den 1980ern unmodern wurden.

Wie auch immer, die Zeiten wandeln sich, laufend. Makroprudentielle Politik wird diskretionär sein müssen, auf aufgeklärte Urteile bauen. Und sie wird umstritten bleiben. Unbestritten ist zudem, dass die systemische Dimension der Finanzmarktregulierung, auf die die BIZ lange vor der Krise nicht müde wurde hinzuweisen, siehe zum Beispiel hier und hier, nicht verdrängt werden kann. Es ist ein Trugschluss der Verallgemeinerung von der (vermeintlichen) Gesundheit von Einzelinstituten auf die systemische Stabilität zu schließen. Ebenso wenig erschöpft sich erfolgreiche Finanzstabilitätspolitik in einer niedrigen Inflationsrate.

Wo ist der eingangs erwähnte Zusammenhang, auf den Ben Friedman verwies? Kreditvariablen – die Bilanzen von Haushalten, Unternehmen und Banken – spielen eine wesentliche Rolle bei der Formulierung der makroprudentiellen Politik. Dem Immobiliensektor kommt dabei eine besondere Bedeutung für die Geldpolitik zu. Dieser stand übrigens im Mittelpunkt der vierten Konferenz der Boston Fed – im Oktober 1970.

—————————————————-

*) Hans-Helmut Kotz unterrichtet mittlerweile im sechsten Jahr, jeweils im Herbstsemester, einen Kurs am Economics Department der Harvard University. Er verantwortet zudem ein Programm am dortigen Center for European Studies. Er ist darüber hinaus Ko-Direktor des SAFE Policy Centers an der Goethe Universität Frankfurt. Von 2002 bis 2010 war Hans-Helmut Kotz Mitglied des Vorstands der Deutschen Bundesbank.

1

6 Lesermeinungen

  1. Pingback: Peterson Institute For International Economics Careers | Welcome to the website

  2. Wenn man den Artikel von Hans-Helmut Kotz sehr sorgfältig liest ...
    … finden sich darin einige leise Zweifel an den diversen Modellen. Vermutlich darf ein Fachmann diese nicht lauter äussern, wenn er nicht den Ausschluss aus der Fachcommunity riskieren will.

    Als 1993 die Taylor-Regel entwickelt wurde, waren die konjunkturellen Aussichten im Westen noch weitgehend intakt, d.h. eine Erhöhung der Geldmenge führte zu gewinnbringender Zunahme der (industriellen) Produktion.

    Heutzutage ist diese Voraussetzung nicht mehr vorhanden, weil die industrielle Produktion grossteils im Osten durchgeführt wird.Darin dürfte der Grund zu sehen sein, warum die ekstatische Gelddruckerei Draghi’s weder die europäische Produktion ankurbelt noch die Inflation steigen lässt.

    Die einzige Wirkung wird in der Bildung noch grösserer Blasen bestehen, welche an dem Tage platzen, wo die eine genügend grosse Zahl von Entscheidungsträgern mit Bauch- und Gemeinschaftsgefühl bemerken, dass des Kaiser’s neue Kleider nur virtuell waren…

  3. Outside the box
    Erfolgreich stabilisierende Geldpolitik löst die inhärenten Instabilitätsgründe nicht auf, sondern staut die Symptome bestenfalls auf und schafft in weniger günstigen Fällen eine Reihe weiterer Instabilitätsursachen. Eine weithin bekannte inhärente Ursache ist das Teilreserve-System (Bank-Runs). Ein ebenfalls bekanntes Beispiel für „Folgeursachen“ ist die zunehmende Konzentration von Finanzaktivitäten innerhalb von sehr wenigen Organisationen („too big too fail“, Systemrelevanz, oder einfach Monopolisierung), aufgrund praktischer „Stabilisierungspolitik“. An Ersterem hält man aufgrund der vielen vermeintlichen Vorteile fest, die es bietet, obwohl das Risiko bekannt ist. Zweiteres verschärft das Problem zunehmend, da immer mehr systemrelevante Banken entstehen können, weil vorsätzlich die ökonomisch betrachtet notwendige Aufspaltung und Neuverteilung sowie Liquidierung der Assets verhindert wird.

    Das mag aus geldpolitischer und entsprechender akademischer Ausrichtung ganz hilfreich sein, denn Geldpolitiker schaffen sich damit selbst weitere Betätigungsfelder (hier in Form eines weiteren Mandats) und Ökonomen gewinnen dadurch immer weitere Untersuchungsgegenstände (hier die systematischen Konsequenzen, die ein zusätzliches Mandat nach sich ziehen könnte), nur zielführend ist es nicht.
    Zumindest sofern man das Ziel derart formuliert, dass der Prozess, der die Unverhältnismäßigkeit zwischen prinzipiell unendlichen materiellen Bedürfnissen von Menschen und dafür zur Verfügung stehenden knappen Ressourcen reguliert, bestmöglich funktioniert und / oder besser verstanden werden muss.

    Außerdem bindet es akademische Ressourcen im Bereich Politberatung, was ebenfalls auf ineffiziente und ineffektive Verwendung von knappen Ressourcen hinaus läuft.
    Meinem persönlichen und aktuellen Eindruck nach, scheint sogar die Mehrheit derjenigen, die sich als Ökonomen bezeichnen, damit beschäftigt zu sein, Politberatung zu betreiben und damit mehr einem Lobbyisten zu entsprechen als einem Wissenschaftler im originären Sinne des Wortes – Menschen die Wissen schaffen.
    Daran anschließend, wundert es mich persönlich nicht, dass Ökonomen von Wissenschaftlern anderer Felder verachtet werden bzw. kann ich das durchaus nachvollziehen.
    Man stelle sich mal vor, 90% aller weltweiten Mathematiker oder Philosophen wäre faktisch damit beschäftigt, politische Probleme zu bearbeiten und möglichst zu lösen respektive Politberatung zu betreiben.
    Irrwitzige Vorstellung; der Bericht über diese Konferenz vermittelt aber genau diesen Sachverhalt über die Ökonomie.

  4. Ein Discours und Deutungen im Perspektive von La Fontaine
    zwingen erneut zur Aufklärung ,da al zu häufig mit äußerste Gewissenhaftigkeit dringend von nöte Differenzierung und Erweiterung [geopolitische Differenzen und theoretische Vermächtnisse ] vernachlässigt werden ,keineswegs absichtlich .
    Das Grundproblem meines Erachtens sei dass irgendwie die unmittelbare Nähe außer Sicht gekommen ist .Dauernd Neuigkeiten auf die Bühne aus zu stellen ,ist ein Faktor die nicht immer ein monetäre Discours voranbringt.

    Fable II[Livre cinquième ]:
    Le Pot de terre et le Pot de fer

    Le Pot de fer proposa
    Au Pot de terre un voyage
    Celui-ci s’en excusa
    ,Disant qu’il ferait que sage
    de garder le coin du feu;
    Car il lui fallait si peu,
    Si peu,que la moindre chose
    De son débris serait cause.
    Il n’en reviendrait morceau.
    Pour vous ,dit-il ,dont la peau
    Est plus dure que la mienne ,
    Je ne vois rien qui vous tienne
    .Nous vous mettrons a couvert ,
    Repartit le Pot de fer,
    Si quelque matière dure
    Vous menace d’aventure ,
    Entre deux je passerai,
    Et du coup vous sauverai .
    Cette offre le persuade .
    Pot de fer son camarade
    Se met droit à ses côtés .
    Mes gens s’en vont à trois pieds,
    Clopin-clopant comme ils peuvent,
    L’un contre l’autre jetés .
    Au moindre hoquet qu’ils treuvent.
    Le Pot de terre en souffre : il n’eut pas fait cent pas.
    Que par son Compagnon il fut mis en éclats ,
    Sans qu’il eût lieu de se plaindre.
    Ne nous associons qu’avec que nos égaux;
    Ou bien il nous faudra craindre
    Le destin d’Inde ces Pots. “

    Danke für die lesenswerte und ernsthafte theoretische sehr verschiedene Perspektiven.

  5. Pingback: Kleine Presseschau vom 7. Oktober 2015 | Die Börsenblogger

  6. Finanzstabilität ist das ureigenste Mandat einer Zentralbank
    Schaut man sich die Geschichte der ZBen an (insbesondere die der Fed), dann ist die Etablierung von Clearingstellen nichts anderes als die ureigenste Funktion von Zentralbanken. Ohne Clearinginstanzen keine Finanzstabilität sondern Liquiditäts-/Bankenkrisen oder TARGET-Desaster am laufenden Band: https://soffisticated.wordpress.com/2012/05/07/die-wunder-geldpolitischer-hierarchien/.

    Der Rest (Preisniveaustabilität bzw. Dual Mandate der Fed) wurde dann später hinzugedichtet und basiert auf einer fehlerhaften exogenen Geldtheorie. ZBen bestimmen weder das Preisniveau noch können sie für Vollbeschäftigung sorgen. Zumindest nicht mit den klassischen Instrumenten der Geldpolitik. Preisniveaustabilität ergibt sich aus dem Dreiklang von abgestimmter Geld-, Fiskal- und Lohnpolitik. Und wenn schon ein „drittes Mandat“, dann aber bitte auch die Instrumente hierzu:

    „Seven years after 2008, global leverage is higher than ever, and aggregate global demand is still insufficient to drive robust growth. More radical policies – such as major debt write-downs or increased fiscal deficits financed by permanent monetization – will be required to increase global demand, rather than simply shift it around.” https://www.project-syndicate.org/commentary/demand-crisis-radical-measures-by-adair-turner-2015-10

    LG Michael Stöcker

Kommentare sind deaktiviert.