Alle drei bis vier Jahre eine Jahrhundertkrise?

Warum viele Risikomodelle die tatsächlichen Risiken unterschätzen.

Paul Kaplan 12.03.2009
Facebook Twitter LinkedIn
Die aktuelle Finanzkrise hat das Vertrauen der Investoren in die Grundpfeiler des globalen Finanzsystems erschüttert. 2008 verloren globale Aktien mehr als 37% (MSCI World). Die Risikoaufschläge von Anleihen geringer Bonität gegenüber Staatsanleihen erreichten noch nie gesehene Ausmaße. Viele Märkte sind ausgetrocknet, Kredite ein knappes Gut geworden. Notenbanken und Regierungen weltweit versuchen, mit Rettungsmaßnahmen die Liquidität an den Märkten wiederherzustellen, die Kreditvergabe in Gang zu bringen, das Vertrauen in den Aktienmarkt wiederzubeleben und eine globale Rezession zu verhindern.

Sollte Ihnen der Ernst der Lage noch nicht klar geworden sein, müssen Sie nur unseren (Geld)politikern zuhören, die von der Krise als einem Jahrhundertereignis sprechen. Oder gar von e

inem Kredittsunami, wie er nur einmal in hundert Jahren vorkomme (Alan Greenspan).

Es steht außer Zweifel, dass die gegenwärtige Kreditkrise in vielerlei Hinsicht einmalig ist und die Weltwirtschaft vor ihrer größten Herausforderung seit der Großen Depression steht. Doch sind schwere ökonomische Krisen tatsächlich so selten wie Greenspan & Co. meinen? Ein Blick in die Vergangenheit zeichnet ein anderes Bild. Nehmen wir als Beispiel den S&P 500. Über die Zeitspanne seit 1926 errechnet sich eine jährliche Rendite von eindrucksvollen 9,6%. Darin enthalten sind allerdings mehrere dramatische und lang anhaltende Kursrückgänge, manche davon noch nicht so weit zurückliegend. So verlor der S&P 500 während der Internetblase innerhalb von zwei Jahren fast 45% seines Werts und benötigte vier Jahre, um den alten Höchststand wieder zu erreichen. Insgesamt gab es (einschließlich der aktuellen Krise) acht Episoden, in denen der Index von einem Hoch aus mehr als 20% einbüßte. Die Behauptung, die jetzige Situation wäre ein Jahrhundertereignis, lässt sich damit nicht halten.

Risikomessung: Standard-Risikomodelle

Nachdem Verluste von mehr als 20% in fast jedem Jahrzehnt vorkommen, würde man meinen, dass standardmäßig genutzte Risikomodelle solchen Ereignissen eine relativ hohe Wahrscheinlichkeit beimessen. Das ist allerdings nicht der Fall. Um zu verstehen warum, müssen wir uns die Entwicklungsgeschichte solcher Modelle anschauen.

Um komplexe Kapitalmärkte besser greifbar zu machen, entstanden in den 1960er und 70er Jahren mathematische Modelle, die heute noch in der Investmentbranche weit verbreitet sind. Diese Modelle nutzen als wichtigstes Risikomaß die Standardabweichung der Renditen. Sie gehen von einer Normalverteilung der Investmenterträge aus. (Kleine prozentuale Gewinne oder Verluste sind sehr viel wahrscheinlicher als große Bewegungen nach oben oder unten.)

Die folgende Graphik zeigt eine Normalverteilung (grün) im Vergleich zu den tatsächlich beobachteten Monatsrenditen des S&P 500 (blau):


Wenn Renditen normal verteilt sind, beträgt die Wahrscheinlichkeit für eine Rendite, die mehr als drei Standardabweichungen unter dem Durchschnitt liegt, nur 0,135%. Seit Januar 1926 verfügen wir über mehr als 996 Monatsrenditen. 0,135% davon entsprechen 1,34 – d.h. größere Verluste sollten in dieser Zeitspanne nur ein oder zweimal auftreten.

In der Praxis kam dies aber seit 1926 zehn Mal vor. Anders gesagt: Standard-Risikomodelle unterschätzen bei weitem die Wahrscheinlichkeit extremer Ereignisse. Diese treten 5-10 Mal häufiger auf, als es den Modellannahmen entspricht.

Alternative Ansätze: Stabile Verteilungen

Anfang der 1960er Jahre entwickelten Benoit Mandelbrot und Eugene Fama ein statistisches Modell mit „Fat Tails“. Im Vergleich zur Normalverteilung wies dieses extremen Ereignissen (Renditen) eine höhere Wahrscheinlichkeit zu. Die daraus resultierende „stabile Verteilung“ (grün) lässt sich mit den tatsächlichen empirischen Beobachtungen (blau) besser in Einklang bringen als die klassische Glockenkurve.



Dieses Ergebnis stellt auch die Minimum-Varianz-Optimierung, eine gebräuchliche Portfoliokonstruktionstechnik, die auf normal verteilten Renditen beruht, in Frage. Warum wird das Modell der stabilen Verteilung dann nicht häufiger genutzt? Verschiedene Gründe kommen in Frage: Die Mathematik ist anspruchsvoller. Die Randbereiche der Verteilung sind sehr groß, so dass die Varianz unendlich ist. Das führt auch dazu, dass die meisten Portfoliotheorien und –konstruktionstechniken hinfällig sind – auch solche, die auf alternativen Risikomaßen wie dem Downside-Risiko beruhen. Letztlich gibt es im Gegensatz zur Normalverteilung keinen einfachen Weg, die Parameter des Modells zu schätzen.

Risikokennzahlen vs. Risikomodelle

Die Konsequenz daraus ist nicht, dass Finanzberater herkömmliche Risikokennzahlen über Bord werfen sollten. Sie sollten deren Grenzen aber verstehen und darüber hinaus folgende Fragen betrachten:

Wie hoch ist die Wahrscheinlichkeit eines Verlustes?
Wie lange könnte er anhalten?
Welches Ausmaß könnte er annehmen?

In einigen Bereichen der Finanzbranche wird bereits der Value-at-Risk gemessen, d.h. wie hoch ein Verlust in einem bestimmten Zeitraum und mit einer bestimmten Wahrscheinlichkeit ausfallen könnte.

Eine wichtige Komponente des Risikos ist der Zeithorizont. So zeigt sich, dass das Risiko eines kumulierten Verlusts von 50% und mehr über längere Zeiträume (bis zu 50 Jahre) vernachlässigbar ist, wenn man die Normalverteilung zugrunde legt. Anhand der stabilen Verteilung ergibt sich aber eine Wahrscheinlichkeit für einen solchen Verlust von 4-5%. Der Unterschied ist groß genug, um risikobewusste Anleger aufhorchen zu lassen.

Fazit

In jeder Finanzkrise lernen Investoren dieselbe Lektion: Dass es kein magisches Risikomaß oder –modell gibt, mit dem sich alle wesentlichen Verluste an den Märkten prognostizieren ließen. In der Realität ist die Reise viel holpriger als von den meisten Risikomodellen angezeigt wird. Finanzberater sollten ihre Kunden auf schwerwiegende Verluste vorbereiten und sie auch immer mal wieder an die Risiken erinnern, die man als Investor automatisch eingeht.

Paul D. Kaplan, Ph.D., CFA, ist Vice President of Quantitative Research bei Morningstar. Der vorliegende Artikel (hier in Auszügen publiziert) erschien ursprünglich in ‚Morningstar Advisor’, einem US-Magazin für Finanzberater.

Die in diesem Artikel enthaltenen Informationen dienen ausschließlich zu Bildungs- und Informationszwecken. Sie sind weder als Aufforderung noch als Anreiz zum Kauf oder Verkauf eines Wertpapiers oder Finanzinstruments zu verstehen. Die in diesem Artikel enthaltenen Informationen sollten nicht als alleinige Quelle für Anlageentscheidungen verwendet werden.

Facebook Twitter LinkedIn

Über den Autor

Paul Kaplan  Paul Kaplan is Director of Research for Morningstar Canada.