« […] Les idées, justes ou fausses, des philosophes de l’économie et de la politique ont plus d’importance qu’on ne le pense en général. À vrai dire le monde est presque exclusivement mené par elles. Les hommes d’action qui se croient parfaitement affranchis des influences doctrinales sont d’ordinaire les esclaves de quelque économiste passé. Les illuminés du pouvoir qui se prétendent inspirés par des voies célestes distillent en fait des utopies nées quelques années plus tôt dans le cerveau de quelque écrivailleur de Faculté. »
John Maynard Keynes
« Théorie générale de l’emploi, de l’intérêt et de la monnaie » Chapitre 24, 1936
Les récentes crises financières et monétaires sont indubitablement une préoccupation majeure des acteurs des marchés financiers, des banques, des pouvoirs politiques et des instances de régulation. Les fluctuations extrêmes des cours de bourse sont importantes pour l’activité économique réelle. La hausse de la volatilité en temps de crise, corrélée à la chute des marchés financiers est particulièrement inquiétante. Nous pouvons donner à ce titre l’exemple de la crise des Subprimes, qui a annoncé la chute de la banque américaine Lehman-Brothers disparue le 15 septembre 2008. Ce climat pousse les acteurs du marché, comme les régulateurs bancaires, à développer de nouveaux outils de protection contre le risque de marché. La finance moderne met en avant les mathématiques du hasard et de la statistique, conceptualisées par des lois mathématiques probabilistes capables de mesurer le risque de marché. Celui-ci se matérialise par l’espérance de pertes auxquelles les investisseurs sont impliqués. Les variations des marchés financiers : marchés des instruments de base–actions, obligations, devises, matières premières – mais aussi les marchés des produits dérivés – contrats à terme, options – sont par définition risquées et instables. Il faut par conséquent déterminer ce risque de manière précise pour mieux l’appréhender. Parmi ces outils, il existe deux mesures générales : la mesure de sensibilité et la mesure de variance.
La première peut être théorisée en fonction de la sensibilité que représente un produit financier par rapport à son indice de référence. Ainsi, le risque de marché est la probabilité de perte liée aux évolutions des marchés.
Naïvement, si nous possédons une action du Dow Jones Industrial Average et que l’ensemble du marché subit une baisse, il semble naturel de considérer qu’il va en être de même pour notre action. Cette première mesure s’assimile à la sensibilité relative d’un actif détenu par rapport aux facteurs de risque de marché. Ainsi, des modèles de risque se sont développés comme le « Capital Asset Pricing Model » (CAPM)(1) pour le plus connu. Ils mesurent la variance de la rentabilité implicite du marché par un coefficient de régression à des facteurs de risque par rapport au marché dans son ensemble. Cependant, le « risk manager » a besoin d’une mesure pragmatique du risque d’exposition. En effet, lorsqu’ un nombre important d’instruments très différents compose le portefeuille, il est difficile d’adjoindre l’ensemble des covariances pouvant exister. C’est pour cette raison qu’il est décisif d’appréhender le risque à partir de profils à la fois différents et complémentaires : la dispersion des pertes et profits des actifs.
La deuxième met en exergue deux mesures de risque venant de la distribution des rentabilités des actifs : la volatilité et la Value-at-Risk (VaR). Ces mesures ne se concentrent pas sur les mêmes paramètres : La volatilité mesure les variations d’un actif autour de la tendance centrale.
Cette mesure accorde le même poids aux gains espérés qu’aux pertes potentielles. Or la notion de risque est directement liée aux pertes émanant d’un actif détenu, lequel implique un revenu aléatoire. Une mesure asymétrique pouvant juger du risque de perte est nécessaire. La volatilité prend donc en compte toutes les rentabilités, positives ou négatives, extrêmes ou modéré. La Value-at-Risk peut se définir comme le quantile déterminant la plus grande perte que peut subir un portefeuille avec une probabilité d’occurrence et sur un horizon de temps déterminé : C’est un indicateur pouvant estimer le risque extrême. Ces deux indicateurs donnent une information différente. D’une part, la volatilité peut enregistrer un taux élevé et seulement capturer des risques moyens, certes significatifs, mais pas extrêmes. Tout l’enjeu d’une mesure du risque synthétique pertinente est d’estimer convenablement la perte éventuelle que peut subir un actif.
D’autre part, déterminer le risque par la volatilité, moment(2) d’ordre 2, présuppose que les moments suivants, le skewness(3) et le kurtosis(4), ne nécessitent pas d’être ajoutés dans une mesure de risque viable. La théorie sous- jacente en est la normalité des rentabilités. La loi Normale est en effet caractérisée par les deux premiers moments. La volatilité n’est assurément pas la meilleure mesure de risque extrême. Utiliser la Value-at-Risk permet de passer outre ces difficultés dans la mesure où le quantile de la distribution ne représente pas un équilibre moyen mais prend en compte les pertes extrêmes. Ce mémoire de recherche prend son essence dans la recherche des valeurs extrêmes appliquées à la Value-at-Risk, afin d’y élaborer une mesure de performance ajustée du risque cohérente. La prévention des évènements extrêmes est aujourd’hui en plein essor. Nous le constatons régulièrement :
– Dans l’étude du vent : à près de 650 km de rayon, ayant atteint un maximum de 280 km/h, l’ouragan(5) Katrina fut le plus puissant et le plus meurtrier des phénomènes naturels qu’ont connu les Etats-Unis, prenant près de 1836 vies et causant plus de 108 milliards de dollars à la collectivité locale(6).
– Dans l’étude des plaques tectoniques : le tremblement de terre Crustal, touchant Haïti le 12 janvier 2010, était d’une magnitude de 7.0 – 7.3. Il a causé la perte de 230 000 vies, faisant 300 000 blessés(7). 1.2 million d’hommes et de femmes furent privés de ressources vitales.
– Dans l’étude séismologique : le séisme de la côte pacifique de Töhoku, où le japon fut impliqué, le 11 mars 2011, dans l’une des plus importantes catastrophes de son histoire : Le Tsunami de Fukushima.
Cet accident majeur a impacté les réacteurs d’une centrale nucléaire laissant un important volume de rejet radioactif.
L’ensemble de ces évènements, dont l’espérance mathématique d’en connaître la manifestation est mince, est de nature extrême. Ils existent effectivement et doivent être pris en compte.
Les statisticiens ont mis en place des mesures de prévention de ces mouvements, utilisant la « théorie des valeurs extrêmes ». Aujourd’hui les domaines d’applications utilisant ces analyses sont nombreux. En hydrologie, par exemple, les données excessives sont particulièrement utiles pour la prévision des crues. Dans le domaine assuranciel, elles sont utilisées dans l’évaluation des grands sinistres. En finance, les marchés financiers connaissent eux aussi des mouvements erratiques extrêmes liés à l’incertitude de l’environnement macro-économique. Faire appel à la théorie des valeurs extrêmes appliquées à la Value-at-Risk dans un tel climat est un bon point d’appui quant à la recherche de la vérité. Expérimenter ces analyses pendant la crise des Subprimes est intéressant : un investisseur aurait-il pu contrôler son risque en mesurant le risque de perte extrême ?
Ce mémoire met en évidence les méthodes théoriques et empiriques d’évaluations des valeurs extrêmes conditionnelles appliquées à la Value-at-Risk afin d’émettre une stratégie performante ajustée du risque. Celui-ci est divisé en deux sections :
Dans la première section, nous verrons l’aspect théorique de la fréquence des rentabilités anormales sur les 30 composantes du DJIA. Cette fréquence nous permettra d’apprécier la vélocité et l’ampleur avec laquelle les rendements d’un actif se meuvent d’un niveau de stabilité donné vers un niveau supposé par la crise, transformant ainsi le discernement qu’ont les investisseurs du risque d’un actif. Puis, nous étudierons la mesure du risque appliquée à la VaR liée aux théories des valeurs extrêmes.
Dans la deuxième section, à travers la partie empirique, nous pourrons nous intéresser à leurs applications sur le DJIA en période de crise des Subprimes.
1 Voir : W F. Sharpe
2 Pour toutes variables aléatoires réelles, X est défini par
3 Le coefficient d’asymétrie (Skewness) correspond à une mesure la distribution d’une variable aléatoire réelle. En termes généraux, l’asymétrie d’une distribution est positive si la queue de droite est plus longue ou épaisse, et négative si la queue de gauche est plus longue ou dense.
4 Le coefficient d’aplatissement ou coefficient de Pearson (kurtosis) correspond à une mesure leptokurtique de la distribution d’une variable aléatoire réelle.
5 Ouragan de catégorie 5
6 Chiffre officielle publié par Knabb Richard D, « Tropical Cyclone Report: Hurricane Katrina: 23–30 August 2005, NHC (National Hurricane center), 20 décembre 2005.
7 Soit plus de 2.5% de la population