Comparaison différentes méthodologies de calcul de la VaR


Comparaison des deux différentes méthodologies de calcul de la VaR


La Value at Risk (VaR) est devenu un indicateur de risque largement utilisé par tous les établissements financiers car elle permet d’appréhender les risques de marchés de façon globale dans une unité de mesure commune quelle que soit la nature des risques : taux, change, actions, matières premières, dérivés …
Ce petit exposé propose de montrer les différences entre la méthode historique et la méthode analytique. Il n’y aura pas de chapitre mathématique, mais vous retrouver ces points dans les liens en fin d’article.


La VaR : une perte potentielle

La VaR est une estimation de la variation défavorable d’instruments financiers détenus dans un ou plusieurs portefeuilles pour une période donnée.
Elle représente une perte potentielle, ce qui en fait un concept simple à comprendre.
La VaR est calculée dans une unité commune de mesure, pour un intervalle de confiance et une durée déterminée :
L’équation générique de la VaR peut donc être posée de la façon suivante :
Probabilité de perte potentielle moins grande ou égale à la (VaR) elle- même plus grande que le seuil de tolérance.
 Il existe deux familles de méthodologies de calcul de la Value-at-Risk :
L’objet de cet article est d’établir une approche comparative de ces deux méthodes, afin de pouvoir déterminer la plus appropriée aux portefeuilles à analyser.
Si le concept de VaR est aisé à comprendre, son calcul et l’infrastructure associée à mettre en œuvre peut rester complexe.
Pour ce faire, la question incontournable est de savoir quelle méthodologie de calcul choisir.
Un nombre important de facteurs entrent en jeu dans le processus décisionnel de ce choix. Les critères les plus importants seront énoncés dans le présent article, à la lumière des deux méthodologies de calcul utilisées : la méthodologie statistique (ou méthode des quantiles) et la méthodologie analytique.

La méthodologie statistique

 La méthodologie statistique se base essentiellement sur l’observation de la distribution de fréquence des pertes et profits ou rendements d’un ensemble d’instruments financiers regroupés en portefeuilles.
La distribution des rendements est le plus souvent obtenue à partir de séries chronologiques des prix de marché, c’est pourquoi l’on parle aussi de méthode historique, mais il est concevable d’utiliser des jeux de scénarios par tirage au sort dans une population de scénarios historiques comme dans la méthode de Monte Carlo.
Dans la méthode historique, la distribution est obtenue, pour des séries chronologiques d’observations des prix de marché de chacun des instruments composant les portefeuilles, sur un intervalle de temps constant (par exemple 1 jour, ou 10 jours ou 1mois).
L’analyse statistique de la distribution empirique permet de dégager les paramètres de la distribution, paramètres de position comme la moyenne ou le mode, et paramètres de dispersion comme les extrema, l’écart-type ou les quantiles.
La VaR est un quantile de la distribution pour un seuil de confiance que l’on se fixera.
Le premier percentile est, par exemple, une estimation du risque pour un seuil d’acceptation de 1% c’est-à-dire un montant de pertes qui ne sera dépassé (en valeur absolue) que dans 1% des observations.
Le processus de calcul nécessite la détermination d’une chronique de P&L périodiques des actifs des portefeuilles, résultant des variations successives des historiques de prix de marchés ou scénarios. La distribution de P&L d’un ensemble d’instruments résultera de la somme des résultats de chaque scénario pour chaque instrument. Sur cette distribution sera alors observé le quantile correspondant à l’intervalle de confiance choisi.
Les informations requises pour ce calcul de la VaR sont les suivantes :
Les principaux avantages des méthodologies statistiques sont les suivants :
 Tous les facteurs élémentaires de risques (prix de chaque instrument) sont pris en compte globalement, notamment les corrélations entre les variations des différents facteurs, simplicité de compréhension et représentation graphique du risque sur l’histogramme de la distribution des rendements.
Simplicité de calcul dès lors que l’on dispose des librairies financières de pricing des instruments, ce qui devrait être une évidence car comment détenir des actifs en position si l’on ne sait pas les évaluer ?
Simplicité de la collecte des risques : du fait de la possibilité de sommer algébriquement les distributions, on pourra délocaliser les calculs financiers élémentaires d’évaluation des instruments dans les outils spécialisés du Front Office (par exemple), et traiter dans l’outil risque les résultats obtenus selon les axes d’agrégation souhaités,
La mise en œuvre du back-testing (comparaison des risques aux résultats réels), ne requiert pas de développement particulier, puisqu’elle utilise les mêmes principes de calcul sur la base d’un scénario de variations de prix observées a posteriori.
En revanche, cette méthode présente les principaux défauts suivants :
 Il est difficile d’analyser les composantes sources du risque par facteur de risque car, en prenant l’ensemble des facteurs de risque, on inclut implicitement les corrélations entre les facteurs deux à deux.
Pour calculer une VaR sur un intervalle de temps différent, il faut recalculer les distributions des facteurs de risque du portefeuille sur l’intervalle considéré.

La méthodologie analytique

 Contrairement à la méthode des scénarios historiques, où l’on observe directement l’effet des variations observées des prix de marché sur un portefeuille, la méthodologie analytique s’appuie sur une modélisation de la distribution des facteurs de risque par des lois mathématiques dont on estime les paramètres, afin d’en extraire la volatilité maximale pour un seuil de confiance.
La théorie la plus classique, s’appuie sur une acceptation de la normalité des mouvements financiers (loi normale de Gauss), mais des modèles plus complexes (lois de Levy tronquées), prennent maintenant le pas pour prévoir les amplitudes extrêmes résultant de crises financières probables.
En pratique, la VaR résulte du produit des positions sensibilisées par rapport aux facteurs de risque, par les volatilités des facteurs de risques (extraites du modèle pour un seuil de confiance que l’on se fixe) et tient compte des corrélations statistiques entre les facteurs de risques.
Le calcul de la VaR selon une modélisation normale donne des résultats acceptables en ce qui concerne les instruments linéaires (change, actions). Il est aussi valable pour les instruments de taux dont l’expression simplifiée de la sensibilité aux taux est linéaire (on peut ignorer la convexité si la volatilité est faible). En revanche, elle ne peut être utilisée pour des positions d’options dont le profil de risque est manifestement asymétrique.
L’avantage principal
L’avantage principale est d’avoir la possibilité de décomposer le risque par classes de risque (Taux, Change, Propriété) ou par analyse factorielle (ex. direction, courbure, spread…) ou de calculer la variation des risques entre deux dates.
L’inconvénient majeur
L’inconvénient majeur de cette méthode de calcul vient de l’approximation de la réalité, induisant les simplifications réductrices référencées ci-dessous :
La mise en place de cette méthodologie est relativement simple. En effet, il n’est pas forcément nécessaire de centraliser l’ensemble des opérations. On peut se contenter de collecter les positions agrégées sur les facteurs de risque élémentaires (cashflows mappés).
Les produits standards, volatilités et matrices de corrélation pour les divers facteurs de risques sont disponibles sur des serveurs financiers (Riskmetrics™ de JP Morgan… Mais, dès que les instruments ne sont plus tout à fait standards (produits exotiques, marchés émergents…), l’élaboration des matrices pose des problèmes de recherches d’historiques et de calcul des paramètres statistiques, qui peuvent s’avérer onéreux.
Comme le montre le tableau suivant, il n’existe aucune méthode unique miracle permettant de satisfaire l’ensemble des intervenants concernés par le suivi, le contrôle et la déclaration des risques.
La méthode analytique simple, à mettre en œuvre (même avec un tableur), conviendra pour suivre le risque d’activités “classiques” au sein d’établissements de petite ou moyenne taille ou pour des desks spécialisés dans d’importantes salles de marché.
Pour centraliser les risques d’activités fortement diversifiées et traitant sur les marchés spécifiques d’options ou émergents, la méthodologie des scénarios historiques fournit des chiffres plus proches de la réalité.
En termes de système d’information, il apparaît que les établissements tendent à se constituer des bases de données centralisées comportant les informations nécessaires pour appliquer l’une ou l’autre des méthodologies.

Tableau Questions et Réponses

 
               Statistique       Analytique
Quelle méthodologie choisir en fonction du type d’instruments présents dans les portefeuilles ?
a)  Actions b) Change c) Taux d) Dérivés e) Produits exotiques
Cette méthodologie prend en compte l’ensemble des instruments financiers et des facteurs de risque. Si les portefeuilles comportent des produits dérivés optionnels, ou exotiques, cette méthode donnera les meilleurs résultats.   Si le portefeuille comporte uniquement des produits Actions, de Change et de Taux, c’est vraisemblablement la solution la plus simple à mettre en œuvre pour un résultat satisfaisant. Les portefeuilles comportant des options, ou des produits exotiques, seront traités par la méthode statistique ou le stress testing.  
 
Quelle méthodologie choisir en fonction du type d’instruments présents dans les portefeuilles ?
a) Actions b) Change c) Taux d) Dérivés e) Produits exotiques
Cette méthodologie prend en compte l’ensemble des instruments financiers et des facteurs de risque. Si les portefeuilles comportent des produits dérivés optionnels, ou exotiques, cette méthode donnera les meilleurs résultats.   Si le portefeuille comporte uniquement des produits Actions, de Change et de Taux, c’est vraisemblablement la solution la plus simple à mettre en œuvre pour un résultat satisfaisant. Les portefeuilles comportant des options, ou des produits exotiques, seront traités par la méthode statistique ou le stress testing.  
 
Données de marché
a) Où récupérer les données de marché ?
b) Y a-t-il une notion de coût ?
c) Qualité des données ?
d) Pour les marchés émergents, la profondeur d’historique n’est pas assez grande. Que faire ?
 
a) Nécessité de disposer d’une base de données historiques pour l’ensemble des instruments et de retrouver rapidement des historiques pour de nouveaux instruments.
b) nécessité de s’abonner à des serveurs d’information financière.
c) Nécessité de gérer les données manquantes. Les fournisseurs ne garantissent pas toujours la qualité des données, il faut donc une fonction de contrôle.
d) Dans tous les cas, ces méthodes ne sont pas adaptées tant qu’il n’existe pas de profondeur d’historique suffisante. On est donc conduit à utiliser des scénarios de stress.
a) Pour les principaux facteurs de risque, nous disposons d’un cadre méthodologique et de données statistiques fournis par J-P. Morgan (Riskmetrics™).
b) aujourd’hui, les données Riskmetrics™ sont mises à disposition gratuitement.
Si l’on souhaite produire soi-même ses données statistiques, on est ramené à la problématique de la constitution d’historiques et de contrôles des données collectées.

Pricing, modèles et développements :  
a) Doit-on utiliser des modèles de pricing ?
b) Faut-il des librairies financières ?
c) Quelle est la complexité des développements ?
 
a) Oui, pour l’ensemble des instruments.
b) Les modèles impliquent généralement des librairies de fonctions financières, développées en interne ou disponibles auprès de fournisseurs.
c) Simple pour la méthode historique, complexe pour la génération des scénarios dans la simulation de Monte-Carlo.  
a) Non, il faut se baser sur la sensibilité des instruments.
b) Normalement non.
c) Le calcul des positions sensibilisées.  

Traitement des données de gestion :
a) Faut-il un retraitement des positions ?
b) Les temps de calcul sont-ils importants ?
a) Non, le système de gestion des risques peut se contenter de collecter les vecteurs de P&L, du fait de leur additivité.
b) Oui, pour la méthode Monte Carlo. Néanmoins, on peut gagner du temps en éliminant les cas sans signification du tirage au sort. Le calcul des P&L élémentaires peut être effectué dans l’outil de Front-Office, si celui-ci bénéficie de fonctionnalités de simulation.
a) Il faut agréger les positions sensibilisées sur les facteurs de risque (mapping). Nécessité de disposer de modules spécifiques de retraitement des positions et de calcul des risques, ce qui implique de collecter les informations dans une base centrale.
b) Les performances de traitements sont plus liées à un retraitement des données de gestion qu’à un calcul des risques limité à un simple produit matriciel.

Analyse des résultats :
Quels résultats puis-je exploiter ?
Puis-je décomposer mes risques par facteurs ?  
 
Uniquement le résultat global de calcul des risques. On est limité à une analyse du risque par portefeuille.  
Il est possible d’analyser les résultats par classes de risque pour mettre en évidence des risques non diversifiés (taux, change, action) ou des facteurs particuliers (sur les taux : directionnel, spread, torsion).
Bien adapté au suivi opérationnel des risques.  

Une mesure de risque pour quoi faire ?
a) Gestion des risques de marché
b) Reporting réglementaire
c) Contrôle des risques
d) Suivi de limites en VaR
 
a) Difficulté à détailler par facteur de risque.
b) Oui, permet d’établir les reportings réglementaires
c) Le risque est observable mais non analysable.
d) Difficulté à décomposer les risques par classes.
a) Oui, car on peut isoler le risque par facteur.
b) Oui, mais nécessité d’utiliser des méthodes complémentaires pour les risques Options.
c) Oui, suivi des VaR par classe de risques et mise en évidence des effets de diversification associés aux différents nœuds d’agrégation.
d) Oui, la possibilité de calculer des risques pour différents critères d’agrégation des positions permet de les comparer à des limites.

Scénarios de Stress :
a) Quels scénarios mettre en œuvre ?
b) Quelles simulations ?
 
La mise en œuvre des scénarios de stress relève de la même méthode que le scénario historique.
On peut donc simuler avec les mêmes outils des situations de crise financières.
 
a) Impossibilité de tester des scénarios de crise financière car, par définition, ces scénarios sortent de la norme et donc d’une modélisation par une loi (forte volatilité et décorrélation de certains facteurs).
b) La méthodologie peut simuler des modifications au niveau des volatilités et des coefficients de corrélation de manière arbitraire.
Le problème est d’imaginer le caractère réaliste de ces paramètres.  
 

 

Liens complémentaires :

Dix Vidéos, sur YouTube, de moins de dix minutes chacune dans lesquelles Saïd Chermak explique les propriétés de la loi normale.
Comprendre les quartiles : Understanding Quantiles of Discrete Distributions
Mémoire : Introduction aux Méthodes de Monte-Carlo @Laure ELIE & Bernard LAPEYRE
Mémoire : Méthodes de Monte-Carlo appliquées à la finance @Nicolas BAUD & Vincent PORTE
Mémoire : Méthodes de Monte-Carlo en finance @ O. Senhadji El Rhazi, Wassim Mneja, Abdelaziz Saoudi
Wikipédia :
Loi Normale : Loi_normale
La méthode de Monte-Carlo
La Value at Risk : VaR
Investopedia :
An Introduction to Value at Risk
What is ‘Value At Risk – VaR’
What is RiskMetrics in Value at Risk ?
Une petite vidéo simple sur la VaR :  value-risk-var

  Retour