Par Mourad HAMDAN : Consultant en management Le vrai danger qui plane sur les investisseurs, actions, obligations ou commos, est la totale imprévisibilité dans laquelle vont de plus en plus plonger toutes les classes d'actifs. L'époque où nous pouvions prévoir le futur en analysant le passé est révolue. Nous sommes face à un nouvel ordre mondial, à de nouveaux défis, qui ne sont en rien comparables à ce qui a déjà été vécu. Jamais le monde n'a eu autant de risque de voir des événements inimaginables survenir. Et cette incertitude toujours plus profonde qui s'installe sur les marchés va devenir le quotidien de chaque investisseur. Sous estimation des risques L'histoire des marchés financiers depuis près de 15 ans atteste largement la sous estimation des risques. Une méthode insatisfaisante de modélisation (des risques) s'est unanimement imposée dans trois grands domaines d'activités : la quantification des risques de portefeuille et leur supposée couverture adéquate ; le prix des options et la gestion d'actifs.La pensée unique en la matière repose sur une loi statistique dite loi normale de distribution (loi de Gauss Laplace ou, plus familièrement, courbe en cloche). Une brèche a été ouverte dans cette pensée unique par Nassim Nicholas Taleb et son célèbre 'Cygne noir'. Cependant, les vieux modèles sont toujours la référence et à l'approche d'un nouveau tournant crucial - celui de la crise de la dette souveraine - il vaut mieux être bien conscient de leurs carences. Quantification trop grossière des risques La recherche de la simplicité [tous les instruments financiers sont supposés dépendre de facteurs de risque suivant la même loi statistique normale (ou plus exactement log-normale)] et de la rapidité de calcul a toujours été privilégiée. Cette hypothèse simplificatrice a le mérite d'accélérer les calculs de la VAR (value at risk) qui agrège les risques d'un ensemble d'actifs et évalue les pertes possibles dans un intervalle de temps donné. Produits dérivés (pour contrer le risque de la volatilité) A l'époque de la dérégulation, de la désintermédiation et de la déréglementation des marchés financiers (début des années 1970 outre Atlantique, début des années 1980 Outre Manche et milieu des années 1980 en France), apparaît alors un phénomène nouveau appelé volatilité ou écart de prix par rapport à une moyenne historique habituelle.Les taux de change deviennent volatils depuis la fin des accords de Bretton Woods un certain 15 août 1971, date sans doute la plus importante de l'histoire monétaire contemporaine. Le président américain, Richard Nixon, annonce la suppression totale de la convertibilité du dollar en or.Les taux d'intérêt sont également devenus volatils avec la mise en place de politiques monétaires de contrôle de la masse monétaire (sous l'impulsion de Paul Volcer patron de la Fed de 1979 à 1987) et avec la remise en cause de l'économie administrée en Europe continentale dans les années 1980. Pour couvrir les variations de taux de change et de taux d'intérêt, de nouvelles techniques et de nouveaux produits financiers dits dérivés voient le jour.Les risques de ces produits sont calculés à partir des modèles de Fisher Black et de Myron Scholes. La formule de Black & Scholes permettant d'évaluer le prix de certains de ces produits va alors donner une caution scientifique à ce nouvel environnement. Dérive des calculs de risque La simplicité mathématique (il suffit de savoir intégrer une équation différentielle) et la rapidité de calcul (il suffit de disposer de capacités informatiques assez économes et donc ne pesant pas trop sur les coefficients d'exploitation bancaires) sont des arguments contre lesquels personne, ou presque, ne peut lutter. Les activités modernes d'asset management ou de gestion de portefeuille trouvent une légitimité scientifique dans les travaux de Markowits et Sharpe, la théorie moderne du portefeuille et le concept de normalité de la distribution des rendements et des risques. Qui saurait résister au charme de la "frontière efficiente", cet endroit ou le risque-rendement est prétendument toujours optimisé et ou les allocations d'actifs sont dites optimales. Il fut donc impossible de lutter contre ce monopole "scientifique" puisque cet environnement gaussien était paré de toutes les vertus dans le monde de la finance moderne. Tout devait aller pour le mieux dans le meilleur des mondes. Tout d'abord, les Banques de financement et d'investissement (BFI) étaient supposées maîtriser parfaitement leurs risques de marché grâce à l'outil magique de la 'Value at Risk'. Ensuite les filiales asset management de ces établissements bancaires géraient de manière optimale les excédents d'épargne des investisseurs particuliers et institutionnels. Enfin chacun des acteurs pouvaient couvrir ses risques financiers auprès des BFI en ayant recours à des instruments dérivés dont les prix étaient parfaitement estimés. Alors pourquoi n'a-t-on jamais entendu des scientifiques de haut vol alerter sur les dangers des méthodes utilisées pour modéliser la gestion des risques financiers et l'évaluation des actifs financiers ? Travaux de MANDELBROT Oh que si, le regretté mathématicien Benoit Mandelbrot, disparu en octobre 2010, dénonçait et remettait régulièrement en cause le scientisme et l'unanimisme gaussien des marchés financiers. Trois dates importantes de ses contributions à la modélisation des marchés financiers sont à signaler : - En 1961, il mit au point un modèle d'évolution des cours boursiers basé sur la géométrie fractale. Cette discipline, qui avait l'avantage de mieux détecter les variations extrêmes, fut ignorée jusque vers le milieu des années 1990 (officiellement pour cause de complexité, mais sans doute officieusement parce qu'elle ne s'inscrivait pas dans les dogmes officiels de la finance de marché). Sous la pression de l'histoire financière récente, elle est fort heureusement réétudiée en vue d'applications précises. - En 1997, Mandelbrot met en place de nouvelles modélisations qui intègrent les phénomènes de mémoire des variations des prix d'actifs. Il définit la notion de temps multifractal afin de mieux cerner la coexistence de périodes calmes et agitées sur les marchés financiers. En effet, l'amplitude des variations peut rester indépendante d'une séance à l'autre mais aussi se trouver corrélée sur de très longues périodes de temps, ce que ne prennent absolument pas en compte les hypothèses de Black & Scholes. - Enfin en 2004, il publie Une approche fractale des marchés dans laquelle il démontre l'inadaptation de la plupart des outils mathématiques utilisés en finance. Les nombreux événements de marché survenus depuis la crise de 2007 ont donné raison à Mandelbrot dans ses constats selon lesquels les risques extrêmes étaient largement sous-évalués. MANDELBROT et la multiplication des événements rares Qu'on en juge en se replaçant tout juste quatre ans en arrière : - Impensable d'imaginer que certains fonds monétaires dynamiques soient subitement contraints durant l'été 2007 de suspendre leurs valeurs liquidatives et de geler les actifs des investisseurs ! - Impensable également d'imaginer que des émissions structurées complexes notées AAA en avril 2007 soient dégradées de six à sept crans en l'espace de quelques semaines, voire connaissent un défaut six mois après leur lancement. Ainsi le fameux retour à la moyenne de certains écarts de crédit ne vit jamais le jour ! - Impensable non plus de parier sur l'effondrement des grandes banques d'investissement américaines : faillite de LEHMAN BROTHERS, sauvetage ou absorption pour BEAR STEARNS et MERRIL LYNCH. - Et que dire du recours au Trésor américain pour sauver de la faillite de trois des plus prestigieux AAA de la planète : deux agences de refinancement hypothécaire au-dessus de tout soupçon, Fannie MAE et Freddie Mac, ainsi que le premier assureur mondial, AIG. Pourquoi les événements dits rares sont-ils négligés ? Vous connaissez maintenant la raison technique de la sous-estimation des événements rares : l'hypothèse selon laquelle les facteurs de risque suivent une loi statistique log-normale n'est jamais vraiment vérifiée.Cette méthode ne permet pas de bien prendre en compte les produits dont le prix n'évolue pas linéairement avec les facteurs de risque, c'est-à-dire aujourd'hui un nombre incalculable de produits financiers : dérivés classiques de première génération ; dérivés plus exotiques ; titres structurés avec achat d'options implicites (indexés sur tout type de classe d'actif) ; titres structurés avec vente d'options implicites (type callable, reverse floater ou reverse convertible) ; titrisations synthétiques... Mais cette explication n'est pas totalement satisfaisante, d'autres raisons profondes ont consacré le triomphe d'une certaine forme de modélisation. Trois raisons fortes émergent : 1. Pour les dirigeants politiques et économiques du monde entier, ce type d'environnement est idéal puisque les mathématiques (tout du moins une certaine utilisation de celles-ci) permettent de s'auto-persuader que les grandes catastrophes sont quasiment impossibles.On aimerait pouvoir et vouloir le croire, mais ce n'est pas possible.Voilà qui permet en tout cas de rassurer tout le monde : électeurs, clients, salariés et actionnaires. Certains diront que tout cela est normal car le moteur de la croissance et du progrès est en fait la confiance (confiance en qui, confiance en quoi ?). En vérité, le moteur du progrès, c'est de pouvoir se doter des outils de toute nature permettant d'évaluer les risques extrêmes et de mettre en place les stratégies alternatives et politiques correctrices qui devraient s'imposer le cas échéant. 2. Cela permet de continuer à financer les gaspillages et les excès d'endettement qui conduisent à des bulles dont les risques extrêmes sont volontairement minimisés. Les surévaluations d'actifs sont passées sous silence, de même que les risques liés au mimétisme et à l'illiquidité de certains actifs financiers portés. Il y a derrière tout cela trois types de motivations : - Souvent la cupidité de certaines institutions dont les profits se font essentiellement sur des commissions (bulle techno 1999-2000, crise subprime 2006-2007). - Mais parfois la nécessité de justifier la poursuite des financements des déficits publics. La surévaluation des emprunts d'Etat des zones jugées les plus sûres (comme les obligations américaines, britanniques, allemandes ou françaises) n'est pas perçue comme suffisamment risquée, or elle l'est. - Enfin la justification du détournement de l'épargne des ménages vers les emplois les plus improductifs qui soient : le financement des dettes publiques y compris celles des Etats jugés les moins solvables comme nos chers PIIGS. Il est clair que dans ces conditions, on sous-estime dramatiquement les risques de certains compartiments d'un placement comme l'assurance vie (pas forcément au niveau d'un risque en capital mais plutôt au niveau des risques de baisse significative de la rentabilité future). 3. Une minimisation des risques qui permet de légitimer un modèle de développement reposant sur deux piliers : - Normes de rentabilité excessivement élevées au regard des fondamentaux économiques. Ces normes privilégient donc la profitabilité à court terme au développement équilibré de long terme (tant au niveau de l'entreprise qu'au niveau macroéconomique). Les gains sont souvent mal réinvestis. - Ingénierie financière des banques visant à transférer le risque sur certains agents économiques privés pour économiser des fonds propres et améliorer encore et toujours la rentabilité du capital utilisé. Ainsi cela a conduit à sous-estimer considérablement les risques liés au levier excessif dans certains montages structurés complexes. Cela a aussi permis de faire croire à une certaine "efficience des marchés" et à une bonne mutualisation du risque. On a vu lors de la crise des crédits subprime à quel point cette mutualisation pouvait être dangereuse puisque le risque n'était plus correctement localisé et identifié. Que faut-il donc faire ? 1. Les professionnels devraient continuer à investir dans la recherche mathématique afin d'améliorer la modélisation. Toute modélisation comportera toujours des insuffisances par construction. Mais il faut approfondir les recherches de Mandelbrot et mettre en place des vrais scénarios de stress afin de prendre en compte les discontinuités sur les évolutions des prix des actifs. Il s'agira aussi de mieux modéliser les valeurs extrêmes (calibrage des queues de distribution, en jargon) qui sont mal prises en compte dans les calculs de VAR. 2. Les professionnels devraient aussi essayer de mieux comprendre les marchés. Un bon professionnel des marchés (versé soit dans la recherche, le trading ou la structuration) doit être tout à la fois un bon mathématicien, un bon physicien et un bon informaticien sans négliger le fait qu'il faille approfondir ses connaissances dans le domaine de la finance comportementale. Car une chose est sûre : il ne sera jamais possible de modéliser la peur, le mimétisme et encore moins l'effet des contraintes réglementaires, prudentielles et comptables sur les comportements des investisseurs.