IMG
Les mathématiques financières ont-elles un avenir ?

Comment se sont développées les mathématiques financières, à la fois dans le monde académique et dans le monde professionnel? Critiquée pendant la crise, la finance quantitative va-t-elle marquer le pas? Quel usage peut-on faire des modèles? Nicole El Karoui livre son opinion...

À la fin des années 1980, lorsque j’ai commencé à intervenir dans la formation des futurs professionnels de la finance, les mathématiques n’y jouaient pas le rôle qu’elles ont tenu par la suite. Mais avec Helyette Geman (ESSEC), j’avais passé une année dans une banque à décortiquer et à expliquer aux praticiens les premiers modèles stochastiques de taux d’intérêt. Il y avait eu à cette occasion une vraie rencontre intellectuelle.

De fait, il est apparu rapidement qu’il y avait un besoin grandissant de professionnels capables de comprendre les maths: les enjeux quantitatifs devenaient centraux en finance. Parallèlement, il fallait former des mathématiciens capables de comprendre la finance: des quants, dotés d’une compréhension suffisante des marchés pour mettre en place, évaluer, utiliser des modèles appropriés. En 1990, avec Helyette Geman, nous avons donc créé une option Probabilités et finance dans le DEA de Probabilités de l’Université Pierre et Marie Curie-Paris VI, cohabilité avec l’Ecole Polytechnique, l’ENPC et l’ESSEC. Il s’agissait de la première formation de ce genre en milieu scientifique.

Mais ce qui s’est joué à cette époque, ce n’est pas seulement l’arrivée des maths de haut niveau dans le monde de la finance. C’est le développement d’une nouvelle façon de concevoir le risque.

Le «bruit» vs. les fondamentaux?

L’un des horizons du monde de la finance est, depuis les origines, de gérer et si possible réduire les risques. La fin des années 1980 voit à cet égard un véritable saut qualitatif, avec le développement rapide de stratégies dynamiques, par opposition aux techniques suivies jusqu’alors qui consistaient pour l’essentiel à assurer un risque moyen en pondérant différentes catégories d’actifs.

Le développement des mathématiques financières, au début des années 1990, a eu pour premier enjeu de mettre en place une couverture dynamique du risque, appuyée sur des modèles mathématiques toujours plus élaborés. Et à mesure que les modèles se renforçaient, chercheurs et praticiens en sont venus à s’intéresser de plus près, non pas aux modèles eux-mêmes, mais aux éléments qui les perturbaient, aux éléments aléatoires qui brouillaient les courbes.

On peut en effet se représenter les marchés comme des dynamiques perturbées par du «bruit». C’est précisément ce bruit – c’est-à-dire la volatilité au jour le jour – qui, au milieu des années 1990, devient l’objet de toutes les attentions. Non sans conséquences, comme on va le voir. Et il n’est pas illégitime de se demander ce qui a conduit les traders, ceux qui les formaient et ceux qui concevaient les logiciels qu’ils utilisaient, à se focaliser ainsi sur l’immédiat.

Sur le plan technique, le contexte évolue très vite à cette époque. Avec le développement rapide des capacités de calculs des ordinateurs, on passe alors de modèles simples (du binomial, éventuellement avec d’autres composantes), qui pouvaient se calculer à la main, à des calculs plus élaborés, mobilisant des logiciels spécialisés. On le sait peu, mais en 1990, à Chicago, on utilisait encore des systèmes informatiques de 1973! Et les autres bourses mondiales n’étaient pas beaucoup plus avancées.

Cela n’a pas duré et les progrès ont été fulgurants. On assiste alors, d’une part, à une évolution très rapide de la taille des marchés, et d’autre part à une assimilation tout aussi rapide des techniques très élaborées qui permettent de les appréhender. Par exemple, les équations dérivées partielles sont assez vite calculées par les ordinateurs, et on passe alors à des techniques probabilistes bien plus complexes, qui permettent d’affiner les modèles. Par exemple, des techniques de type Monte-Carlo, consistant à répéter un grand nombre de fois un phénomène, de façon à obtenir une approximation de plus en plus fiable de la vraie valeur de l’espérance mathématique.

Les métiers de la finance ont alors changé de nature. Il faut noter que, sur le plan scientifique, c’était passionnant. Il s’agissait d’intégrer des équations toujours plus complexes, par exemple des processus stochastiques (des phénomènes aléatoires dépendant du temps), et de confronter les modèles obtenus aux mouvements réellement observés. Le «bruit» brownien devient alors l’objet de toutes les attentions, car on note une différence entre le niveau statistique du bruit et celui qu’on observe dans la réalité.

Ce qui s’explique par le fait que les acteurs du marché réagissent à l’information immédiate, en d’autres termes que le bruit crée du bruit. Et ce phénomène est encore accru par la décision du régulateur, en 1998, de fournir aux opérateurs une information quotidienne centrée sur la notion de value at risk. Sur le fond, cela pouvait se défendre: c’était une information plus riche, plus complète, et les variations d’un jour sur l’autre du prix de marché contiennent beaucoup d’informations utiles, par exemple sur la liquidité.
Mais on est allé trop loin, en ce sens que cela a conduit à minorer l’information basée sur le comportement historique des cours. Et les jeunes traders que nous avions formés n’avaient pas l’expérience ou le recul suffisant pour s’extraire de cette focalisation sur l’immédiat. C’étaient des matheux, pas des économistes: ils ne se souciaient pas suffisamment du passé, ou des sous-jacents. Ce qui a fait défaut, aussi bien aux modèles qu’aux jeunes gens qui les utilisaient, c’est une capacité à articuler le risque du sous-jacent et celui proprement lié au marché. Les modèles se sont sophistiqués, mais la même logique a perduré: on achète, on vend au jour le jour, et les statistiques, l’info historique est négligée, voire disparaît des modèles. Or c’est fondamental.

Il y a là une leçon, pour l’ensemble des acteurs mais notamment pour ceux qui, comme moi, sont en charge de la formation: les formations centrées sur le prix vont devoir s’appuyer plus fortement sur ce qu’apporte l’historique. A vrai dire, cela fait déjà bientôt quinze ans que la réglementation appelle à le faire. Et les crises récentes ont encore accru la nécessité de changer d’approche. Plus facile à dire qu’à faire, au demeurant; pour prendre un exemple, le calcul du risque de contrepartie est plus compliqué dans une vision annuelle que d’une manière instantanée.

Les défis aujourd’hui

Le monde dans lequel nous vivons aujourd’hui ne connaît pas la même expansion que celui des années 90-2000, et surtout la crise a fait apparaître l’importance des liaisons cachées, non explicitées, et plus généralement de ce que l’on appelle le «risque systémique». Pour le dire simplement, jusqu’en 2008 on s’intéressait surtout au «risque de bruit», depuis 2008 on apprend à gérer le risque de chaos.

En termes de gestion des risques, cela suppose notamment une prise en compte plus ferme de la collatéralisation. Dans ce contexte, les mathématiques financières sont appelées à connaître une inflexion. Les systèmes anciens doivent intégrer des techniques différentes: la gestion du collatéral impose de suivre plusieurs courbes en même temps, et la prise en compte du risque systémique pose des problèmes considérables, puisqu’il s’agit à la fois de mieux le comprendre et de ne pas créer des systèmes qui, en réagissant aux signaux de risque systémique, accroîtraient ce risque.

Prenons un exemple, celui des dérivés de crédit qui se sont développés dans la décennie 2000, et dont on sait le rôle qu’ils ont joué dans la crise de 2008.

Les dérivés de crédit ont pris beaucoup d’ampleur en quelques années, et avant même la crise des doutes ont été émis quant à la robustesse des modèles sur lesquels ils s’appuyaient. Dès 1998, le régulateur américain, qui conservait la mémoire du Lundi noir d’octobre 1987, avait demandé aux institutions financières de produire une value at Risk quotidienne sur les risques de marché, c’est-à-dire sur l’activité agrégée d’une salle de marché. Même si les ordinateurs ont beaucoup gagné en puissance et que les modèles se sont raffinés, c’était – et cela reste – un vrai défi, aussi bien pour les institutions financières que pour les structures de formation qui fournissent les quants qui auront à mettre en place cette nouvelle mesure. Les échanges entre le monde académique et le marché se sont alors intensifié, notamment autour de la pertinence de la VaR comme mesure de risque. Nous avons notamment discuté avec les professionnels des salles de marchés, dans les années qui ont précédé la crise, du risque de défaut. Pour résumer, on gérait bien ce qui se passait si le défaut devenait plus probable, mais pas ce qui se passait s’il survenait réellement. Les discussions n’ont pas abouti – il est difficile de discuter en période de bulle financière… – et le sujet est aujourd’hui revenu au premier plan.

Il est d’autant plus urgent de le traiter que la concentration du secteur financier, encore accrue par la crise, tend à faire de chaque salle de marché un acteur systémique. A cet égard, il faut noter que les mathématiciens étaient jusqu’à une date récente amenés à valider des modèles sans connaître la taille des «poses» (des expositions) qui sont derrière. C’est aberrant!

Et demain?

Au total, un certain nombre d’évolutions sont en cours ou vont s’imposer, aussi bien dans les pratiques en vigueur qu’en ce qui concerne la formation. Les formateurs sont notamment amenés à mettre l’accent sur les statistiques, et à faire travailler les étudiants sur une vision du risque quantitatif global. Cet aspect est désormais central. Certains enseignements ont été renforcés: la régulation, le risque de marché.

L’ampleur des disciplines considérées pose d’ailleurs un problème, car en quelques mois de formation il est difficile à des étudiants, même brillants, de tout assimiler: du calcul stochastique, de la finance, des statistiques, du droit… Et la question du délai nécessaire à l’ingestion de toute cette science est compliquée car les banques «chassent» nos étudiants dès les stages.

Les quants sont très présents dans les secteurs des risques en général (analyse des risques, simulations), mais aussi et de plus en plus dans la validation des modèles. Avec, en ligne de fond, la conscience que lorsqu’ils réalisent ou valident une modélisation, celle-ci aura un impact sur les prix. La prise en compte de cette dimension systémique est un vrai défi, mais aussi une vraie opportunité pour les mathématiques financières. Car les marchés, qui ont pendant plus de quinze ans fonctionné sur l’imaginaire du temps réel, sont appelés à retrouver un rapport au temps différent. Et sur ce point la finance quantitative a des choses à apporter.

La vision quantitative de la finance ne va pas marquer le pas, même si dans certains secteurs (gestion d’actifs, finance) on voit flotter le rêve de refaire les choses «à l’ancienne», d’une façon moins sophistiquée. Ce n’est pas cela qui fera disparaître les risques systémiques! Plus généralement, les risques rares n’existent pas; en tout cas on ne peut travailler sur cette base, sauf à jouer avec le feu. Il est donc essentiel aujourd’hui d’élaborer de nouveaux outils (et de former des professionnels) autour de la détection des risques, en retravaillant sur la détermination de l’exposition au risque.

Les modèles sont structurellement imparfaits. Au mieux, ils réduisent la réalité; mais un modèle est faux, par définition. Un enjeu central est donc d’en préciser l’usage. En gros, il s’agit de les utiliser, mais de savoir qu’ils sont faux et, autant que possible, d’être capable d’en comprendre les limites. C’est un enjeu essentiel aujourd’hui, pour les professionnels: il faut qu’ils soient capables de comprendre la mécanique, de repérer la logique de ce qu’ils utilisent. Et qu’ils soient capables de s’inquiéter s’ils ne comprennent pas la logique ou qu’ils repèrent des aberrations. Cette question de la position par rapport au modèle me semble essentielle.

Un problème, à cet égard, tient à ce que le régulateur fige un certain nombre de positions, alors qu’il faudrait évoluer. Il me semble dangereux de penser que pour définir une norme il faut un consensus. Cela ne permet pas d’appréhender la complexité, qui requiert une approche différente. Plus on introduit de durée dans l’analyse, plus elle devient complexe, car elle met en jeu des milliers de facteurs. Dans ces conditions, on peut imaginer de s’appuyer sur une vision standard, suffisamment robuste, mais il est primordial ensuite d’explorer les zones où l’on n’explique pas tout.

Autre problème, pendant la crise on a surtout interrogé les économistes, alors qu’ils sont déconnectés des réalités technologiques (trading haute fréquence, nouveaux logiciels…). Il en va de même des régulateurs et des politiques. Il existe donc un risque de voir émerger une régulation déconnectée de la réalité du marché. Il me semble donc essentiel de faire dialoguer davantage les différents acteurs, ainsi que les différentes disciplines impliquées.

Nicole El Karoui Octobre 2013
Tags


Partager


Commentaire

Dans la même rubrique