La crise économique sinvite à lEEP (1/2)

Ce billet est le « prequel » du précédent, comme on dit dans le milieu très fermé des fans de science fiction et de cinéma hollywoodien, et porte sur la conférence qui s’est tenue le 24 octobre à l’Ecole d’Economie de Paris sur la crise financière. Il s’agit de la conférence « volet finance », l’autre conférence constituant la « volet macro ». On peut là encore regarder les videos sur le site de La vie des idées, sous le titre, allez savoir pourquoi, de « Les théories monétaristes à l’épreuve de la crise financière ».

La conférence parle d’un peu tous les aspects financiers de la crise, mais est dominée par deux questions principales : la crise financière n’est-elle que la manifestation de déséquilibres réels profonds, d’un changement des fondamentaux de l’économie (thèse des macroéconomistes du billet précédent finalement), ou bien de problèmes « purement » financiers qui ont par la suite des conséquences réelles ? Ensuite, les mécanismes de la crise sont-ils assez bien connus et proches de crises précédents, ou y a-t-il des éléments nouveaux, le gel du marché interbancaire par exemple, qui devraient inciter les économistes à la prudence sur ce sujet ?

David Naudé, économiste à la Deutsche Bank, dresse malgré ses fonctions un bilan plutôt noir de la situation du système bancaire et de l’action des banques (condition sine qua non de mon point de vue pour qu’on puisse croire aux paroles d’un « praticien »). Il revient sur le gel du marché interbancaire, rappelant qu’en temps normal près de 25% des créances des banques européennes sont envers le système bancaire lui-même, ce qui rend le risque systémique important. La cause du problème viendrait d’un échec important du marché, incapable d’évaluer correctement les pertes non seulement de chaque institution financière, mais même les pertes totales du système, les estimations oscillant entre 2% et 6% du PIB américain. Le portrait qu’il dresse de la crise est assez proche de l’analyse conventionnaliste de la finance : une ambiguïté forte planant sur la solvabilité des banques, le marché est incapable d’évaluer correctement la valeur des actifs, la confiance et la liquidité disparaissent. Une forte ambiguïté plane aussi sur comment analyser l’information : ainsi en août 2007 de grandes banques américaines sont autorisées à tirer sur des lignes de crédit à la FED, ce dans le but de rassurer les marchés ; elles le font presque sur l’insistance de la FED, et c’est perçu comme un très mauvais signe par le marché.
Sur le plan des conséquences, David Naudé n’hésite pas à envisager le risque d’une récession accompagnée de déflation, c’est-à-dire d’une dépression. Il estime également que cette crise remet en cause le système origination-titrisation-distribution de la dette, conçu pour éliminer le risque systémique, mais qui l’a visiblement beaucoup aggravé.

Alors que pour David Naudé l’origine de la crise est bien que les banques n’ont pas fait leur métier en prêtant à des clients insolvables, Fabrizio Coricelli, professeur à Paris I, voit une cause plus profonde dans le bas niveau des taux d’intérêt avant la crise, qui a permis aux banques de mener cette politique. Selon lui la crise met fin à une conception totalement insuffisante du rôle des Banques centrales, censées s’occuper seulement du taux d’intérêt et du contrôle de l’inflation. Elles devraient au moins s’assurer de la fourniture du bien public qu’est la liquidité. De plus, la régulation ne s’occupe que très peu des institutions financières autres que les banques commerciales (rappelons que Morgan Stanley et Goldman Sachs n’étaient absolument pas soumis à la réglementation si décriée de Bâle II), alors même que les banques d’investissement par exemple réagissent très différemment des banques commerciales à la conjoncture.

Je m’attendais à ce qu’André Orléan donne de la crise une interprétation conventionnaliste que les événements semblent devoir renforcer (voir par exemple cette vieille note de lecture). S’il se sert de quelques éléments de cette approche dans son intervention, il donne une assez large place à des travaux plus anciens, comme ceux de Minsky, ou plus classiques. Alors que beaucoup d’économises font comme si les événements étaient tout à fait naturels et de plus prévus depuis longtemps, André Orléan prend au moins le temps de s’étonner : comment se fait-il que les marchés n’aient pas du tout anticipé la fin de la bulle immobilière et ses conséquences, pas plus que le risque lié à des produits financiers qui existent depuis des années ? Les réponses mobilisées sont multiples : il peut s’agir d’ « aveuglement au désastre » (Minsky), les acteurs refusant d’envisager des événements trop sombres. De manière plus intéressante, c’est l’interaction des acteurs qui peut être en cause : les acteurs eux-mêmes peuvent n’avoir individuellement aucune incitation à agir autrement (ils peuvent espérer retirer leurs billes avant le krach) ou bien, en situation d’incertitude, un acteur inquiet peut se dire que si tout le monde fait comme si de rien n’était c’est probablement que lui est trop pessimiste (mimétisme rationnel). Enfin l’opinion financière peut agir comme une norme contre laquelle il est très coûteux d’aller. Ainsi la banque Fannie Mae (à moins qu’il ne s’agisse de Freddie Mac ?) n’a pas eu pendant un certain temps de « senior risk manager » ; après en avoir finalement embauché un les dirigeants de la banque ont entendu celui-ci dire que la situation était très grave et qu’il fallait absolument faire quelque chose. On l’a licencié quelques mois avant le début de la crise. Voir notamment cet intéressant article de Roland Bénabou, à qui cet exemple est emprunté.

L’autre élément qui peut étonner est l’ampleur prise par la crise comparée au poids économiques des crédits subprimes eux-mêmes. Une explication souvent avancée se trouve dans l’opacité des risques échangés, mais il s’agit selon André Orléan d’un facteur secondaire, le vrai problème est qu’un marché financier forme un système où les agents sont fortement interdépendants, les dépréciations d’actifs peuvent conduire tous les agents en-même temps à rechercher de la liquidité, ce qui fait que le but lui-même du marché change. Il ne s’agit plus d’échanger des risques mais de se procurer de la liquidité que personne n’est prêt à fournir. La leçon à retenir de cet épisode serait donc que la liquidité d’un marché financier a les caractères d’un bien collectif que le marché lui-même n’arrive pas à fournir tout le temps de manière adéquate.

Pour Gunther Cappelle-Blancard, professeur à Paris I, la propagation de la crise est au contraire aisée à comprendre et passe par quatre canaux de transmission. Les deux premiers sont déjà anciens et bien connus : il s’agit du caractère procyclique des normes (dont nous avons parlé ici)et du phénomène de « flight to quality » : quand certains actifs se révèlent plus risqués qu’on ne le pensait les investisseurs se précipitent vers des actifs plus sûrs, voire les achètent en vendant les premiers. Deux autres en revanche seraient nouveau : d’abord le problème d’asymétrie d’information qui se pose lorsqu’une banque accorde un crédit et n’en garde qu’une partie pour « titriser » le reste, ensuite le fait, que personne cette fois ne semble avoir anticipé, qu’en cas de problème les risques sont impossibles à tracer et contaminent donc les bilans de tous les acteurs détenant potentiellement des créances à risque.

Paul Besson, trader dans un hedge fund, évoque les difficultés rencontrées par ce secteur,bien illustrées par la baisse de 20% que connaîtrait un indice composé de différents hedge funds. Leur plus grande vulnérabilité par rapport aux banques pose un énorme problème puisque pour survivre ils doivent convaincre leurs contreparties qu’ils vont effectivement survivre. La confiance des investisseurs est donc un élément primordial, et inversement des rumeurs plus ou moins fondées sur les pertes d’un fond peuvent le conduire très rapidement à la faillite.

L’intervenant se lance ensuite dans un pladoyer pro domo sur les bienfaits des nouveaux instruments financiers et l’erreur qui consisterait à en entraver ou réguler la création, arguant du fait que justement des produits complexes comme les dérivés et les indices de crédit sont parmi les plus liquides en ce moment. Il serait évidemment stupide de se servir des produits complexes comme boucs émissaires et de croire qu’un marché financier offrant seulement des titres « réels » comme les actions et les obligations fonctionnerait mieux. On peut penser qu’il y a néanmoins un arbitrage à faire entre utilité d’un produit dérivé et risque systémique qu’il implique (il y a peut-être même une courbe de Laffer) : un produit complexe permet toujours de couvrir un risque, mais au fur et à mesure que la liste des instruments disponibles s’enrichit les risques sont de mieux en mieux couverts, et le gain marginal apporté par un nouvel instrument diminue. Inversement il est de plus en plus difficile d’évaluer la valeur de ces instruments voire d’accéder aux informations permettant de se faire une idée de cette valeur, ce qui peut avoir des conséquences catastrophiques. Un simple calcul coût-avantages demanderait donc qu’on se demande si l’utilisation de certains instruments ne devrait pas être régulée, ou conditionnelle à l’usage de modèles de gestion de risque adéquats par exemple.

Gabrielle Demange, professeur à Paris Jourdan Sciences Economiques–EEP, rappelle en des termes moins directs que les théoriciens s’intéressent aux marchés financiers et aux crises depuis longtemps, n’ont pas produit que le CAPM et ne passent pas leurs journées à appliquer aveuglément l’hypothèse d’efficience du marché. Selon elle la plupart des éléments de la crise trouvent des explications dans diverses théories déjà anciennes qu’il convient de rassembler avant de décréter que tout est très simple ou au contraire qu’il faut revoir toute la théorie de la finance. Elle rappelle ainsi qu’à la base de brusques mouvements de prix ne sont pas forcément étonnants puisqu’on sait que même en l’absence de tout problème d’information l’équilibre général peut être instable dès lors qu’on remplace la fiction des biens d’Arrow Debreu par une séquence de marchés au comptant (équilibres dits de Radner). Le point peut sembler un peu technique mais on a effectivement trop vite fait de penser que la théorie prédit que les marchés doivent être efficients. Dès lors qu’on introduit des problèmes d’information, des modèles même très simples comme celui d’Akerlof mettent le doigt sur le fond du problème : si aucune banque ne peut avoir une idée précise de la santé des autres banques et que même Lehman Brothers peut faire faillite, il est rationnel pour chaque banque de ne surtout prêter à personne et le marché interbancaire disparaît. On peut encore mobiliser le modèle de Gennotte et Leland, né de la crise de 1987 : des pertes importantes conduisent à des ventes forcées de la part de gros acteurs (fonds de pension par exemple), les autres acteurs du marché observent une chute brutale du prix de l’actif, et ne peuvent pas savoir avec certitude si elle vient d’une vente forcée ou si d’autres agents ont eu une information très négative sur cet actif. La vente forcée est donc perçue à tort comme un événement informatif, et fait baisser durablement le prix.

Pour ma part je ne peux que me réjouir que quelqu’un ait enfin pensé à mobiliser des modèles théoriques sur les marchés financiers pour expliquer des phénomènes ayant lieu sur les marchés financiers, et je ne dis pas ça parce qu’il s’agit de ma directrice de thèse. On s’épargnerait à mon avis si tout le monde commençait par là beaucoup de mensongers « tout ce qui se passe est très simple et connu depuis longtemps» ainsi que d’improductifs « toute la théorie économique (assimilée à l’hypothèse de marchés efficients) est obsolète, il faut tout reprendre à zéro, et il fallait s’y attendre car tous les économistes qui s’intéressant à la finance sont des suppôts du grand capital ».

Le sociologue Olivier Godechot explique en quoi ses travaux, dont nous avons parlé ici, peuvent expliquer certains éléments de la crise. Le calcul des rémunérations dans les établissements financiers se fait d’une manière assez perverse du point de vue de la gestion des risques, puisqu’elle assigne une espérance de bonus plus élevée pour un trader ou une équipe gérant un portefeuille plus risqué. Un tel schéma de rémunération incite donc à prendre le portefeuille le plus risqué pour une espérance de gain donnée, soit l’inverse d’un portefeuille efficient. De plus lorsque le risque de certains actifs est difficile à mesurer plusieurs modèles d’évaluation sont en compétition, et l’usage de l’un ou l’autre de ces modèles a des implications très différentes pour la rémunération des salariés. La comptabilité de gestion devient donc le cœur d’un conflit autour de la répartition du profit entre les salariés. Le système le plus pervers est celui de certaines banques qui indexent directement le bonus de toutes les catégories de salariés sur celui reçu par le « front office » (qui comprend les traders), dans ce cas tous les salariés de l’entreprise ont intérêt à ce que les rémunérations soient calculées sur la base d’une comptabilité utilisant les modèles les plus optimistes possibles.

Pour intéressants qu’ils soient, ces éléments jouent probablement de façon assez marginale dans le déclenchement et la propagation de la crise, et Olivier Godechot ne prétend pas autre chose. Sa réflexion invite néanmoins à réfléchir de manière plus générale à l’organisation de la gestion des risques au niveau interne à une entreprise, et aux incitations données aux individus chargés de gérer ses risques. L’exemple cité plus haut de Fannie Mae montre qu’il ne s’agit probablement pas d’un problème anecdotique.

Philippe Martin enfin intervient sur la dimension macroéconomique du problème, qui forme le sujet de la deuxième conférence. Une conséquence importante de la crise est que les Banques centrales ne pourront plus prétendre s’occuper seulement du ciblage de l’inflation, puisque ex post elles sont bien obligées de se préoccuper de la liquidité des marchés financiers et du prix des actifs quand ils baissent, elles devront bien prendre des mesures préventives quand ces mêmes prix montent. Il souligne également le besoin de davantage de régulation sur les nouveaux instruments financiers, et notamment la nécessité de laisser au régulateur le temps de se faire une idée sur ces nouveaux instruments, leur utilité et leurs dangers potentiels.

Licence Creative Commons – Auteur:Jean-Edоuard Cоlliard

Be the first to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée.


*