Retour vers Frankfurt-am-Main (2/2)

Fin du tour d’horizon de la dernière fois, avec encore un peu plus d’analyse des marchés, mais aussi quelques questions d’actualité sur le high frequency trading et la régulation.

Peter Dunne, Harald Hau et Michael Moore (rien à voir avec le petit rondouillard que vous connaissez) dans « A Tale of Two Platforms : Dealer Intermediation in the European Sovereign Bond Market » proposent un modèle économétrique structurel pour étudier les différences de « qualité » entre deux marchés parallèles (et, en fait, complémentaires) des titres de dette souveraine des pays européens. Le premier marché s’adresse aux investisseurs : ceux-ci peuvent contacter un certain nombre de dealers pour leur demander à quels prix ils sont prêts à acheter ou vendre des titres de dette, suite à quoi les investisseurs peuvent décider de faire la transaction au meilleur prix proposé, ou de ne rien faire. En parallèle, il existe un marché réservé aux seuls dealers : ceux qui ont beaucoup acheté aux investisseurs et ont donc une position déséquilibrée cherchent à revendre une partie de leurs titres aux autres, notamment à ceux qui ont au contraire beaucoup vendu et ont une position déséquilibrée dans l’autre sens. L’interaction de ces deux marchés est assez complexe. D’abord le marché intra-dealers rend le marché de gros plus efficace, car il aide les dealers à garder des positions aussi équilibrées que possible. Sans un tel marché, les dealers accumulant des positions déséquilibrées seraient de moins en moins enclins à échanger dans le sens qui déséquilibre davantage leur position. Inversement, la présence du marché intra-dealers peut décourager certains dealers de participer au marché de gros : si j’échange peu avec les investisseurs, je peux toujours échanger avec les autre dealers qui accumulent des positions (selon le principe « si je ne gagne pas au grattage, je peux toujours gagner au tirage »). Des études menées sur données américaines montrent que le marché de gros est nettement moins efficace que le marché intra-dealers, au sens où les prix sur ce dernier marché sont beaucoup plus intéressants. Sur des données européennes, les auteurs trouvent le résultat inverse : le marché de gros est de meilleure qualité en moyenne, mais en revanche cette qualité est beaucoup plus variable (ie. parfois les spreads sont très élevés sur le marché de gros, parfois très faibles, tandis qu’ils sont en moyenne plus élevés mais aussi plus stables sur le marché intra-dealers). Une des explications avancées par les auteurs dans leur modèle tient aux volatilités différentes des titres européens et américains, mais il est possible aussi qu’il faille analyser plus en détail la structure de ce type de marchés, et repérer d’éventuelles différences entre les organisations américaine et européenne.

Albert Menkveld et Boyan Jovanovic ont un papier « vieux de trois semaines », intitulé « Middlemen in Limit-Order-Markets » sur le sujet d’actualité (ie. sur lequel on a dit un peu tout et n’importe quoi) du high frequency trading (HFT), activité dont on ne sait pas encore grand-chose. Le HFT consiste à se servir de logiciels (les fameux algorithmes) pour passer automatiquement des ordres extrêmement vite sur les marchés. Parmi les plateformes dont nous avons déjà parlé, Chi-X peut être considéré comme le paradis du HFT : le marché est extrêmement rapide (tellement qu’il est probablement presque impossible d’échanger dessus sans passer par un logiciel, les ordres apparaissant et disparaissant trop vite pour qu’un humain ait le temps de réagir), il est possible de changer ses ordres sans coûts, et l’agent qui passe un ordre limite est subventionné. Pour couronner le tout, les auteurs ont des données sur ce marché. Petit caveat : les auteurs étudient ici l’activité de « middlemen », d’intermédiaires, remplie par ce type de stratégies. En d’autres termes si un agent A place un ordre de vente, le programme va analyser cet ordre et s’il trouve le prix intéressant il va acheter presque immédiatement, avant de replacer un ordre de vente pour un prix un peu plus élevé, faisant un profit sur la différence si l’ordre est accepté par un acheteur B. Les auteurs essaient de comprendre théoriquement et empiriquement si et quand cette activité peut être socialement utile. Mais il semble que le HFT puisse prendre d’autres formes, comme passer de « faux » ordres aussitôt annulés, simplement pour leurrer d’autres agents (voire d’autres programmes), ce qui là ressemble plus à de la manipulation et ne sert probablement pas à grand-chose (sauf à rapporter de l’argent aux firmes qui mettent en place ce type de stratégie).

L’idée principale des auteurs est la suivante : l’ « algorithmic trading » consiste d’abord à se reposer sur un logiciel qui analyse très vite l’information « publique » (information financière, prix passés par exemple) et à servir d’intermédiaire entre deux autres agents (puisque avec ce type de stratégie on achète pour revendre et on vend pour acheter ensuite, les positions nettes sont nulles en fin de journée). Supposons qu’un agent cherche à vendre un titre et que la liquidité du marché soit faible. Le temps qu’un acheteur arrive, davantage d’information peut être révélée, si bien qu’on risque fort de vendre à quelqu’un qui sait que le prix de vente est inférieur à la valeur du titre. Dans ces conditions, l’agent pourrait préférer ne pas vendre. Si au contraire des « algo traders » sont présents, l’agent s’attend à revendre presque immédiatement, ce qui peut résoudre le problème, suite à quoi l’algo trader revendra l’actif à son tour. Conclusion : ce type de stratégie peut résoudre un problème de sélection adverse, à condition que les algorithmes ne reposent pas sur de l’information que les autres agents n’ont pas. Inversement, si les « algo traders » ont plus d’information, leur présence crée un problème d’asymétrie d’information au lieu d’en résoudre un : je peux craindre en plaçant un ordre qu’il ne soit accepté que par un « algo trader » qui a calculé que mon offre était trop basse. L’impact de ce type d’acteurs n’est donc pas clair, et dépend beaucoup de l’information dont ils disposent. Empiriquement, ces acteurs seraient présents sur Chi-X dans une transaction sur 3 et jouent donc un rôle très important, et dans 8% des échanges sur Euronext. Ils seraient surtout présents dans les échanges de titres qui suivent de près leurs indices de référence, c’est-à-dire de titres où l’information publique est importante, ce qui corroborerait l’idée que ces logiciels servent surtout à analyser de l’information publique très vite à l’aide des ordinateurs. Enfin, une première analyse en différence de différences montre que leur présence provoquerait une baisse du spread, mais aussi une baisse du volume échangé (en corrigeant par le fait qu’en rajoutant des intermédiaires on augmente mécaniquement le nombre d’échanges), on retrouve donc plus ou moins l’impact mitigé suggéré par la théorie.

Le même Albert Menkveld et Terrence Hendershott étudient dans « Price Pressures » la pression sur les prix exercée par les ordres portant sur un gros volume. Considérons par exemple un titre échangé à la date 0 au prix p0, lorsque survient un ordre de vente important. Typiquement le prix du titre échangé baisse beaucoup, jusqu’en p1, avant de remonter un peu jusqu’en p2, mais pas jusqu’à rejoindre le niveau initial. Autrement dit, on a p1 < p2 < p0. L’impact de long terme est dû au fait qu’une vente peut représenter une information négative sur la valeur du titre, cet impact est maintenant assez bien documenté. En revanche la différence entre p1 et p2 est la partie de la baisse qui n’est pas due à de l’information mais à la « pression » exercée sur les prix dans un marché qui n’est pas parfaitement liquide. Le but des auteurs est d’estimer un modèle structurel permettant de distinguer les deux composantes de la baisse, en liant notamment la partie « pression » aux stocks des brokers et des spécialistes. Les résultats semblent indiquer que cette pression est loin d’être négligeable, ainsi un choc de 100.000 dollars sur les stocks (« inventory » en anglais) des brokers conduiraient à une « pression » encore assez faible de 2 points de base pour les actions « large-cap » (entre 10 et 200 milliards de dollars de capitalisation boursière, actions pour lesquelles 100.000 dollars représentent peu par rapport à la valeur des titres échangés), mais 101 points de base pour les « small-caps » (capitalisation boursière entre 300 millions et 1 milliard de dollars), soit tout de même 1.01 % !

Parce qu’une conférence en finance ne serait pas complète sans quelques considérations d’économie comportementale, le papier de Bidish Chakrabarty et Pamela Moulton « The Role of Market Design in Alleviating Attention Constraints » traite comme son nom l’indique des « contraintes d’attention » des agents sur les marchés financiers. L’exemple choisi est celui du NYSE, sur lequel à chaque titre est assigné un « spécialiste », chargé de surveiller l’évolution du cours et d’intervenir en cas de besoin pour maintenir la liquidité. Un exemple très simple est celui du « flash crash » du 6 mai 2010, au cours duquel le Dow Jones perd 7% en un quart d’heure, avant de remonter presque immédiatement. L’explication la plus plausible semble être qu’un trader ait passé un ordre de vente extrêmement élevé par erreur, provoquant une chute importante des cours qui a été « traduite » par des algorithmes de trading comme révélant de mauvaises nouvelles, ce qui a induit de nouvelles ventes automatiques, amplifiant la baisse des cours etc. Le rôle d’un spécialiste dans ce cas est typiquement de garder la tête froide et de se porter en acheteur de dernier ressort pour assurer la liquidité du marché (empochant au passage un profit important). Si des acteurs humains peuvent réagir rationnellement à des événements imprévus, ce que ne sauraient faire des programmes, ils sont à l’inverse de ces derniers limités dans l’attention qu’ils peuvent porter à chaque problème. Les auteurs vérifient et quantifient le problème : sur le NYSE les spécialistes s’occupent en général de trois ou quatre titres différents, or les jours d’annonce de résultats sur le titre X, le spécialiste chargé du titre X devra s’en occuper beaucoup plus, et on peut vérifier que la liquidité des autres titres gérés par le même spécialiste diminue. Autrement dit, l’attention du spécialiste est plus occupée par le titre le plus important, et les autres titres en pâtissent, l’attention totale disponible du spécialiste étant limitée. Le résultat n’est pas forcément surprenant, mais il peut être intéressant de quantifier l’effet pour savoir s’il est intéressant de développer de nouveaux outils informatiques pour aider les spécialistes dans les parties plus routinières de leur travail.

Passons maintenant à des réflexions sur la régulation des marchés (oui parce que là on s’est un peu éloigné de la vision des marchés comme parfaitement efficients, mine de rien).

Le papier de Jonathan Chiu et Thorsten Koeppl, « Market Freeze and Recovery: Market-Making of Last Resort » est un bon exemple d’article théorique avec des implications pratiques très importantes. Les auteurs présentent un modèle dynamique d’un marché financier qui peut « geler » pour des raisons d’asymétries d’information, qui font que personne n’est prêt à acheter, sachant que seuls les détenteurs de mauvais actifs voudront vendre. En cas de « gel », la Banque centrale ou d’autres organismes de régulation peuvent avoir intérêt à intervenir pour que le marché « reparte », par exemple en annonçant se porter acquéreur d’une certaine quantité d’actifs à un certain prix, comme cela a été fait pour certains « actifs toxiques » (c’est évidemment l’exemple que les auteurs ont en tête). Le premier résultat est que si le marché a suffisamment de valeur (s’il est important de régler le problème d’asymétrie d’information rapidement), alors il est optimal pour le régulateur de faire en sorte que le marché reparte immédiatement. Cela n’a rien d’évident, car on pourrait s’attendre à ce que le coût pour ce faire soit prohibitif. Ensuite, il y a deux façons de faire en sorte que le marché reparte : on peut soit se porter immédiatement acquéreur d’une grande quantité d’actifs, soit annoncer aujourd’hui qu’on s’en portera acquéreur plus tard. Ce dernier moyen pourrait a priori paraître plus efficace : en annonçant au marché qu’il achètera les actifs dans un mois, le régulateur incite les acteurs à acheter eux-mêmes ces actifs auparavant, puisqu’ils seront assurés de pouvoir les revendre au régulateur. Les auteurs montrent que cette dernière politique n’est cependant pas optimale : pour que le marché reprenne immédiatement, il faudrait annoncer un achat dans le futur à un prix très élevé, si bien qu’il sera moins coûteux d’acheter immédiatement. Lorsque le marché gèle pour des raisons d’asymétries d’information, la politique optimale semble donc être de racheter immédiatement et massivement les actifs douteux. Inversement, Weill [2007] a montré que lorsque le marché gèle pour des raisons de liquidité seulement, il est au contraire optimal d’attendre. Voilà déjà de quoi aider un peu le régulateur, à condition qu’il sache faire la différence entre les deux situations…

Autre sujet d’actualité, traité par Cyril Monnet et (le même) Thorsten Koeppl dans « The Emergence and Future of Central Counterparties », l’impact de l’introduction de chambres de compensation sur certains marchés de gré à gré, plus ou moins décidée aux Etats-Unis par le Commodity Exchange Act de 2009 suite à la crise. Rappelons le problème : les établissements financiers ont souvent besoin de produits particuliers pour lesquels il n’existe pas de marché traditionnel, notamment pour les produits dérivés. Si l’établissement A veut se couvrir contre un risque particulier, il peut passer un contrat avec l’établissement B tel que si le risque se réalise B versera une somme prédéfinie à A, en échange de quoi A verse une certaine somme à B aujourd’hui (un contrat d’assurance en somme). Le gros problème de ce type de transaction, dite de gré à gré, c’est le risque de contrepartie : si lorsque le risque se réalise B fait défaut, il ne pourra pas honorer son contrat avec A, qui peut se retrouver en difficulté à son tour et ne pas honorer ses engagements envers un troisième larron etc. D’où une certaine anxiété quand de gros acteurs très présents sur les marchés de gré à gré comme Lehman Brothers font défaut, surtout quand il est impossible de savoir avec qui ces contrats étaient passés et donc qui risque de ne pas pouvoir honorer ses engagements. Une solution peut être d’imposer des chambres de compensation, au moins pour certains types de contrat : un même organisme sert d’intermédiaire pour tout le monde, et permet en théorie d’assurer tous les agents contre le risque de contrepartie. Les auteurs montrent qu’effectivement ce type d’arrangement peut mener à la solution optimale lorsque tous les agents passent par la chambre de compensation. Le problème est qu’ils peuvent être incités à continuer à passer des contrats de gré à gré sans passer par ladite chambre, en quel cas on quitte l’optimum. D’où deux solutions qui pour l’instant n’ont pas été retenues : soit rendre obligatoire le passage par la chambre de compensation, ce qui pourrait être très difficile à appliquer (à supposer que cela soit légalement possible, c’est tout de même une entrave importante à la liberté de contracter), soit réfléchir à une solution optimale de second rang qui soit « incentive compatible », c’est-à-dire donner aux agents des incitations à toujours passer par la chambre de compensation.

Encore un sujet lié, mais pour le coup probablement trop technique pour moi, celui du mécanisme retenu par la chambre de compensation, étudié par Olga Lewandowska et Bernd Mack dans « Clearing Arrangements in the Over-the-Counter Derivatives Markets ». Les auteurs comparent plusieurs règles que l’on peut appliquer pour compenser les positions des différents agents, qui ont un impact sur les sommes que ceux-ci doivent verser et sur la liquidité du marché. L’approche est très générale et les résultats semblent intéressants mais dans l’état préliminaire du papier je n’ai guère réussi à saisir l’intuition des résultats, d’autres seront peut-être plus heureux.

Voilà pour ce tour d’horizon des papiers francfortois, qui donnent un bon aperçu des différents sujets qui intéressent les chercheurs en micro-structure des marchés financiers ces temps-ci (j’ai conscience qu’ils ne sont pas tous passionnants pour le grand public). C’est un peu rude pour l’été, les prochains billets seront donc certainement moins techniques.

Licence Creative Commons – Auteur:Jean-Edоuard Cоlliard

Be the first to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée.


*