Retour vers Frankfurt-am-Main (1/2)

Emmeline et moi étant revenus d’un court voyage au pays des lacs de montagne, des culottes de peau, des Dirndl et des économistes alpinistes et moustachus, le blog peut sortir de sa courte pause estivale. Si courte qu’à vrai dire personne ne l’a probablement remarquée, puisqu’elle n’était pas plus longue que le délai habituel entre deux billets. Ces vacances ont comme il se doit été riches en enseignements économiques, dont nous vous ferons part dans un prochain billet, où il sera question des Wittelsbach, de Charles Quint, de LBOs et de pourquoi les princes soumis à leurs femmes aiment bien passer leurs journées à massacrer des bouquetins (des cornes desquels ils enlaidissent ensuite les murs de la ou des demeures familiales).

Avec un trailer pareil, ceux de nos lecteurs qui suivent encore le blog en plein mois de juillet pourront certainement encore patienter quelque temps, puisqu’il y a une dizaine d’autres sujets que j’aurais aimé aborder depuis longtemps. Sans oublier non plus la page de juillet du calendrier des Nobel (au moins on ne s’embête pas cet été).

Restant d’abord outre-Rhin, j’aimerais faire a posteriori de la pub pour la conférence « The Industrial Organization of Securities Markets », organisée le mois dernier par le groupe Deutsche Börse (la Bourse de Francfort en d’autres termes) et le Center for Financial Studies (c’est-à-dire le laboratoire de finance de la Goethe Universität de Francfort), à laquelle j’ai été gentiment invité comme co-auteur d’un des papiers présentés. Outre que le voyage a été l’occasion de ramener de Francfort des Zupfkuchen à Emmeline, à qui cette ville avait déjà inspiré les réflexions économiques majeures que l’on sait (aussi ici), je suis ravi d’avoir assisté à cette conférence très réussie, bien centrée sur un sujet précis, si bien que tous les papiers intéressaient tous les participants.

Comme le nom de la conférence l’indique, le sujet est au croisement de l’économie industrielle et de la finance, et fait probablement partie de l’étude de la « microstructure » des marchés financiers, dont il a déjà été question ici (lien). Pour ceux qui se demandent quels sont les sujets « chauds » en ce moment dans cette branche et à quoi les spécialistes de la question peuvent bien passer leur temps, je propose un court résumé des différents papiers présentés. Cela montrera au passage à ceux qui s’imaginent que les économistes s’en tiennent à une vision très simpliste et vague des marchés financiers qu’au contraire ils sont capables d’aller vraiment dans le détail. Enfin tous les papiers sont disponible sur le site de la conférence, mais il s’agit souvent de versions de travail, pas forcément très complètes ni accessibles.

Une bonne moitié des articles présentés traitaient de la concurrence entre plateformes boursières, sujet qui me tient à cœur puisque c’est l’un de mes sujets de recherche. Qu’es aquò ? Depuis 2007, il est possible en Europe d’ouvrir des « multi-lateral trading facilities » (MTFs), qui permettent d’échanger par exemple des titres cotés sur le London Stock Exchange sans passer par ledit LSE, ou des actions du CAC40 sans passer par Euronext-Paris. Ainsi, pour les titres du FTSE100 (équivalent outre-Manche de notre CAC40, mais avec 100 titres, et sans Jean-Pierre Gaillard), la part de marché du LSE est passée de 100% en 2007 à 55% aujourd’hui. Autrement dit sur 100 échanges d’actions du FTSE100, 45 se font entre acteurs qui ne passent pas par la Bourse de Londres.

Théoriquement, l’effet de la présence de plusieurs plateformes n’est pas clair : Chowdry et Nanda [1991] montrent que la fragmentation des échanges sur plusieurs marchés peut être positive car elle attire plus d’agents et permet aux agents qui ont des gros volumes à échanger de répartir leurs ordres sur plusieurs plateformes (et faire ainsi moins bouger les prix) ; inversement Pagano [1991] montre que lorsqu’il y a un unique marché la consolidation de tous les ordres peut offrir plus de liquidité.

Commençons par deux papiers empiriques présentés lors de la conférence, qui apportent beaucoup d’éléments intéressants sur ce sujet, pour lequel les données sont encore rares. Ryan Riordan, Andreas Storkenmaier, Martin Wagener et Christof Weinhardt dans leur papier « Trading in Fragmented Markets » montrent que les différentes plateformes où l’on peut échanger les titres du FTSE100 sont en fait très fragmentées, et que le LSE garde une place prépondérante. Ainsi, lorsque le LSE affiche les meilleurs prix pour un titre, il attire 95% des échanges, tandis que dans la même situation les autres plateformes que sont Chi-X, BATS et Turquoise (qui depuis a été rachetée par LSE) attirent respectivement 84%, 49.70% et 45% des échanges. Inversement, des agents vont très souvent échanger sur le LSE alors qu’ils trouveraient de bien meilleurs prix sur une autre plateforme. L’explication que d’autres statistiques semblent corroborer est que lorsqu’un acteur possède de l’information sur un actif et veut s’en servir, il préfère agir très vite et aller vers la plateforme où il y a le plus de « profondeur » (où il pourra échanger beaucoup sans faire trop bouger les prix) plutôt que vers la plateforme qui affiche les meilleurs prix. In fine, cela montre que les quatre plateformes ont probablement des rôles différenciés et ne s’adressent pas prioritairement au même type d’acteurs.

Le papier suivant, de Bartholomaüs Ende et Marco Lutat, « Trade-throughs in European Cross-Traded Equities after Transaction Costs », renforce cette conclusion en estimant directement le nombre de « trade-throughs » sur les titres de l’Eurostoxx50 sur un mois. Qu’est-ce qu’un trade-through ? Puisque le même titre est disponible sur plusieurs plateformes boursières à la fois, lorsqu’un broker reçoit l’ordre d’acheter un titre, il peut le faire sur plusieurs plateformes différentes à plusieurs prix différents ; on dit qu’il y a un « trade-through » lorsqu’il ne passe pas par la plateforme qui affiche le meilleur prix. Evidemment il faut raffiner un peu, puisque les différentes plateformes peuvent avoir des coûts de transaction différents notamment, mais au final environ 2.85% des échanges sur l’Eurostoxx50 seraient des trade-throughs, ce qui veut dire que les différents marchés ne sont pas encore complètement intégrés. De plus, les pertes liées aux trade-throughs réalisées sur une année en Europe seraient de l’ordre de 1.5 milliards d’euros, ce qui voudrait dire que beaucoup d’agents devraient continuer à développer des logiciels permettant d’exécuter automatiquement les ordres au meilleur prix (« smart order routing technologies »).

Il serait assez logique d’aborder dans ce paragraphe le formidable papier intitulé « Competition among Markets and Liquidity: Trading Fees Matter », par Thierry Foucault et votre serviteur, mais j’en parlerai plus en détail une autre fois.

Le papier de Peter Hoffmann, « Adverse Selection, Transaction Fees and Multi-market Trading », présente un modèle qui permet de comprendre assez bien pourquoi les différentes plateformes semblent attirer des clients différents. Considérons la concurrence entre le LSE, qui est l’opérateur historique pour les titres du FTSE100, et son principal concurrent Chi-X, qui demande des commissions beaucoup moins élevées que le LSE. L’idée est qu’il est coûteux d’aller sur les deux plateformes à la fois : il faut se connecter aux plateformes en question (celles-ci pouvant demander alors une commission), développer des logiciels permettant de comparer les prix etc. Certains agents sont capables d’arbitrer entre les deux marchés (« smart routers »), tandis que d’autres préfèrent rester sur l’opérateur historique. L’idée du modèle est très simple : si les « smart routers » ont en moyenne une meilleure information sur l’actif, il n’est pas nécessairement préférable d’aller sur Chi-X : en effet les commissions y sont moins élevées, mais d’autre part comme les acteurs sur ce marché ont en général plus d’information, on court également plus de risques de sélection adverse, c’est-à-dire de vendre parce que quelqu’un d’autre sait que le prix proposé est trop bas, ou d’acheter parce que quelqu’un sait que le prix proposé est trop haut. Si la sélection adverse est forte, il est préférable de rester sur le LSE en dépit de ses commissions plus élevées. Cependant, au cours d’une journée le marché agrège de plus en plus d’information et la sélection adverse diminue, autrement dit il devient de plus en plus intéressant d’échanger sur Chi-X. Cette prédiction semble confirmée par la partie empirique du papier, qui montre que le volume sur Chi-X est faible au début de la journée et devient de plus en plus important avec le temps.

Le papier de Uwe Walz et Steffen Juranek, « Vertical Integration, Competition and Financial Exchanges : is there Grain in the Silo ? », illustre bien le niveau de détail avec lequel on cherche à modéliser les marchés. Pour que deux agents échangent sur une plateforme boursière, cela nécessite en fait trois opérations : 1. L’échange lui-même (trading), il faut un système permettant à l’acheteur et au vendeur de se rencontrer ; 2. La compensation (clearing), un gros acteur va dans une même journée acheter et vendre différents actifs, plutôt que de faire des paiements entre acheteur et vendeur à chaque transaction, il est plus sûr de calculer la position nette de chaque agent vis-à-vis d’une chambre de compensation ; 3. Le règlement (settlement), une fois calculées ces positions, il faut verser de l’argent aux agents avec une position nette positive, et en prélever sur ceux qui ont une position négative. Les auteurs remarquent que certaines Bourses choisissent d’opérer plusieurs de ces fonctions (intégration verticale), comme la Bourse de Francfort qui gère les trois fonctions, tandis que d’autres comme le London Stock Exchange ne s’occupent que de la fonction « échange ». Inversement, d’autres Bourses suivent des stratégies d’intégration internationale, ou horizontale, comme NYSE-Euronext (qui regroupe les ex NYSE, Bourse de Paris, Bourse d’Amsterdam, Bourse de Bruxelles, Bourse de Lisbonne et Porto, LIFFE). On peut se poser deux questions : qu’est-ce qui explique que certaines Bourses choisissent de faire de l’intégration verticale et d’autres non, de l’intégration horizontale et d’autres non, et est-ce souhaitable pour les « consommateurs » (ici le agents qui échangent sur ces bourses). Les auteurs développent un modèle d’économie industrielle à la Salop (voir ici), assez compliqué et pour lequel je renvoie au papier, mais dont il ressort les résultats suivants : l’intégration verticale est une stratégie plus intéressante pour les bourses plus grandes et plus différenciées (c’est-à-dire échangeant des titres différents), mais aussi lorsque les autres Bourses sont également intégrées. Autrement dit lorsque quelques Bourses amorcent le mouvement d’intégration verticale, les autres sont incitées à les suivre. Ce mouvement est positif pour les « consommateurs », en revanche les Bourses peuvent au final voir leur profit diminuer. Enfin, il semble que plus les incitations à intégrer verticalement sont fortes, plus celles à intégrer horizontalement sont faibles, et réciproquement. Lorsque les Bourses sont peu différenciées l’incitation à intégrer horizontalement est forte (pour faire diminuer la concurrence en rachetant ses concurrents), lorsqu’elles sont très différenciées l’intégration verticale est plus intéressante (ici l’intuition ne m’a pas paru très claire, j’imagine que dans ce cas le pouvoir de marché de chaque Bourse augmente et qu’en intégrant verticalement on peut extraire plus de surplus des traders sans craindre la réponse des Bourses concurrentes). Au final, un modèle avec des prédictions très riches qu’on a envie de comparer avec les mouvements d’intégration récents.

Hans Degryse, Christian van Achter et Gunther Wuyts étudient dans « Internalization, Clearing and Settlement, and Stock Market Liquidity » un problème similaire, mais s’attachent plutôt aux effets de la tarification des opérations de compensation et de règlement sur la liquidité du marché. Les coûts liés à ces opérations représentent par exemple trois quarts des coûts de transaction sur Euronext, proportion qui varie beaucoup selon les plateformes. Un des éléments intéressants est que lorsqu’il y a échange sur une plateforme, il se peut tout à fait qu’acheteur et vendeur relèvent en fait de la même firme (par exemple deux brokers opérant pour la même firme et servant deux clients différents), en quel cas les opérations de « clearing » et « settlement » sont beaucoup plus simples. Certaines plateformes ont donc développé des programmes pour identifier ce type d’échanges, et tarifier moins cher de telles opérations. La contribution principale du papier est de montrer que cela peut changer les stratégies des donneurs d’ordre, qui peuvent par exemple soit proposer des prix très intéressants qui seront acceptés par tous les autres agents, soit des prix moins intéressants qui ne seront acceptés que par les agents ayant le même broker (sur certains marchés il se peut qu’un tel intermédiaire ait une place prépondérante). L’effet sur le marché est alors ambigu : d’une part il peut être efficace de favoriser les échanges entre agents ayant le même intermédiaire, puisqu’ils occasionnent moins de coûts de transaction, mais d’autre part cela réduit la liquidité du marché.

Si les Bourses sont en concurrence pour attirer les échanges sur des titres donnés, elles sont aussi en concurrence sur leurs activités de « listing ». Rappelons que lorsqu’une entreprise émet des actions, elle a intérêt à ce qu’il existe un marché secondaire pour celles-ci, afin que les acheteurs lors de l’émission sachent qu’ils pourront revendre leurs titres facilement, et soient donc prêts à les acheter plus cher. L’entreprise contactera alors une Bourse en lui demandant d’inclure ses actions dans la liste des titres échangeables sur cette Bourse ; cette dernière demandera à l’entreprise de livrer un certain nombre d’informations, de satisfaire à certaines normes etc. afin d’assurer un minimum de transparence pour les agents qui voudraient échanger ces titres, et enfin pour toute cette activité la Bourse prélèvera au passage une commission. Ces commissions peuvent représenter une part très importante du chiffre d’affaire des Bourses, par exemple 40% pour TMX (Canada), 10% pour Deutsche Börse. L’article de Cecilia Caglio et Andrea Pescatori, « Competition among Exchanges and Enforcement Policy », modélise ce type d’interaction et montre que la concurrence entre plusieurs Bourses pour leurs activités de listing peuvent avoir des effets pervers. En effet une entreprise peut préférer être listée sur une Bourse plus « laxiste », et être prête à payer plus cher le listing sur une telle Bourse. Sauf bien sûr si les investisseurs savent que cette Bourse cote des titres peu sûrs et refusent de les acheter. Au final, selon l’information des investisseurs l’effet sera plus ou moins prononcé, mais il semble que la concurrence ait tendance à diminuer les commissions perçues par les Bourses tout en augmentant le « laxisme » à l’équilibre. Sarah Draus, dans « Does intermarket Competition lead to less Regulation ? », traite du même problème avec un modèle un peu moins détaillé sur le plan informationnel, mais plus riche en ce qui concerne l’activité des marchés. Ici la réponse est à la question est plus ambivalente : lorsqu’il y a une deuxième plateforme, un titre listé à l’origine sur la plateforme 1 pourra aussi être échangé sur la plateforme 2 et sera donc plus liquide qu’avec une seule plateforme, ce qui augmente la commission que l’entreprise est prête à payer, et peut donner moins d’incitations à être « laxiste ».

Les lecteurs qui ont eu le courage d’arriver jusqu’ici savent maintenant à peu près tout sur la concurrence entre plateformes boursières (un sujet important, si si), ou en tout cas autant que les spécialistes de ce domaine, mais c’est déjà pas mal. Je garde pour la bonne bouche les autres articles présentés à la conférence sur d’autres sujets, mais le prochain billet sera probablement la page « juillet » du calendrier.

Licence Creative Commons – Auteur:Jean-Edоuard Cоlliard

Be the first to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée.


*