Questions de méthodologie (1)

Suite à de nombreux débats récents sur le forum d’Econoclaste (par exemple ici) portant sur la méthodologie de l’économie en général, il m’a paru nécessaire d’écrire une bonne fois pour toutes quelques points méthodologiques qui me semblent importants, afin de pouvoir y renvoyer par la suite au lieu de perdre des heures à toujours répondre aux mêmes questions. Il ne s’agit que de mon point de vue sur ce qu’essaie de faire en théorie économique et sur l’interprétation de ses résultats que je trouve la plus pertinente. Je pense que beaucoup d’économistes partagent ce point de vue, mais sans doute pas tous, et qu’il permet de donner à certains résultats une interprétation contraire à (ou du moins différente de) celle des auteurs, surtout s’il s’agit de résultats anciens.

Cela me met dans une position extrêmement confortable puisque je peux dire aux contempteurs de telle ou telle théorie qu’ils ont bien raison mais que justement la théorie en question n’est intéressante que si on l’interprète autrement.

Beaucoup si ce n’est toutes les critiques « externes » de la théorie économique « standard » s’attaquent aux hypothèses des modèles (ce qui est normal, du moment que les démonstrations sont justes il n’y a pas grand-chose d’autre à attaquer). Je trouve la critique légitime a priori, et ne suis pas du tout de l’avis qu’il ne faudrait pas critiquer les hypothèses. Dans n’importe quel séminaire de recherche d’ailleurs toutes les questions ne portent généralement que sur celles-ci. Mais ces critiques me semblent supposer implicitement que les économistes tiennent pour vraies les deux propositions suivantes :

1. Le modèle est irréaliste mais se veut une description simplifiée ce qui se passe dans la réalité.

2. La « solution » du modèle est la prédiction des économistes sur ce qui se produira dans la réalité.

La critique consiste alors en général à expliquer que la description de la réalité est trop simplifiée pour avoir un sens, et que donc la solution n’a aucune raison d’être une prédiction correcte.

Or, dans le cas de la microéconomie (théorie des jeux incluse) auquel je vais me restreindre, beaucoup de chercheurs ne soutiendraient ni la proposition 1 ni la proposition 2 pour beaucoup de travaux théoriques, ou l’une mais pas l’autre. En macroéconomie pour les modèles que l’on calibre au moins les économistes tiennent à la position 2, c’est une méthodologie très différente de celle que je vais exposer (voire opposée), et il est en dehors de mon domaine de compétence de juger si c’est une bonne chose ou non.

Examinons d’abord la proposition 1. Beaucoup de gens butent sur l’hypothèse de rationalité de l’agent économique, et plus encore sur l’hypothèse d’anticipations rationnelles. Probablement parce qu’ils pensent que les économistes en ont une interprétation « à la Friedman » : un agent parfaitement rationnel est censé être une bonne approximation d’un agent non rationnel mais pas complètement stupide, qui ferait des erreurs mais pas toujours avec le même biais. Ils butent donc plus encore sur la théorie des jeux, où chaque joueur doit être rationnel mais où de plus la rationalité des joueurs doit être connaissance commune, entre autres conditions « épistémiques » particulièrement fortes.

C’est à mon avis négliger que le concept de « solution » utilisé par l’économiste est en général le concept d’équilibre (de Nash ou walrassien pour en citer deux), ce qui suppose qu’il est l’aboutissement d’un processus.

Les travaux en théorie des jeux évolutionnaire et plus largement sur l’apprentissage dans les jeux (voir notamment le livre de Fudenberg et Levine sur le sujet) ont montré que de manière générale des joueurs totalement stupides pouvaient très bien arriver à converger vers des équilibres de Nash pourtant extrêmement subtils. L’idée est simplement que d’une façon ou d’une autre lorsque les joueurs répètent un grand nombre de fois le même jeu, si un joueur peut faire mieux que ce qu’il a obtenu par le passé il va finir par s’en rendre compte (il pourrait par exemple avoir une faible probabilité de s’en rendre compte à chaque période). Il va donc changer sa stratégie. Mais les autres joueurs auront alors probablement la possibilité de faire mieux également, et finiront par changer leur stratégie à leur tour. A l’issue d’un tel processus il peut se passer plusieurs choses selon la façon précise dont les gens apprennent, mais dans de nombreux cas on aura convergence vers un équilibre de Nash (c’est assez logique, à un équilibre de Nash aucun joueur ne peut plus améliorer son paiement en changeant de stratégie, c’est donc un équilibre aussi bien dans la version « apprentissage » que dans le processus de raisonnement hyper rationnel prêté aux joueurs).

Pour cette raison, peu de théoriciens des jeux seront prêts à parier gros que l’équilibre de Nash va être joué dans un jeu qui n’est pas familier aux joueurs, parce qu’ils ne croient pas en général que la théorie des jeux décrive un jeu en un coup. En revanche la théorie des jeux « expérimentale » montre de manière répétée que si on fait jouer des quidams à divers jeux ils convergent en général assez vite vers la solution sans même avoir très bien compris à la fin le principe du jeu. Dans les jeux vidéo on observe très bien ce phénomène chez les joueurs les plus acharnés, qui trouvent très vite la solution « rationnelle » à force de répétition, c’est ce que j’ai raconté chez de sympathiques confrères lyonnais.

Il en va largement de même pour le concept d’équilibre walrassien. Personne ne pense évidemment qu’un marché centralisé organisé par un commissaire-priseur bénévole est une représentation adéquate de la réalité. Si les économistes continuent de se servir de ce modèle, c’est entre autres parce qu’ils savent que l’aboutissement d’échanges bilatéraux répétés entre les agents finit par mener à un équilibre walrassien quand ceux-ci sont très nombreux, et que les « jeux de marché » non coopératifs ou chaque joueur offre des quantités de manière stratégique aboutissent là encore au même équilibre walrassien quand il y a suffisamment de joueurs. Ca marche assez bien dans les classroom games dont certains enseignants raffolent.

Idem encore pour l’idée d’anticipations rationnelles. Plusieurs économistes justifient cette hypothèse d’une manière « friedmanienne » comme voulant dire que les agents ne se trompent pas « en moyenne ». Pourtant, à l’origine, pour Lucas l’idée était tout autre : si les agents n’ont pas d’anticipations rationnelles, ils vont se tromper, et leurs erreurs vont leur coûter quelque chose. Ils vont finir par apprendre, et leurs anticipations vont changer. Donc on n’était pas à l’équilibre. L’hypothèse est donc que l’on demande un équilibre où non seulement les actions mais également les anticipations ne changent plus, c’est pourquoi il ne faudrait pas tellement parler d’hypothèse d’anticipations rationnelles mais d’un raffinement du concept d’équilibre, l’équilibre avec anticipations rationnelles.

Les économistes ont souvent eu des débats violents entre eux sur l’interprétation à donner aux différents modèles, et parfois ont réussi à se mettre d’accord sur des interprétations satisfaisantes assez vite. Le premier problème c’est que le non spécialiste ne voit en général que la partie émergée de l’iceberg : chaque auteur ne s’amuse pas à réexpliquer dans son article que l’équilibre de Nash peut être justifié par la répétition de l’interaction. Le deuxième problème c’est qu’une fois qu’une hypothèse est bien ancrée les économistes eux-mêmes ont tendance à oublier un peu d’où elle vient et pourquoi elle s’est imposée. Je trouve cela assez grave, une conséquence importante est que beaucoup d’économistes font des travaux qui sont tout à fait justifiés, mais ne savent pas pourquoi ils sont justifiés. Deux éléments me semblent responsables de ce phénomène : d’abord le manque de formation en général en histoire de la pensée économique, ou bien sa réduction à quelques grands auteurs présentés comme des curiosités historiques quand il serait tout aussi nécessaire de traiter des débats autour de telle ou telle nouvelle hypothèse au moment où elle a été formulée ; ensuite la légèreté avec laquelle de nombreux auteurs de manuels traitent la justification des hypothèses, et en donnent une version « vulgarisée » pour ne pas trop rentrer dans les détails. Il en va ainsi des justifications comme « les agents se trompent individuellement mais pas en moyenne », qui ne sont pas nécessairement fausses mais n’épuisent pas le problème, et que l’on trouve davantage dans les manuels que dans les articles originaux.

Licence Creative Commons – Auteur:Jean-Edouard Cоlliard

Be the first to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée.


*