NAVIGATION RAPIDE : » Index » ECONOMIE » ECONOMIE GéNéRALE » L apport des disciplines voisines L'économétrieA l'économie pure, présentée sous forme mathématique, a succédé l'économétrie qui devient pour l'opinion publique la caractéristique la plus visible, jusque dans l'enseignement, de la théorie économique contemporaine. Loin d'être récente, l'économie mathématique remonte à Cournot, dont la Théorie mathématique de la richesse (1838), mal accueillie, dut être ultérieurement expurgée d'équations. Walras rencontra la même hostilité. Mais la fondation de la Société d'Econométrie sur l'initiati de Charles Ross, de Princeton, et de Ragnar Frisch, alors « visitory profes-sor » à Yales, ac l'appui d'Irving Fisher, son premier président, marqua un tournant en 1930. Impressionné par la démission très démocratique de Richard Nixon en raison de l'affaire Watergate, il opta en 1974 pour la nationalité américaine et c'est à ce titre qu'il reçut le prix Nobel en 1983. L'essor de l'économétrie lui-même est la conséquence des progrès de la statistique économique. Dans ce domaine, Simon Kuz-nets, professeur, d'origine russe, à l'Unirsité Harvard et lauréat du prix Nobel (1). peut être considéré comme le père de la compilité nationale américaine et de l'histoire économique quantitati pour ses travaux dans le cadre du National Bureau of Economie Research et de l'Association Internationale pour la Recherche sur le Renu et la Richesse des Nations (IARIW). Bien que l'objet de ses recherches se soit déplacé du cycle rs la croissance, il est resté fidèle à une méthode quantitati et empirique. Repoussant toute explication unitaire, comme l'exploitation du travail chez Marx ou la succession des étapes de la croissance chez Ros-tow, ses analyses atis dans le temps et dans l'espace l'ont amené dans Croissance et Structures Economiques (1960) à une conclusion idéaliste, l'importance du niau culturel comme facteur limitatif de la croissance potentielle, et à un certain scepticisme sur l'insuffisance d'un taux annuel de croissance du Produit National Brut pour apprécier le niau de satisfaction des peuples. Acceptée désormais, l'économétrie, que Ragnar Frisch, l'innteur du terme, définissait comme l'alliance de l'économie, des statistiques et des mathématiques, a bénéficié de l'amélioration de l'information statistique et des acquisitions des mathématiques modernes (théorie des ensembles, équations aux différences finies, etc.), mieux adaptées que les traditionnels calculs différentiels et des probabilités aux actes de l'homme économique, qui excluent les hypothèses de continuité et d'infinité. Ainsi l'économétrie a permis l'élaboration d'une théorie de la décision économique, tant au niau de la nation qu'à celui de l'entreprise, qui ne saurait se concevoir sans le calcul matriciel, la programmation linéaire et la théorie des jeux. a. — L'apport du calcul matriciel Le calcul matriciel, fournissant un résumé commode d'un ensemble complexe et facilitant par l'inrsion ou la triangulation, la solution d'un problème économique ainsi formulée, s'est révélé précieux pour analyser l'interdépendance structurale de l'économie, assurer la cohérence de la ification et permettre la prévision économique depuis que Léontief, né à Leningrad en 1904 et denu professeur à Harvard en 1946, a ourt la voie par l'analyse input-output de l'économie américaine (2), ce qui lui a valu le prix Nobel en 1973. Le système d'input-output repose d'abord sur l'égalité comple entre les inputs et les outputs, autrement dit les ntes d'un secteur de l'économie à tous les autres sont nécessairement égales aux achats de ce secteur à tous les autres. Pour Léontief tous les secteurs sont interdépendants, ce qui l'oppose à la conception du circuit de Quesnay, où l'on voit sount l'antécédent des damiers des relations industrielles, et à la conception autrichienne du processus de production qui distingue des stades successifs. L'analyse de Léontief découle d'autre part des fonctions de production, relations qui unissent dans chaque secteur les inputs aux outputs à trars des coefficients techniques supposés constants et inférieurs à l'unité. Si l'on choisit de mesurer les unités physiques de chaque produit de façon que, pour des prix donnés des inputs, une unité d'output représente un million de dollars, les colonnes du leau matriciel donnent la structure des coûts. Il convient de souligner que de tels prix ne sont pas ceux de la concurrence mais des prix relatifs réels, comme ceux qu'utilisaient les économistes classiques, tel le prix de l'acier en termes de blé, et que le niau absolu des prix reste totalement indéterminé. Les matrices qu'ont étudiées Léontief et ses disciples ont varié non seulement selon le degré de consolidation des secteurs (de 10 à 600), mais surtout selon leur caractère ourt ou fermé. Léontief a d'abord construit un modèle fermé, comprenant autant d'équations que d'inconnues, dans lequel il considérait les ménages comme une industrie, les biens de consommation étant des inputs nécessaires à la production de l'output travail. La difficulté d'assimiler les propensions psychologiques et les habitudes des ménages à des coefficients techniques et les besoins de la prévision l'ont ensuite amené à ouvrir son modèle, en y introduisant des variables autonomes telles que l'emploi et les dépenses du gournement. Bien que le système de Léontief ait connu un grand succès, on lui a reproché d'être trop statique, de ne tenir compte ni du temps ni des instissements, d'être trop micro-économique et de négliger les problèmes que soulènt l'agrégation des produits et la substitution des facteurs. Aussi Léontief a-t-il dynamisé son modèle en complétant le circuit des biens et des services par un second circuit, celui du capital où les coefficients de capital, exprimés en terme d'unité de capacité de production, jouent un rôle symétrique de celui tenu par les coefficients techniques dans le premier et comme eux sont supposés constants. II généralise le principe d'accélération en le décomposant en une série d'instissements sectoriels, méthode entachée par une irrérsibilité à la baisse qu'accentue la non-transférabilité des équipements d'un secteur à un autre. A long terme, les relations intersectorielles se modifient sous l'effet du progrès technique qui se traduit par la variation des coefficients techniques. Certains augmentent tandis que la baisse d'autres exprime l'accroissement de la productivité ; en règle générale la baisse de l'input travail ne s'effectue qu'au prix d'un accroissement des autres inputs, notamment le capital, ce qui a incité Léontief à essayer de regrouper les secteurs selon des processus technologiques homogènes dans le processus de production. Tandis que, du côté de l'offre, les facteurs se substituent les uns aux autres sous l'effet du progrès technique, du côté de la demande les produits sont également substitués les uns aux autres en longue période en raison des variations de la demande finale sous l'effet de la modification des échelles de préférence des consommateurs. L'affinité est grande entre le système d'input-output et la ification ; si elle reste virtuelle aux Etats-Unis, mises à part des circonstances exceptionnelles comme l'effort de guerre et de reconrsion ou le pont de Berlin, elle s'impose dans les ifications française et soviétique. Les relations d'input-output et les bilans-matières expriment les unes et les autres l'adaptation réciproque des ressources et des emplois de facteurs productifs mesurés en unités physiques et assignent un rôle secondaire aux flux monétaires. Certes des différences existent : les bilans-matières isolent des produits déterminés quand les leaux d'input-output distinguent des secteurs industriels largement définis ; la ification soviétique ille à l'approvisionnement intégral des secteurs prioritaires alors que Léontief aligne les quantités globales sur les facteurs rares par un traitement égalitaire des secteurs industriels. Enfin, en matière d'instissements, la ification soviétique les hiérarchise selon les préférences politico-économiques des autorités ificatrices, tandis que Léontief souligne l'influence de la demande finale sur le déloppement parallèle de tous les instissements. Encore les différences tendent-elles à s'estomper, Léontief accordant une importance croissance à l'instissement et le Gos, à la demande finale. Outre l'utilité des techniques d'input-output comme technique de ification, la fécondité des travaux de Léontief s'est traduite par de noulles orientations de recherche, les unes appliquant l'analyse input-output à de nouaux domaines, les autres cherchant à approfondir la nature même de la fonction de production. Travaillant dans le cadre du III" Plan français (1956-l960) Henri Aujac (3) a mis en évidence, par la triangulation d'une matrice des échanges industriels, l'existence d'une hiérarchie entre les secteurs. A l'inrse de Léontief, il estime que les relations interindustrielles mettent moins en lumière l'interdépendance des secteurs qu'une vérile dépendance organique entre eux. Ainsi la chimie domine l'agriculture, sa meilleure cliente, qui lui achète 11,9 % de sa production tandis qu'elle n'absorbe que 0,3 % de la production de l'agriculture. Toutefois la domination ne se ramène pas au seul critère du meilleur client, effet direct. Une industrie intermédiaire peut renrser l'effet de domination. Si par exemple un secteur exerce un effet asymétrique sur un second secteur, le premier semble dominer le second, mais si le second exerce un effet sur un troisième qui réagit sur le premier, l'effet indirect du second sur le premier à trars le troisième peut plus que compenser l'effet direct. Conséquence pratique importante, la hiérarchie des industries rend possible, selon Aujac, la ification démocratique. Elle facilite l'élaboration décentralisée du en interrogeant les professionnels dans l'ordre hiérarchique des secteurs et permet la gestion décentralisée de l'économie. Très ambitieux au départ, Walter Isard (4) a voulu spatialiser la fonction de production en introduisant un input de transport à côté des autres inputs pour obtenir un output quelconque spatia-lisé. Mais ses efforts se sont avérés peu opérationnels et il a utilisé l'analyse input-output pour retracer l'interdépendance des activités économiques régionales. Toutefois la matrice interrégionale ne remplace pas les secteurs par les régions ; elle superpose plutôt les deux classifications. Partant alors de la constatation élémentaire que certains produits voyagent, les produits nationaux, et d'autres non, les produits régionaux, et de l'hypothèse de la constance du pourcentage de produits nationaux fabriqués par chaque région. Isard élit une matrice interrégionale donnant la distribution géographique par régions de tous les inputs et de tous les outputs de produits nationaux et par conséquent la balance commerciale de chaque région enrs le reste du pays. Dans un deuxième temps qui correspond à l'ourture du modèle, il cherche à déterminer l'impact régional d'une variation de la demande nationale. De telles matrices, en principe simples à élir, posent des difficultés pratiques à résoudre simultanément (le choix des régions et des secteurs et l'obtention de statistiques régionales), et une difficulté théorique gra : l'hypothèse de la constance des coefficients techniques devient particulièrement critiquable car un secteur peut facilement varier l'origine de ses inputs. Cependant Isard ne les a pas estimées insurmonles et de nombreuses applications ont été faites des matrices régionales aux Etats-Unis (New-York, Philadelphie, Saint Louis) et aux relations entre le Nord et le Sud de l'Italie. Sous l'effet de l'internationalisation croissante des économies nationales et l'influence des organisations économiques internationales, la conception d'un réseau d'échanges internationaux s'est substituée depuis 1960 à celle des exportations en tant que variables autonomes nationales. Mais l'élaboration de matrices donnant la structure par pays et par produits du commerce mondial eût été d'une impossible lourdeur si elles ne s'étaient limitées aux importations et aux exportations globales de quelques grandes zones géographiques. Construits au service de la ification du commerce extérieur, notamment en France et aux Pays-Bas, ces réseaux ont surtout été utilisés à la prévision des échanges, à condition de disposer d'une hypothèse de transformation des matrices. — la méthode hollandaise de la conservation des parts, fondée sur la constatation que la part des exportations d'un pays dans les importations de ses dirs partenaires est relatiment sle (Meyer zu Schlochtern) (5) ; — la méthode RAS de double proportionnalité de Stone (6) et Brown (7), économistes de Cambridge qui. à partir de la matrice initiale A, et des matrices diagonales d'accroissement des exportations (R) et des importations (S), obtiennent la noulle matrice égaie à RAS ; — enfin, la méthode gravitationnelle qui suppose les flux d'échanges proportionnels aux PNB des deux pays échangistes et inrsement proportionnels à la distance, qu'elle soit géographique ou économique (Tinbergen (8), P. Poyhonen et K. Pulliainen (9). De plus la confrontation de la matrice prévisionnelle ac la matrice réelle ex post permet, par écart, de mesurer l'impact d'une variation structurelle telle que la formation d'une union douanière (Waelbroeck, Verdoorn (10), Duquesne de la Vinelle) (11). b. — La programmation linéaire En première approximation, tout phénomène économique peut être mis sous forme de relation linéaire, soit qu'il se caractérise par l'égalité ou la proportionnalité, soit qu'il s'exprime par une courbe exponentielle ou logistique qui, pour l'essentiel, peut s'y ramener par les logarithmes. De plus le principe d'économicité et la recherche de l'optimum ne sont que l'application économique du problème du minimax : minimiser les coûts et maximiser les avantages sous certaines contraintes. Outre la possibilité de formaliser tous les aspects théoriques antérieurs, la programmation linéaire a permis d'élaborer une théorie de la politique économique et de la maximisation. Tinbergen, directeur du Bureau Central de Planification des Pays-Bas et professeur d'économétrie à l'institut néerlandais des Hautes Etudes Economiques, a fondé la théorie de la politique économique sur la programmation linéaire qui seule assure la rérsibilité et la cohérence des modèles (12). Alors qu'un modèle historique remplace le moument économique par la tendance mathématique la plus approchée, un modèle de décision inrse la relation entre les données et les variables et permet de tester la cohérence d'une politique économique, c'est-à-dire la compatibilité des objectifs et des moyens. Le but de toute politique économique qui est le bien-être, scion la conception qu'en ont les responsables politiques, se précise en certains objectifs tels que le plein-emploi ou l'équilibre extérieur, qui peunt être fixes (donner aux variables telle valeur) ou souples (trour la valeur qui maximise la fonction de bien-être). Leur réalisation nécessite des moyens ou variables-instruments et peut se heurter à des conditions-limites, telles que ne pas accroitre la durée du travail ou les impôts par exemple. Dans le cas d'objectifs fixes et de variables-instruments en nombre égal sans conditions-limites, il n'y a qu'une politique économique à suivre. Si le nombre des variables-instruments est grand, il en résulte un certain degré de liberté. Dans le cas d'objectif souple, il y a toujours une politique, indépendamment du nombre de variables-instruments, mais elle dépend des conditions-limites et peut même être inacceple parce qu'elle provoquerait de trop fortes variations des variables-instruments (baisse des salaires par exemple). Tinbergen remarque qu'il faut se garder d'élir une correspondance rigoureuse entre les objectifs et les variables-instruments un à un, comme si chaque instrument ne visait qu'un objectif déterminé, par exemple le taux de salaire, pour agir sur l'emploi ou le taux de change, sur l'équilibre de la balance des paiements. Une simplification aussi abusi sous-estime grandement l'interdépendance des phénomènes économiques. Enfin à côté des politiques quantitatis à court terme, qui relènt seules de la programmation linéaire, Tinbergen distingue des politiques qualitatis et des réformes qui modifient plus ou moins profondément les structures et échappent en partie à l'économétrie malgré la possibilité d'utiliser des prix fictifs. Comme Tinbergen. Ragnar Frisch a su allier les recherches sur la logique de la politique économique aux travaux de ification dans son pays, la Norvège, l'un des premiers à se donner une compilité nationale, et en Inde. Il a de plus réussi la performance d'introduire des concepts, vite tombés dans le domaine public des économistes, tels ceux d'économétrie, de macro-analyse, de polypole, etc. sans avoir pourtant écrit d'ouvrage très célèbre. A part Maxima et Minima — théorie et application économique — l'essentiel de son œuvre est peu accessible, qu'elle soit écrite en norvégien, dispersée en maints articles, mimeographiée, ou difficile du point de vue mathématique. Selon R. Frisch la politique économique s'exprime sous la forme d'un modèle de décision qui doit donner une première approximation des interconnexions économiques les plus importantes, être assez souple pour pouvoir exprimer différents systèmes d'objectifs sociaux, être dynamique en ce qu'il détermine un optimum à long terme et un modèle à court terme pour l'année suivante allant dans le sens de cet optimum, enfin être démocratique en mettant ses principales conclusions à la portée de tous. Le plus connu des modèles de décision construit par R. Frisch est le « sous-modôle d'Oslo (13) », utilisé par la sous-Commission des Nations Unies pour l'emploi et la silisation économique. Pour obtenir le meilleur modèle possible à partir des données les moins mauvaises possibles, autre aspect de la maximisation, Frisch a été amené à élaborer des méthodes économétriques originales, notamment le procédé de la fermeture des éntails de cteurs. Un phénomène de corrélation multiple peut être représenté par un polyèdre, une sorte de parapluie dont chaque variable est un cteur et qui donne, si on le projette sur un , un éntail. La fermeture de cet éntail, en éliminant les variables superflues, permet de distinguer la multicollinéarité de la causabilité vérile. Autre trouvaille. Frisch a introduit, à côté de la méthode classique de résolution d'un programme linéaire dite du simplexe, deux nouaux procédés : la méthode du multiplex et celle du potentiel logarithmique qui, bien que rebelles au calcul totalement électronique, restent supérieures à celle du simplexe lorsqu'un programme linéaire comprend de nombreuses contraintes. c. — La théorie des jeux L'application à la science économique de la théorie des jeux, qui est l'art de rendre efficace l'action du joueur en l'absence de certaines informations, face au hasard et à l'incertitude, est due à la collaboration d'un mathématicien d'origine autrichienne, Von Neuman, et d'un économiste américain, Morgcnstern, auteurs d'un livre, Theory of games and économie behavior, paru en 1944. Pourtant la théorie des jeux est ancienne puisqu'elle se rattache aux recherches faites au XVII' siècle par Galilée, Huygens, Pascal et Bernouilli sur le calcul des probabilités et, plus près de nous, à la communication d'Emile Borel en 1921 à l'Académie des Sciences. Le principal apport de la théorie des jeux est d'avoir enrichi la connaissance des différentes structures de marché en distinguant les types de jeux selon le nombre de joueurs et l'enjeu, la somme étant nulle si le gain de l'un des adrsaires est fait de la perte de l'autre et en les faisant correspondre aux différentes structures de marché. Ainsi le monopole est un jeu à un de somme non nulle, le monopole bilatéral et le duopole sont des jeux à deux généralement de somme non nulle, voire de somme nulle si le monopole bilatéral consiste en un achat pour rendre ou si le duopole fonctionne sur un marché saturé, et l'oligopole est un marché à n joueurs de somme non nulle. Cette correspondance éclairante montre que d'une part, le cas simple du jeu à deux de somme nulle ne correspond à aucune structure réelle du marché, d'autre part que pour la théorie des jeux comme pour Cournot, le mécanisme des prix se construit à partir du monopole. Dans tous les cas, l'issue du jeu dépend du comportement des joueurs. Von Neuman raisonne sur le comportement du joueur intelligent et prudent qui choisit le maximum parmi les gains minimum, ce que la théorie des jeux qualifie de « maximum ou critère de Wald ». Si, au contraire, le joueur cherche à minimiser son regret, son désappointement de n'avoir pas fait le bon choix, la théorie de jeux qualifie ce comportement de critère de Savage ou minimax, attitude que Pierre Massé (14) juge plus réaliste que le comportement neumanien le plus rationnel. Si une telle reformulation n'apporte rien sur le monopole ou la concurrence, jeux non coopératifs à information théoriquement complète, elle enrichit la théorie des autres structures de marché en permettant de préciser les possibilités de coalition, le partage du profit et la durée du jeu, trois points restés obscurs dans les études antérieures de l'économiste allemand H. Von Stackelberg (15). La coalition est payante lorsqu'elle augmente la valeur du jeu qui devra ensuite être partagé. Le partage dépend, selon Nash, de l'importance des frais fixes et de la vulnérabilité financière de l'entreprise. Enfin la durée du jeu, aspect particulièrement étudié par Shubik (16) dépend de l'ampleur des gains et des pertes et de la puissance financière des entreprises qui déterminent la sortie de jeu. Pourtant, en sciences économiques, la portée de la théorie des jeux est limitée par ses hypothèses elles-mêmes. Alors que la règle du jeu ne peut pas être modifiée pendant la partie, la solution des rapports sociaux, bien qu'ils soient sount de nature ludique, peut l'être au cours du dialogue social. Alors que l'information n'est relati qu'au jeu des joueurs et non à ce joueur fictif qu'est le marché, la concurrence monopolistique, structure de marché la plus courante, dépend de l'information sur la qualité des produits. Depuis les deux ouvrages fondamentaux de Von Neuman et Morgenstern et de Martin Shubik (Strategy and market structure, 1959). la théorie des jeux n'a cessé de progresser en délaissant ses applications à l'oligopole pour s'orienter rs l'analyse des institutions, qui sont en effet les règles du jeu social. L'article de Shubik également paru en 1959 « Edgeworth marketgames » a éli la similitude entre le cœur de la théorie des jeux et la courbe des contrats d'Edgeworth. L'intérêt des mathématiciens s'est déplacé rs la reformulation de l'équilibre général de Walras par Arrow, Debreu et Me Kenzie. Mais alors que ces derniers, comme Walras, considèrent les institutions comme des données, Shubik, Hurwicz, Gibbard (Econometrica, 1973) et Sattcrthwaite (7. Econ. theory, 1975) considèrent les institutions comme des règles du jeu à découvrir pour améliorer les choix sociaux. La théorie des jeux offre par exemple une noulle analyse des économies externes bien différente de celle de Pigou qui y voyait une dirgence entre les coûts privés et les coûts sociaux alors que Ronald Coase (17) en fait une possibilité de rendiquer une subntion en tant que solution d'un jeu coopératif ac paiements extérieurs. Enfin la théorie des jeux pourrait éclairer les négociations économiques internationales au GATT.
La modélisation économétrique a connu, à partir des années 50 un grand essor dû au schéma théorique IS-LM, aux techniques de la Cowles commission et au déloppement des ordinateurs. Depuis, les modèles macroéconomiques ont fait l'objet de dirses critiques. Les critiques théoriques les plus radicales sont celles de Lucas (1976) et de Sims (Econometrica, 1980). |
||||
Privacy - Conditions d'utilisation |