Si vous torturez les données suffisamment longtemps, la Nature finira toujours par avouer.
R. Coase.
S'appuyant sur les données recueillies sur un ensemble de variables, l'économiste tente de découvrir des structures sous-jacentes A l'aide de techniques statistiques qui, si elles ne sont pas spécifiques A l'économie, y sont particulièrement déloppées. En fait, mASme si l'économé-trie désire procéder de faA§on purement inducti A partir des seules observations, elle se donne toujours une spécification théorique minimale qu'elle projette ensuite sur les données. Cependant, si elle a techniquement une vocation instrumentaliste de production de relations bien confirmées, elle peut aussi contribuer A réfuter une structure théorique ou A arbitrer entre structures concurrentes au vu des données. De faA§on corollaire, l'économétrie s'efforce de fournir une interprétation causale aux liaisons entre variables A partir des observations, problème qui peut AStre posé également en partant d'un ensemble de relations statistiques déjA constitué.
Mise en relation des variables.
Les méthodes statistiques de mise en relation des variables se sont d'abord déloppées en biologie A la fin du xixc siècle, sous l'impulsion de Galton ou Pearson ; elles visaient A élir, au sein d'une population animale ou humaine, des corrélations entre variables différentes (taille-sexe) ou semblables (taille du père-taille du fils). Elles ont ensuite diffusé en
économie où l'on disposait également d'observations de variables relatis A plusieurs périodes ou entités géographiques (Gutsatz-Veuille, 1987) ; elles ont permis aussi bien d'élir une liaison entre la pauvreté et l'aide sociale (Yule, 1897) que de rendre compte du cycle des affaires (Mitchell, 1940). Compte tenu de l'existence de séries de données nombreuses et variées, et de logiciels informatiques de plus en plus performants pour les traiter, l'utilisation de ces méthodes s'est progressiment généralisée depuis la Seconde Guerre mondiale, dans le mASme temps que leur théorie s'affinait pour s'adapter A dirses particularités méthodologiques.
Les méthodes statistiques ne font que systématiser les analyses - visuelles - et grossières que l'on peut faire sur un ensemble d'observations relatis A différentes grandeurs sur une famille d'objets (eye-balling) ; les objets peunt AStre observés simultanément ou successiment (données spatiales ou temporelles), et les grandeurs faire l'objet de dirs prétraitements (quantification, désaisonnalisation, dérivation). Les méthodes d'analyse des données (voir III, 1) visent A structurer l'espace des objets, soit en classant les objets sous une forme sount hiérarchique (analyse typologique), soit en dégageant des axes privilégiés selon lesquels ils s'ordonnent (analyse factorielle). Les méthodes d'ajustement statistique cherchent A construire une relation stochastique entre les grandeurs, une variable pouvant AStre expliquée A partir de ses valeurs passées (modèle autorégressif), des valeurs présentes d'autres variables (modèle multivarié) ou encore des valeurs présentes et passées de toutes les variables.
Une méthode d'ajustement usuelle, la régression linéaire, consiste A déterminer, dans l'espace formé d'une variable explicati et de variables expliquées, la droite qui passe au plus près du nuage d'observations au sens d'une certaine métrique (méthode des moindres carrés), procédure qui obéit A des propriétés d'optimalité sous certaines hypothèses. Des critères économiques permettent déjuger de la valeur statistique de l'ajustement (critère du R2), et des tests économétriques de vérifier la significativité des valeurs des paramètres (test de Student), mais aussi la validité des hypothèses sur les aléas (test de Durbin-Watson). Des méthodes plus élaborées permettent de s'affranchir des hypothèses simplificatrices justifiant la régression linéaire simple (aléas indépendants des observations, aléas indépendants entre eux. aléas suivant une loi normale, variables explicatis non colinéaires), ou encore de tenir compte de données plus frustes (données qualitatis), ou d'estimer des structures plus complexes (relations non linéaires).
Après une phase initiale de réser par rapport A des techniques perA§ues comme trop ésotériques, l'économétrie a connu un engouement considérable dans les années 1970, du fait de ses perfectionnements rapides, avant de souler A nouau un certain scepticisme, dû A ses pratiques - manipulatoires - (voir I, 4). Scepticisme exprimé dans le style docte des économistes : - pour compenser la pauvreté patente des données disponibles [] aucun domaine de la recherche empirique n'a mobilisé une machinerie aussi massi et sophistiquée pour aussi peu de résultats - (Leontief, 1971) ou celui, plus trivial, des économètres : - il y a deux choses A la fabrication desquelles il vaut mieux ne pas trop regarder : les saucisses et les estimations statistiques - (cf. Leamer, 1985). Pourtant, la majorité des économistes émet aujourd'hui un jugement plus serein dans la mesure où ses possibilités et ses limites sont mieux reconnues, tant pour la validation de schémas théoriques préélis que pour que la confection de modèles de prévision et d'aide A la décision.
Attitude inducti ou projecti.
Les méthodes économétriques adoptent une démarche ascendante ou descendante dans une structure de spécification des modèles A quatre niaux (voir I, 5) :
' les théories économiques définissent les grandeurs enjeu dans un phénomène donné et fournissent des indications qualitatis sur leurs liaisons ;
' les spécifications théoriques précisent la définition opératoire des variables, la dichotomie entre variables exogènes et endogènes, la forme des relations entre variables et les propriétés des termes aléatoires ;
' les spécifications empiriques donnent une forme complètement spécifiée aux relations entre variables et affectent en particulier une valeur numérique aux paramètres qu'elles contiennent ;
' les observations fournissent des ensembles de valeurs numériques des variables pour différents objets.
A ces différents niaux correspondent des interprétations différentes des termes aléatoires des relations, introduits pour réconcilier spécifications théoriques et observations, la seconde seule étant vraiment caractéristique du champ
économique (voir I, 3). Au niau supérieur est associée une incertitude intrinsèque du système, due par exemple au - libre arbitre - des acteurs qui fait que leur comportement reste toujours en partie irréductible A une fonction de réaction déterministe. Aux niaux intermédiaires correspond un défaut de spécification, caractérisé par l'absence dans les relations de certaines variables explicatis pertinentes ou une forme analytique erronée des relations entre variables. Au niau inférieur est associée plus classiquement une erreur de mesure sur les variables observées, ou encore un biais d'échantillonnage dans la sous-population retenue pour effectuer les observations.
Les méthodes économétriques adoptent une démarche essentiellement inducti lorsqu'elles visent A extraire un maximum de régularités empiriques des observations en faisant appel A un minimum d'hypothèses préalables sur les structures théoriques. Les méthodes d'analyse des données permettent ainsi de segmenter et d'orienter l'espace des objets sans faire d'hypothèse sur l'exogénéité ou non des variables ou sur leur indépendance ; mais elles nécessitent néanmoins la définition préalable des indicateurs de base et d'une structure formelle minimale (schéma linéaire, indice de distance), et appellent une interprétation ultérieure des résultats obtenus. Les méthodes d'ajustement de type Box-Jenkins dégagent des régularités temporelles des séries statistiques en se contentant d'expliquer une variable par elle-mASme ; elles s'appuient cependant sur une structure simple (relation autorégressi linéaire), ac des - retards - de longueur limitée, et restent très opaques quant A leur interprétation (- boite noire -).
Les méthodes économétriques adoptent, A l'inrse, une démarche essentiellement projecti lorsqu'elles visent A tester si un modèle, aussi complètement spécifié que possible par la théorie, est bien compatible au sens statistique ac les observations. Ainsi, il est possible déjuger, au vu des données, si un paramètre a bien une valeur fixée ou une valeur située dans une zone donnée, ou, plus simplement, de valider son signe ou sa non-nullité ; mais ce test présuppose une certaine forme des relations et une valeur des autres paramètres, hypothèses qui sont ainsi testées dans le mASme temps. En fait, il est possible de tester plus globalement une propriété caractéristique du modèle (forme d'une relation, restrictions a priori sur les paramètres) et mASme de soumettre A l'épreu des faits le modèle complet A l'aide de techniques appropriées, qui peunt cependant fluctuer.
L'induction statistique.
Les méthodes économétriques usuelles, qui visent A estimer les paramètres d'un modèle défini a priori et sont qualifiées improprement d'induction statistique, se situent dans une position intermédiaire entre les approches inducti et projecti. Elles réalisent le passage d'une spécification théorique
donnée A une spécification empirique, en induisant des observations la valeur des paramètres et en assortissant du mASme coup ces valeurs d'une zone de confiance statistique. Cependant, dans l'école classique, parmi toutes les structures empiriques a priori admissibles (définies par un ensemble de paramètres), l'une est privilégiée en fonction de normes statistiques telles que la robustesse par rapport aux observations. En revanche, dans l'école bayésienne, on se donne en plus une distribution de probabilité a priori sur les structures possibles, et cette distribution est simplement modifiée en fonction des observations selon les règles bayésiennes.
Les méthodes d'estimation classiques réalisent une dichotomie particulièrement claire entre ce qui est d'origine théorique et d'origine empirique, et semblent apporter une réponse élégante au débat engagé sur ce point par Koopmans et Vining (voir I, 1). Pour Malinvaud (1981), dans P- induction statistique, le modèle n'est jamais remis en question ; en d'autres termes, on admet toujours qu'une des structures du modèle représente exactement le processus concret par lequel les valeurs des grandeurs observées ont été déterminées-. Pour Sims (1979), - il existe un mythe selon lequel coexistent deux catégories de
connaissances sur le monde, le modèle qui nous est donné par la théorie économique sans incertitude, et les paramètres A propos desquels on ne sait rien, sauf ce que les données, A trars des méthodes économétriques objectiment spécifiées, nous disent -.
Cependant, de nombreuses suggestions méthodologiques ont été avancées pour limiter le nombre d'hypothèses a priori faites sur le modèle A estimer et conduisent A préciser sa spécification par une voie purement inducti. L'économétrie traditionnelle permet déjA de tester directement certaines propriétés des aléas nécessaires pour appliquer les méthodes d'estimation usuelles, ou encore la pertinence explicati de certaines variables afin de les éliminer s'il y a lieu. La - noulle économétrie- (Sargent, Sims, Lucas) accentue cette tendance empiriste et s'efforce de tester sur les données le partage entre variables exogènes et endogènes, les restrictions a priori sur les paramètres ou la silité des paramètres. Dans le mASme esprit enfin, les - modèles non paramétriques - s'élènt d'un niau et tentent de tester toute une gamme de spécifications générales du modèle, ainsi caractérisé implicitement par une infinité de paramètres.
Cependant, il n'est pas possible de s'affranchir de toute structure a priori, mASme si elle se situe A un niau très général, et de faire dire aux données plus qu'elles ne peunt, en s'épargnant toute réflexion théorique préalable (tentation du bootstrap, qui consiste A se souler soi-mASme de terre en tirant sur ses lacets de chaussures). L'- expérience de Forrester - montre que, si l'on fournit aux économètres des données, mASme nombreuses, préalablement engendrées par un modèle aléatoire complètement spécifié, ils en induisent des structures très contrastées, en l'absence de toute idée a priori. L'- économétrie sauvage -, qui tente d'ajuster systématiquement un grand nombre de spécifications différentes sur les observations, ne peut les envisager toutes et nécessite pour le moins une liste initiale de variables jugées pertinentes. De fait, les économètres adoptent sount des - conntions de
travail - (degré maximal des variables, longueur des délais, types d'aléas et mASme variables significatis) et surtout élaborent des
stratégies pour remonter progressiment A des spécifications de plus en plus générales en fonction des observations.
Confirmation et réfutation d'une relation.
L'économètre adopte une attitude nettement réfutationniste quand il teste une spécification empirique donnée sur les observations, en cherchant A dépasser un seuil de confiance pour un critère statistique (ce qui correspond A un comportement - satisfaisant - au sens de H. Simon). Une hypothèse H, usuellement la valeur ou une zone de valeurs d'un paramètre, est alors testée contre une - hypothèse de référence - H0 plus ou moins générale, dont l'interprétation est variable. Ainsi, on peut tester l'influence ou non de la taille des logements sur le nombre d'enfants d'une famille (valeur non nulle contre valeur nulle), ou le fait qu'une fonction de production soit ou non A rendements décroissants (valeur négati contre valeur nulle, ou négati contre positi ou nulle). Il faut cependant prendre garde que tout test considère les hypothèses de faA§on asymétrique, si bien que, en opposant deux hypothèses quelconques H1 et H2, H1 peut AStre acceptée et H2 rejetée, H2 acceptée et Hi rejetée, H1 et H2 acceptées, H1 et H2 rejetées.
L'économètre rencontre, ce faisant, deux types de risques, le risque de première espèce qui consiste A rejeter A tort l'hypothèse de référence, et le risque de deuxième espèce qui consiste A retenir A tort l'hypothèse de référence (Neyman-Pearson). Le critère statistique usuel consiste alors A arbitrer entre ces deux
risques A l'aide de poids liés aux coûts relatifs encourus, le second risque étant en général plus redouté par l'économiste que le premier. Une hypothèse sera, dans tous les cas, acceptée ou refusée selon qu'elle dépasse ou non le seuil de confiance fixé qui, s'il est relatiment arbitraire, n'en fait pas moins, lA encore, l'objet de - conntions - (5 % ou 1 %). Le problème fondamental posé par tout test est cependant que, si les observations sont suffisamment nombreuses, tout paramètre devient significatiment différent de n'importe quelle valeur ponctuelle (mais ne se situe pas en dehors de toute plage de valeurs), ce qui oblige A adapter le seuil de confiance aux données disponibles et A l'hypothèse testée.
En revanche, l'économètre adopte une position franchement confir-mationniste lorsqu'il ajuste une spécification théorique sur les observations, en retenant la meilleure spécification empirique au sens d'un critère statistique (ce qui correspond A un comportement - optimisant -). En économétrie classique, il est toujours possible de trour des valeurs des paramètres qui permettent A une relation de passer au plus près des données, mASme si l'ajustement ainsi réalisé a une signi-ficativité statistique sount assez médiocre. En économétrie bayé-sienne, l'ajustement est encore plus aisé, puisqu'il ne fait que modifier la probabilité a priori des valeurs des paramètres, sans en privilégier ou récuser aucune, mASme si, lA encore, le processus prend sount beaucoup de temps pour se rapprocher de l'éntuelle - bonne - valeur. Problème fondamental ici posé (symétrique du précédent), l'ajustement est d'autant plus facile, dans le cas classique, que le modèle théorique admet plus de paramètres, que le nombre d'observations est plus faible et que le critère retenu est moins exigeant (voir I, 5).
DéjA dans le cas déterministe, - quelle que soit la phénoménologie, il est toujours possible de trour un modèle quantitatif qui en rende compte, au prix d'introduire quelques constantes arbitraires qui permettent d'adapter l'équation A la donnée empirique- (Thom, 1974).
Ainsi, pour deux variables, on peut toujours exhiber une courbe poly-nomiale d'ordre n qui passe par tous les points d'un nuage de n observations, mASme si cette courbe est très insle et doit AStre recalculée A chaque observation supplémentaire. Dans le cas aléatoire, l'exercice soulè encore moins de difficulté et est assuré de succès, quel que soit le nombre de paramètres, si l'on en croit l'adage selon lequel - par trois points de , il passe toujours une droite, pourvu qu'elle soit suffisamment large -. Par tout nuage de points du , on peut faire passer une droite, une courbe plus accidentée passant plus près ou mASme une suite de segments les rejoignant, le choix étant toujours guidé par des considérations a priori (courbe robuste, lisse, A peu d'extrema).
Confirmation et réfutation d'une théorie.
L'économiste adopte spontanément une attitude A l'évidence confir-mationniste, lorsqu'il cherche A valider une théorie, en exhibant une relation économétrique dérivée qui soit statistiquement acceple au regard des observations. Ainsi, la théorie de la parité du pouvoir d'achat est validable en écrivant que les prix intérieurs d'un pays dépendent linéairement
des prix étrangers (normalisés par le taux de change) et en testant que le coefficient est égal A l'unité. Une première tentation est alors de tenir compte des conséquences qualitatis et quantitatis multiples de toute théorie pour n'en considérer que certaines dont la validation ne s'avère a priori pas trop exigeante. Une seconde tentation est de profiter des nombreuses spécifications empiriques compatibles ac une conséquence de la théorie pour manipuler les relations jusqu'A en trour une jugée satisfaisante.
Il est ainsi possible de modifier la structure des variables introduites en changeant leur définition opératoire, en adoptant des proxys, en les soumettant A des prétraitements ou en effectuant des agrégations plus ou moins globales. Il est possible aussi de modifier les spécifications des relations en estimant dirses formes analytiques, en introduisant ou supprimant des variables explicatis, ou en modifiant la structure des retards. Une troisième tentation consiste enfin A éliminer carrément certains points jugés aberrants (années de guerre, année 1968), voire A appliquer des méthodes en dehors de leurs conditions restrictis d'utilisation (propriétés des aléas, non colinéarité des variables). Toujours est-il que les spécifications affichées sont celles qui s'avèrent bonnes au terme de l'acharnement de l'économiste, en passant sous silence les essais qui se sont soldés par des échecs et mASme certaines hypothèses restrictis des - bonnes - estimations.
A l'inrse, l'économiste adopte A nouau une position clairement réfutationniste lorsqu'il conteste la théorie d'un concurrent, en attaquant les relations dérivées qu'il privilégie ou en lui opposant ses propres relationsjugees meilleures. S'il n'estjamais possible de réfuter une théorie, tout échec pouvant toujours AStre attribué A des hypothèses auxiliaires, particulièrement nombreuses pour permettre un test économétrique (voir I, 5), celles-ci peunt néanmoins AStre précisées et l'ensemble des hypothèses conduire conjointement A des conséquences tesles sous forme de restrictions sur les paramètres d'une relation. Deux théories peunt elles-mASmes AStre ées si l'on s'accorde sur certaines de leurs conséquences pertinentes, si celles-ci s'expriment dans des spécifications théoriques ables, et si elles diffèrent dans leurs spécifications empiriques A trars une propriété caractéristique des paramètres. Ainsi, les théories keynésiennes et monétaristes ont été confrontées en testant l'influence A court terme du taux d'intérASt sur la demande de monnaie, supposée négati pour la première et nulle pour la seconde.
La aison est plus délicate lorsque les spécifications théoriques déduites des théories sont trop dissemblables, en particulier quant aux variables explicatis qu'elles considèrent, les deux pouvant alors AStre simultanément confirmées ou infirmées. Ainsi, la thèse de l'exemplarité de la peine de mort (Leamer, 1985) peut AStre aussi bien soutenue que niée selon que le taux de criminalité est expliqué, outre par les risques encourus en cas de crime (probabilité et lourdeur des peines), par le coût d'opportunité du crime (renu, chômage) ou les facteurs sociaux qui le favorisent (sexe, age, race). A l'opposé, la aison s'avère impossible lorsque les spécifications empiriques associées aux théories ont une zone de recouvrement trop large ou mASme sont identiques (non-identifiabilité), les théories denant indiscernables pour des observations données ou toute observation (- équivalence observationnelle -). Ainsi, l'hypothèse d'anticipation rationnelle (conjointe A une certaine représentation du système économique) est la plupart du temps indiscernable de l'hypothèse d'anticipation autorégressi.
La causalité en économie.
Un reproche sount adressé aux relations économétriques obtenues par les méthodes classiques est de n'indiquer qu'une simple corrélation entre les variables, sans préciser s'il existe un - lien de causalité - plus profond qui les relie. Si une corrélation suffisamment sle peut sount permettre de prévoir l'une A partir des autres, il est indispensable, pour prour l'efficacité d'une action, qu'une vérile causalité soit élie entre cette action et ses effets. A un niau plus théorique, une critique analogue en vient A déplorer qu'un modèle ne procède sount qu'A une description a-causale des relations entre variables, sans fournir un mécanisme plus précis d'engendrement de ses solutions. Or, tant la lecture d'un événement concret que l'interprétation théorique d'un modèle exigent une compréhension plus fine des situations analysées A partir des facteurs et des processus qui lui donnent naissance.
La causalité recherchée est une - causalité sémantique - qui consiste A dégager une structure explicati sous-jacente aux phénomènes décrits, structure relevant aussi bien d'une approche causale que téléo-nomique (voir II, 6). Elle se distingue de la - causalité syntaxique -, qui traduit la seule notion d'inférence logique dans un système formel, et de la - causalité pragmatique -, qui attribue une vérile responsabilité A certains agents dans certains événements. Dans son essence, il s'agit d'une - causalité horizontale -, qui exprime l'existence d'influences orientées entre grandeurs définies (- les dépôts font les prASts - pour les
banques vénitiennes, mais - les prASts font les dépôts - aujourd'hui). Dans sa quASte, elle traduit une -causalité rticale- (Simon, 1953), qui exprime qu'un modèle de niau donné est explicable par un modèle plus général (le - modèle rationnel - explique le comportement du criminel).
La recherche de causalité apparait ainsi comme une étape intermédiaire entre la description amorphe d'une situation et l'explication plus profonde de ses mécanismes, suivant en cela Robbins (1935). lorsqu'il déclare que - la décourte d'uniformité dans les statistiques est la décourte d'un problème, non d'une solution -. Elle allie les démarches projecti et inducti, car si elle part toujours d'une définition de la causalité comme propriété postulée par le modélisateur, elle s'efforce de faire émerger la structure de causalité correspondante d'une représentation initiale du système d'origine empirique. Elle opère, en fait, soit directement A partir des observations et cherche alors A repérer un réseau de causalité dans un ensemble de variables corrélées, soit A partir d'un système d'équations précédemment validé et cherche A structurer l'ensemble des variables mutuellement liées ou contraintes.
La causalité est exprimée par Mackie ( 1965) sous une forme logique forte, A savoir qu'un facteur x est cause d'un événement y s'il est un élément nécessaire, non suffisant, d'une condition suffisante, non nécessaire, d'apparition de y. Elle est usuellement exprimée en économie sous une forme analytique plus faible, A savoir qu'une variable x cause y si elle exerce une influence fonctionnelle ou stochastique sur y, ni nécessaire (Ay obtenu par Az comme par Ax) ni suffisante (Ay = 0, mASme si Ax ^ 0). La causalité est dite directe ou indirecte, selon que l'influence de x sur y s'exerce ou non par le biais de variables intermédiaires z ; elle est dite unidirectionnelle ou circulaire, selon que cette influence s'exerce en sens unique ou dans les deux sens. Elle est dite synchronique ou diachronique, selon que cette influence s'exerce instantanément ou ac un décalage temporel ; la succession temporelle est, en effet, généralement considérée comme une condition nécessaire, sinon suffisante, de causalité (raisonnement post hoc, prop-ter hoc).
Interprétation causale d'une corrélation.
étant donné deux variables corrélées x et y, l'économètre vise d'abord, A partir des seules observations, A décider si x cause y (éntuellement par l'intermédiaire d'une variable z), si y cause x ou si une tierce variable z cause x et y. En fait, ces situations peunt fort bien se superposer (l'origine sociale d'un individu influe sur son salaire A la fois directement et A trars l'éducation), et c'est tout un réseau de relations de causalité entre variables qu'il faut ainsi dégager. L'ambition (rarement atteignable A partir des seules observations) est de débusquer ce qui apparait intuitiment comme des -corrélations fallacieuses -, qu'il s'agisse de la corrélation observée entre inflation et dysenterie (Llewelly-Witcomb, 1977) ou entre inflation et hauteur des pluies (Hendry, 1980). Leur traduction directe en termes de causalité montre leur caractère absurde, comme en témoigne l'affirmation selon laquelle, - en été, les jours s'allongent sous l'effet de la chaleur - ou - la visite du médecin favorise un décès dans les jours suivants -.
Pour Wold (1954), la notion de causalité (unidirectionnelle, synchronique) est liée A celle de contrôlabilité et renvoie A une situation expérimentale où l'on obser les variations d'un événement observé y sous l'effet d'un événement contrôlé x. Formellement (Suppes, 1970), on pose que x cause y, si l'occurrence de x favorise celle de y (P (y/x) > P (y)), mais il s'agit lA d'une définition symétrique (si x cause y, y cause x) qui ne permet pas de dissocier les causalités superposées (- x cause y et z - est indiscernable de - y cause x et x cause z -). La corrélation ne peut alors denir causalité que grace A l'expérimentation elle-mASme, où l'on peut manipuler séparément certaines variables (dissociabilité des causes) et réitérer ac des valeurs différentes des variables (récurrence des expériences). Appliquée en médecine (liaison entre actions ou états individuels et maladies) et en sociologie (liaisons entre facteurs sociaux, éducation et statut professionnel) comme en économie, elle est sujette A caution car, mASme si on peut fixer librement certaines variables, elles agissent de concert ac d'autres (non contrôlées) et définissent des - pseudo-expérimentations - plus ou moins indépendantes.
Pour Granger (1969), la notion de causalité (unidirectionnelle, diachronique) est liée A celle de prédictibilité et traduit la capacité d'une variable aléatoire temporelle x A améliorer la prévision d'une variable y, sans pour autant dégager de vérile mécanisme causal. Plus précisément, on dit que x cause y, si la
connaissance des valeurs passées de x permet d'améliorer la prévision de y faite A partir d'un ensemble d'information U-x (où U contient les valeurs passées de y et de toutes les variables supposées liées A y). Sims (1972) a proposé une notion analogue où x cause y, si la connaissance des valeurs futures de y permet d'améliorer la prévision de x faite A partir d'un ensemble d'information U-x. Elle coïncide ac celle de Granger. si le passé lointain n'a pas trop d'influence sur l'état présent (Florens-Mouchart, 1982 ; Chamberlain, 1982). Si ces deux concepts permettent une analyse plus précise d'un réseau de causalité que le précédent, ils en restent, comme lui, A une notion de causalité - en tout ou rien - sans pouvoir en évaluer une intensité. Ils sont toujours définis dans une optique très instrumentaliste. mASme s'ils ont été appliqués pour tester le sens de l'influence entre masse monétaire et activité économique, qui oppose keynésiens et monétaristes.
Comme les autres tests, ils exigent (Zellner, 1979) le choix largement conntionnel d'un prédicteur non biaisé de la variable (le plus sount un prédicteur linéaire) et d'un critère de qualité de la prévision (généralement la variance de l'erreur de prévision). Ensuite, leurs résultats sont conditionnés par l'ensemble d'information V qui, ne pouvant AStre l'- ensemble unirsel - de toutes les valeurs passées de toutes les variables, reste en partie arbitraire (ac la conséquence que la relation de causalité définie n'est pas transiti). De plus, ces tests présupposent un découe du temps qui influe sur le partage entre causalité synchronique et diachronique (une influence n'apparait retardée que si son délai d'action est supérieur A la période d'observation des variables). Enfin, ils ne s'appliquent qu'A des séries stationnames et excluent toute causalité déterministe du fait du rôle particulier joué par la variable - temps - (si x,-i et .Vi varient selon la mASme loi temporelle, y, peut AStre expliqué tant par ses valeurs passées que par
X,-l).
Interprétation causale d'un modèle.
Si les relations ne sont pas interpréles sous forme causale A partir des seules observations, on peut toujours en fournir différentes - lectures - causales A partir de modèles théoriques plus généraux, en privilégiant telle ou telle variable expliquée (Boutillier, 1982). La relation de Phillips, - relation empirique en quASte d'une théorie -, peut ainsi recevoir une interprétation soit néokeynésienne, les
salaires s'ajustant aux prix et au chômage (contrats de travail), soit néoclassique, le chômage résultant des prix et des salaires (offre de travail). Sans recourir A un schéma théorique, l'économiste peut néanmoins vouloir introduire l'idée de causalité dans un modèle A plusieurs équations préalablement spécifié, le sens causal d'une relation particulière étant induit par son couplage ac les autres. Cette lecture causale s'applique alors A toutes les relations du modèle, qu'elles aient été obtenues économétrique-ment (relation entre renu et consommation) ou posées comme identités (partage de la production en consommation et instissement).
Pour Wold (1954), un modèle ne peut avoir une interprétation causale (unidirectionnelle, synchronique), les variables ayant été classées au préalable en exogènes et endogènes, que s'il est récursif. - Un modèle est récursif s'il existe un ordre des variables endogènes et des équations tel que chaque équation puisse AStre considérée comme décrivant la valeur prise par la variable endogène correspondante en t, en fonction des variables prédéterminées et des variables endogènes de rang inférieur- (Malinvaud, 1981). Pour Wold, cette structure arborescente (sans boucles) n'est que le reflet de la causalité instrumentale qu'il a définie au niau de chaque relation et a l'avantage, outre de permettre une lecture - naturelle - du modèle, d'en faciliter l'estimation et la résolution. Cependant, des économètres comme Haalmo ou Koopmans considèrent que ces opérations peunt AStre aussi simples sur des modèles interdépendants et associent plutôt la notion de causalité A celle d'identifiabilité de la forme structurelle.
Pour Simon (1953), la recherche d'une interprétation causale consiste, de faA§on plus opératoire, A définir une méthode précise permettant une hiérarchisation au moins partielle des variables et des relations d'un modèle donné, et donc un enchainement plausible des mécanismes qu'il représente. Il en donne une illustration (Rescher-Simon, 1966) pour un modèle de production agricole (ac influence
du climat et de la démographie), dont les cinq inconnues et équations peunt AStre mises sous une forme récursi. Dans le cas général, la méthode ne cherche qu'A démASler au mieux l'écheau des interdépendances entre variables et aboutit toujours A un système récursif par blocs, qui admet comme cas extrASmes le modèle complètement récursif et complètement interdépendant. Déloppées ensuite dans les cas non linéaires (Mesarovic et al., 1972) ou ac des notions plus fines de causalité (Hénin, 1974), ces principes ont donné naissance A dirses méthodes d'analyse empirique des modèles (IRIA, 1978; Deleau-Malgrange, 1980 ; Rossier, 1980).
Ces méthodes sont rigoureusement applicables dans le cas d'un modèle déterministe, mais posent de gros problèmes dans le cas stochastique lorsque les aléas des dirses relations ne sont pas indépendants. Elles ont aussi l'inconvénient d'AStre très sensibles A une modification des relations, et mASme de n'AStre pas invariantes par remplacement de deux relations par leurs combinaisons linéaires (ce qui conduit A rechercher les transformations laissant la structure causale inchangée). Elles sont enfin conditionnées par le découe du temps adopté, un modèle récursif ac une certaine périodicité pouvant perdre ce caractère si cette période devient plus longue (Malinvaud, 1981). Ainsi, le tatonnement de Walras est récursif, bien que l'équilibre résultant ne le soit pas (boucle : prix -> offres-demandes -> prix), ou le modèle keynésien élémentaire dynamique est récursif, alors que le modèle statique ne l'est pas (boucle : production -> renus -> demande ' production).