Un bon économiste est celui qui est capable d'expliquer l'année prochaine pourquoi ses prévisions de l'année passée ne sont pas réalisées cette année.
L. Vernon.
L'utilisateur d'un modèle occupe une position délicate d'intermédiaire entre le constructeur, qui lui transmet un outil - clé en main -, et le demandeur, qui cherche A éclairer une décision en s'appuyant sur un instrument formalisé. En amont, sa tache reste très technique, car le constructeur, qui souvent répugne A participer A l'utilisation, n'en laisse pas pour autant un mode d'emploi bien précis, alors mASme qu'il est le seul A en bien comprendre les caractéristiques. En aval, sa tache devient pédagogique, car il doit persuader son interlocuteur que la fiabilité du modèle soutient la aison au raisonnement purement intuitif, tout en lui faisant sentir les limites de validité de l'instrument. Il se trouve dès lors confronté, tant dans l'utilisation en simulation qu'en optimisation d'un modèle, A des problèmes d'articulation entre modèle et considérations hors modèle, d'analyse de sensibilité et de mobilisation de modèles concurrents, enfin de aison et de diffusion des résultats des modèles.
Utilisation en simulation d'un modèle.
Les modèles économétriques servent essentiellement, en prenant appui sur l'inertie supposée du système
économique (traduite par l'hypothèse de silité future des paramètres du modèle, non réfu-le A partir du passé), A simuler son élution sous l'influence de variables exogènes connues ou anticipées. Hormis son rôle de test du modèle, la simulation rétrospective aide A comprendre une élution passée du système, ire A étudier l'impact potentiel d'une politique différente de celle qui est effectivement menée ou d'un environnement différent de celui qui est apparu (Fonteneau-Muet, 1985). La simulation prospective cherche, en revanche, A préir l'élution future du système, sous l'influence aussi bien de politiques susceptibles d'AStre mises en œuvre que d'états de l'environnement susceptibles de se produire. Les prévisions A partir de modèles, construits dans des situations non expérimentales et utilisés dans des contextes différents de leur construction, ont d'abord un but instrumentaliste (ir I, 5), mais peuvent néanmoins, confrontées aux réalisations, air un rôle indirect de validation des théories sous-jacentes.
Les modèles macro-économétriques centraux interviennent fréquemment dans le cadre de procédures institutionnalisées soumises A un calendrier précis, comme la planification (scénarios d'élution A moyen-long terme) ou les budgets économiques (prévisions A court terme). Ils sont également mobilisés pour simuler l'effet de politiques économiques occasionnelles, A divers niveaux : mesures macro-économiques (relance budgétaire),
politiques sectorielles (plan autoroutier) ou projets ponctuels (TGV Atlantique). Des modèles périphériques sont parallèlement mis en œuvre, isolément ou couplés aux précédents, pour préir l'impact de politiques sectorielles (tarification des transports) ou régionales (subventions différenciées), ou les conséquences de variations de variables stratégiques au niveau international (prix du pétrole). Au sein des entreprises, enfin, des modèles plus spécifiques sont utilisés pour préir l'élution de leur environnement (concurrence, demande) et simuler l'impact de mesures importantes (investissements, marchés nouveaux).
Une projection centrale résulte d'une simulation effectuée A partir de variables exogènes soit - tendancielles -, soit plus contrastées, un scénario - spontané - étant par exemple encadré par un scénario - gris - (pessimiste) et un scénario - rose - (optimiste). Une variante élémentaire dérive de la modification par rapport A la projection centrale d une variable de commande (ou éventuellement d'environnement) et permet de calculer des multiplicateurs rapportant les variations des variables endogènes A celles de la variable exogène. Les variantes complexes résultent de la modification simultanée de plusieurs variables exogènes et, si le modèle est linéaire, elles s'obtiennent par une simple combinaison des variantes élémentaires. Pour un modèle donné, les variantes types peuvent AStre regroupées dans différentes classes selon la similarité de leurs effets ; ainsi, pour un modèle central, peut-on élir une typologie en variantes keynésiennes pures (augmentation de la dépense publique), variantes de relance initiées par
les prix (baisse de la TVA) et variantes atypiques (Bureau-Norotte, 1984).
Il faut, A cet égard, insister sur le fait qu'aucun scénario n'est vraiment spontané, car, en l'absence d'une totale endogénéisation de toutes les variables, toute prévision est conditionnelle aux hypothèses retenues sur les valeurs futures des variables exogènes. Les variables prédéterminées posent un problème mineur, car, comme elles sont calculables par récurrence A partir d'une situation initiale donnée, il faut simplement s'assurer que celle-ci est suffisamment bien connue. Les variables d'environnement peuvent parfois AStre calculées par d'autres modèles, mais ceux-ci introduisent A leur tour de nouvelles variables exogènes, fixées en dernier recours selon des règles moins formelles (dires d'experts, extrapolations). Les variables de politique sont posées a priori dans le cas d'une simulation purement normative (scénario - norme -), mais sont elles-mASmes prévues dans une simulation tendancielle, ce qui va jusqu'A soulever le problème de la prévision de la couleur politique des décideurs futurs.
Utilisation en optimisation d'un modèle.
Les modèles économétriques sont également utilisés en optimisation et jouent alors le rôle de représentations liant les variables de commande, auxquelles sont imposées des contraintes, et les variables endogènes, sur lesquelles est définie une fonction-objectif (ir I, 7). Si la fonction-objectif n'est pas toujours bien claire au niveau de l'entreprise (dépense ou profit actualisés), elle est encore plus fluctuante au niveau collectif, mASme si on y retrouve dans des combinaisons variables certains agrégats privilégiés (ir II, 7). La construction précise d'une - fonction de préférence de l'état - a été entreprise, en France, dans le cadre de l'opération OPTIMIX (Deleau-Guesnerie-Malgrange. 1973), mais cette fonction assez complexe n'a guère été utilisée par la suite. Elle comprend un grand nombre d'arguments, en particulier les composantes du carré magique (emploi, inflation, solde extérieur, solde public), leurs taux de substitution étant révélés A partir de choix affichés par des décideurs publics entre variantes calculées par un modèle macro-économétrique.
Les modèles d'optimisation se sont d'abord développés au niveau micro-économique, pour résoudre des problèmes de gestion d'entreprise (choix d'investissement, de production ou de tarification), en se calant au mieux sur la théorie (relations essentiellement techniques, maximisation du profit). Un
travail pionnier est le modèle de - programmation linéaire - d'A.S. Manne (1958), destiné A planifier le raffinage pétrolier aux états-Unis, modèle bientôt suivi d'une dizaine d'autres pour la mASme industrie. En France, il faut citer le modèle -Investissements 1985- d'EDF, datant de 1966 et régulièrement amélioré depuis, qui calcule une structure optimale d'investissements pour la fourniture d'électricité, en minimisant le coût actualisé, compte tenu de contraintes technologiques et d'hypothèses de demande. L'ambition initiale d'EDF était mASme de batir une hiérarchie de modèles d'optimisation où un modèle central fournit des variables de
décentralisation A des modèles périphériques, sur la base desquelles ceux-ci déterminent des optima locaux qui, conjointement, permettent d'atteindre un optimum global.
C'est cette mASme perspective de décentralisation, cette fois par
des prix fictifs, qui a guidé et continue de guider (ir III, 7) l'élaboration de modèles d'optimisation macro-économiques, toujours calés de près sur la théorie (relations physiques, optimum parétien) et s'appuyant sur des méthodes de plus en plus puissantes. A la suite des travaux de Frisch (1961), la SEDES construit, pour le IVe franA§ais (1965), un modèle d'optimisation pour calculer par dualité des prix de référence ; il adopte pour fonction-objectif la
consommation des ménages et comporte des contraintes de production et d'équilibre ressources-emplois. Depuis peu, on it également apparaitre une méthodologie plus modeste d'évaluation et mASme d'optimisation de variantes contrastées de
politique économique, en s'appuyant sur les modèles macro-économétriques centraux usuels et une fonction-objectif simplifiée. Des mesures globales ou sectorielles ont ainsi été ées dans leurs effets, avec pour critères le solde commercial et les emplois créés par franc budgétaire investi (Gaudemet-Walliser, 1983); de mASme, une combinaison optimale de variantes macro-économiques complexes a été recherchée pour le VIIIe , en maximisant l'emploi créé sous contraintes de déficit budgétaire et commercial (Gauron-Maurice, 1980).
Lorsqu'un processus d'optimisation vise A élir des valeurs définies de variables endogènes prises directement comme objectifs, il ne peut atteindre son but (aux aléas près) que sous certaines conditions analytiques. Ainsi, le nombre de variables de commande disponibles doit AStre au moins égal au nombre de variables-objectif (A variables d'environnement fixées) ou de variables d'environnement (A variables-objectif données). Mais le processus d'optimisation, quand il concerne plus spécifiquement l'état, est soumis A une difficulté plus fondamentale (Lucas, 1976), A sair que le modèle macro-économique sur lequel s'appuie l'état ne peut AStre supposé invariant lorsqu'il change de politique. En effet, si, pour définir leurs actions, les agents privés anticipent la politique de l'état, sinon rationnellement (ir II, 6), du moins en s'appuyant sur les mASmes variables passées que lui, la forme - réduite - du modèle qui retrace leur comportement est sensible A cette politique, ce qui oblige l'état A analyser son choix plus explicitement en termes de jeu (ir II, 7).
Apports et limites des modèles.
La première critique usuelle des modèles concerne leur conservatisme, et, si leur utilisation en prévision repose fondamentalement sur l'inertie du système modélisé, ils reproduisent en fait souvent le passé d'avant-hier vu par les hommes d'hier. Toujours très lissés et peu imaginatifs, ils sont incapables de préir des retournements, des ruptures ou des innovations concernant les technologies, les comportements ou les institutions, mASme si le passé fait^apparaitre de telles élutions cycliques, catastrophiques ou bifurquantes. Cependant, les modèles ont un rôle mnémonique inable de capitalisation et de synthèse d'une information fragmentaire en une structure cohérente et permettent pour le moins une - reconstruction - plus intelligible de l'élution passée du système. En outre, le passé est en fait la source exclusive de compréhension du futur (si on y inclut les observations, les anticipations et les intentions), le problème primordial étant de découvrir des structures assez profondes pour AStre invariantes et assez fines pour AStre réalistes.
Une deuxième critique s'adresse au schématisme des modèles qui, tantôt reproduisent passivement des structures théoriques élémentaires, tantôt se contentent de formaliser quelques relations de bon sens, tantôt alignent des relations purement économétriques. Très hétérogènes quant au statut et A la fiabilité de leurs relations, ils mettent l'accent sur les seuls phénomènes quantifiables, procèdent A des agrégations et A des simplifications drastiques, et négligent les facteurs non strictement économiques. Cependant, les modèles ont un rôle maïeu-tique indispensable, car ils permettent d'expliciter nos représentations mentales, d'en proposer des formes éventuellement alternatives, de les confronter systématiquement au matériau empirique et d'interpréter tout cheminement entre variables d'entrée et de sortie. Aussi, le processus d'élaboration et d'utilisation du modèle, qui interroge tant la pertinence que la compatibilité mutuelle des relations et sert de révélateur aux problèmes économiques, est-il plus important que ses résultats, - l'intérASt des économistes étant d'abord de poser les bonnes questions, beaucoup moins d'y répondre- (Levy-Lang, 1985).
La troisième critique des modèles porte sur leur opacité, due non seulement A leur complexité exprimée en termes de nombre d'équations, mais aussi A l'absence de présentation intelligible de chacune des relations et de la structure d'ensemble. PerA§us comme des boites noires, ils sont regardés avec méfiance par leurs
clients potentiels, qui ne maitrisent pas suffisamment leurs mécanismes internes pour pouir décrypter correctement leurs résultats et leur accorder une crédibilité suffisante. Cependant, les modèles ont un rôle heuristique irremplaA§able en étant capables de traiter simultanément et rigoureusement un nombre considérable d'interactions synchroniques et diachroniques, ce -jeu - rapide et souple contribuant A comprendre ses mécanismes. Le gestionnaire habituel du modèle finit d'ailleurs par si bien connaitre ses réactions qu'il n'est plus obligé de le faire tourner pour connaitre ses résultats, mais peut se contenter de combiner mentalement diverses variantes élémentaires dont il connait les effets.
En pratique, les modèles doivent AStre és A des méthodes plus frustes de prévision, d'autant qu'il leur est reproché de détourner les forces des équipes de prévision A leur profit, aux dépens d'une réflexion moins formelle, mais plus approfondie. Mais nombre de ces méthodes (extrapolations raisonnées, indicateurs conjoncturels ou avancés, panels d'experts), utilisées par exemple dans l'analyse de la conjoncture, s'appuient également sur une schématisation, la différence tenant A la moindre complexité des formalisations mises en œuvre et A l'importance accrue accordée aux considérations hors modèles. L'arbitrage pertinent porte donc sur la nature et la taille du modèle A privilégier, étant entendu qu'un modèle léger est moins opaque, mais plus simpliste, qu'un modèle Leviathan, les deux pouvant se valoir quant A leur silité. Toutefois, on peut observer que si la fiabilité d'un mini-modèle n'est pas toujours très inférieure A celle d'un modèle global, le premier n'aurait généralement pas pu AStre construit sans passer par l'intermédiaire du second.
Interaction modèle-utilisateur
Quelle que soit leur nature, les modèles formalisés servent usuellement de noyau dur A la réflexion, autour duquel gravitent des considérations plus fines ou plus qualitatives : - les modèles constituent un cadre ou un squelette, et la chair doit AStre ajoutée par beaucoup de bon sens et une
connaissance des détails- (Tinbergen, 1969). De fait, -quiconque a travaillé dans une équipe de prévision utilisant des modèles, ou a pu en observer de près la pratique, sait qu'aucune prévision n'est faite mécaniquement par un modèle é, accepté une fois pour toutes et que l'on s'interdirait de remettre en question. L'interaction entre le modèle et ses utilisateurs est permanente. Certains nt d'ailleurs (c'est lA plutôt une critique interne A la profession des économistes) jusqu'A qualifier les utilisateurs de modèles de " ventriloques ", affirmant que les modèles ne sont, pour eux, qu'un moyen coûteux de faire imprimer leurs préjugés par un ordinateur - (Charpin, 1983).
Les considérations hors modèles sont prises en compte sous deux formes dans les projections, en aval du modèle, par adaptation - A la main - des résultats qu'il fournit, ou de faA§on déjA moins ad hoc, en cours d'utilisation, par introduction de variables d'écart. Ces variables d'écart modifient les paramètres d'une relation (coefficient d'une variable ou constante additive) après qu'elle ait été estimée et jouent le rôle de déviations non purement aléatoires par rapport au modèle, tout en ayant les mASmes interprétations que les aléas (ir III, 3). Elles corrigent des biais systématiques ou des événements aberrants observés dans le passé, calent le modèle sur des observations récentes non encore intégrées, ou internalisent des élutions futures vraisemblables et l'incidence de facteurs nouveaux (Courbis, 1983). Ainsi, - mASme si le passé ne livre aucune information sur un changement de structures ou de comportements, il est toujours possible A l'utilisateur d'en tenir compte en introduisant les modifications nécessaires dans le modèle, dès lors qu'il estime que cette opération se justifie - (Pacaud. 1980).
L'introduction de variables d'écart demeure une opération éminemment subjective, qui exige que l'on explicite soigneusement les informations supplémentaires que l'on veut internaliser, et que l'on s'assure précisément que cette internalisation est cohérente avec la structure du modèle. Elles peuvent servir de garde-fou A une utilisation irraisonnée des modèles qui, en négligeant certaines contraintes difficiles A formaliser, peuvent permettre de trouver des mesures qui font surgir facilement un million d'emplois. Mais elles peuvent aussi - faire disparaitre de vrais problèmes en modifiant les paramètres cruciaux du modèle : l'élasticité des importations A la demande, la
productivité du capital ou la part des marchés étrangers - (Charpin, 1983). Au-delA de simples redressements techniques, elles peuvent refléter les présupposés du modélisateur, qui postule que les résultats d'une simulation doivent normalement se situer dans certains intervalles, ou du demandeur, qui cherche A faire conforter sa vision du futur par le modèle.
Le problème posé est celui de l'arbitrage nécessaire entre une utilisation presse-bouton du modèle, où l'utilisateur abandonne toute attitude critique, et une utilisation laxiste du modèle, où l'utilisateur se laisse aller A ses idées préconA§ues. Pour L. Klein (1979), - la prévision Wharton résulte de l'interaction entre le modèle, les économètres et les praticiens, lesquels nous en disent toujours plus sur l'économie que nous n'en sans -. Mais cette synthèse réalisée par les experts entre méthodes formalisées et moins formalisées, entre modèles mentaux et explicités, demeure trop souvent dans l'ombre, et - il est impossible de dire où s'arrASte le modèle Wharton et où commence le travail de Larry Klein - (Ramsey, 1980). Il importe donc d'éviter de faire tourner les modèles comme on fait tourner les les, sans sair ce qui résulte d'un fonctionnement spontané du modèle et des coups de pouce de son utilisateur.
Analyses de sensibilité.
Si d'aucuns ne ient dans les modèles que la version moderne des entrailles de poulet ou de la boule de cristal et considèrent leurs utilisateurs comme les nouvelles pythies ou les nouveaux prophètes, d'autres maintiennent que - la prévision économique tient plus de l'analyse scientifique que de la divination - (Plassard, 1985), car elle explicite et décompose les mécanismes qu'elle met en œuvre. Certains prévisionnistes eux-mASmes, ceux qui ne sont pas dépourvus d'humour, résument la transformation effectuée par les modèles par la maxime - garbage in, gospel oui - (détritus en entrée, évangile en sortie) et admettent que la prévision est soumise A un - principe d'incertitude - de type quantique, A sair que l'on peut prédire soit la date, soit l'ampleur d'une dévaluation A venir, mais non les deux A la fois. S'ils ne peuvent fournir de mesure intrinsèque, synthétique et précise de la fiabilité ex ante (et mASme ex posl) des prévisions, ces mASmes prévisionnistes estiment cependant qu' - il faut air l'humilité de dire qu'il y a des prévisions A trois étoiles, A deux étoiles, A une étoile et sans étoile du tout - (Plassard, 1985).
Les analyses de sensibilité (Bianchi-Brillet-Calzolari, 1984) explorent toutefois l'impact, sur les résultats du modèle, de variations de ses caractéristiques A plusieurs niveaux : aléas (erreurs stochastiques), variables exogènes et prédéterminées (erreurs sur l'environnement futur et les conditions initiales), paramètres des relations (erreurs d'estimation), nature et forme des relations (erreurs de spécification). En simulation, elles déterminent l'erreur induite par une ou plusieurs de ces variations sur la trajectoire prévue des variables endogènes (ou sur les multiplicateurs associés) ; en optimisation, elles calculent l'erreur commise par ces variations sur la trajectoire optimale des variables de commande retenues. Ex ante, elles permettent d'associer A des plages de variation possibles des entrées des plages admissibles des sorties (ou un écart type pour un modèle probabiliste) ; ex posl, elles permettent de ventiler un écart de prévision entre les différentes erreurs possibles sur les caractéristiques du modèle, dans la mesure où les variables exogènes sont alors connues et les paramètres recalculables.
Lorsque le modèle de simulation est linéaire ou fonctionne dans la zone où il peut AStre considéré comme tel, l'erreur sur une variable de sortie est proportionnelle A l'erreur sur une variable d'entrée et est additive pour toutes les variables d'entrée (mais non pour l'ensemble des variables et des paramètres). En variante, les erreurs sur les variables exogènes et prédéterminées n'interviennent pas, ce qui peut justifier l'affirmation selon laquelle les variantes sont plus fiables que les projections centrales, c'est-A -dire que les modèles se comportent mieux A la marge qu'en niveau. Lorsque le modèle n'est plus linéaire, des écarts sur les variables d'entrée peuvent AStre aussi bien écrasés qu'exacerbés par le modèle, et leur conjonction air un effet suradditif ou sous-additif sur les variables de sortie, ce phénomène étant lié A la silité du modèle (ir II, 3). De mASme, pour un modèle d'optimisation, les commandes optimales peuvent s'avérer relativement insensibles ou, au contraire, particulièrement insles lorsque les caractéristiques d'entrée se modifient.
En s'en tenant aux erreurs d'estimation sur les paramètres, on peut montrer qu'une prévision est d'autant plus fiable que son horizon est plus rapproché et que les variables exogènes sont plus proches des valeurs prises dans le passé (-cône- prévisionnel). Mais, pour de petites erreurs (5 %) sur des paramètres assez nombreux, et a fortiori pour des erreurs simultanées sur diverses caractéristiques du modèle, les erreurs s'avèrent énormes sur les variables endogènes en prévision (100%) et pires encore sur les variables de commande en optimisation. Fromm-KIein (1973) affirmaient cependant avec optimisme que - nous commenA§ons A converger, en ce qui concerne les prévisions ponctuelles issues des modèles économétriques, vers un intervalle commun et raisonnable d'erreurs -, et le mythe d'un - réglage fin - (fine tuning) de la politique économique a pu se répandre dans les années 1970. En fait, si les erreurs sur les paramètres peuvent AStre réduites, celles sur les variables exogènes sont plus difficiles A maitriser par le prévisionniste ; EDF a retenu dans ses calculs d'investissement des années 1975-l980 des écarts de prix du pétrole de 20 %, alors que ces écarts ont, en fait, atteint 200 %.
Pluralisme des prévisions.
En s'inspirant librement de l'adage de saint Thomas d'Aquin : - Timeo hominem unius libri -, on peut espérer améliorer les prévisions en mettant en
concurrence plusieurs modèles, ce qui constitue, de fait, une analyse de sensibilité au niveau des spécifications globales. Si le mythe du modèle - vrai - A sélectionner s'est quelque peu estompé, il demeure sous une forme atténuée quand on suggère que la - vraie - prévision doit se situer - entre - les résultats des divers modèles, la proposition ayant mASme été faite, avec un certain sérieux, de calculer la moyenne de leurs résultats. En fait, si ces résultats sont semblables, l'opération n'apporte aucune information, encore qu'il soit intéressant d'examiner si cette convergence est fortuite et limitée au contexte examiné, ou systématique du fait de la similarité des modèles. Si les résultats sont différents, la aison est impossible tant que les divergences n'ont pu AStre clairement attribuées A des problématiques distinctes, A des variantes de spécification ou encore A des considérations hors modèles.
A titre d'exemple, des modèles comme AVATAR et DéFI sont fondés sur des principes semblables (matrices de Léontief généralisées associant coefficients techniques et contenus en importations des produits) et alimentés par des
données identiques. Bien que construits par des organismes différents (INSEE, direction de la Prévision), une éventuelle divergence de leurs résultats ne peut donc que refléter une défaillance de fonctionnement de l'un ou l'autre, ou des différences, pourtant faibles, dans l'estimation des paramètres. En revanche, les modèles macro-économiques centraux font intervenir des schémas théoriques a priori différents (DMS vs COPAIN), des horizons variables (DMS V5 METRIC) et des spécifications propres de certaines relations. Les écarts dans leurs résultats, effectivement constatés en ce qui concerne les effets de la baisse de la durée du travail (Oudiz-Raoul-Sterdyniak, 1979), ne peuvent alors AStre interprétés qu'en faisant des hypothèses sur le niveau auquel se situent les différences entre modèles.
Artus-Sterdyniak (1981) affirment, A propos de DMS, METRIC, MOGLI et COPAIN, que - globalement, ces quatre modèles obéissent A la mASme logique keynésienne ; ce sont des hasards de spécification ou des choix théoriques de peu d'importance qui expliquent surtout les divergences []. Chaque modèle présente quelques équations originales qui, bien que souvent mises en avant par les auteurs, ne sont pas toujours d'une importance fondamentale pour le fonctionnement du modèle -. Pour Dehove-Husson (1981), il y a lA , - en filigrane, la référence A un modèle pur, mythique, archétype, professionnel, canonique et universel, tout écart revendiqué par rapport A cette référence étant attribué A une maladresse ou A un hasard. Ce qui est nié, c'est la possibilité mASme d'une problématique autonome fondée sur des conditions historiques concrètes ou sur les spécificités d'une formation sociale donnée -.
Les prévisions affichées par les cellules d'études allient cependant modèles formels et méthodes moins formalisées, tout comme elles incorporent des considérations hors modèles, qui peuvent aussi bien tendre A les rapprocher qu'A les éloigner. Ainsi, les prévisions gouvernementales ont un caractère officiel qui se traduit par l'imposition de contraintes sur des pseudo-variables de politique (taux d'inflation), auxquelles échappent les prévisions d'organismes plus indépendants qui peuvent, dès lors, en diverger. Inversement, les équipes de prévision ont une culture isine, utilisent des méthodes analogues et disposent d'informations semblables sur des élutions récentes ou des projets futurs qui, convenablement internalisées dans les prévisions, contribuent A les faire converger. Enfin, la concurrence mASme entre les équipes peut les amener A élir des prévisions dispersées pour tenter de tirer leur épingle du jeu, mais plus souvent A proposer des prévisions groupées pour éviter d'AStre les seules A se ir réfutées.
Confrontation des prévisions aux réalisations.
L'acceptation du fait que - le prévisionniste est soumis A une sanction permanente, celle de la réalité - (Plassard, 1985), a conduit A une confrontation assez systématique des prévisions aux réalisations, méthodologiquement délicate, mais qui apporte des enseignements A plusieurs niveaux. Tout d'abord, les performances différent selon les instruments utilisés, les méthodes extrapolatives (Box-Jenkins) étant mieux adaptées aux projections A court terme, et les modèles aux projections A long terme et aux variantes, les variables d'écart améliorant également les prévisions. Ensuite, les performances diffèrent selon les systèmes et les périodes économiques, les prévisions ayant été meilleures dans la phase de
croissance régulière des années soixante que dans la phase de
crise ou de turbulence des années soixante-dix (malgré l'amélioration constante des modèles). Enfin, les performances diffèrent selon les variables et les horizons considérés, les prévisions A court terme étant naturellement meilleures qu'A long terme, et celles qui concernent la production, l'emploi ou la consommation plus fiables que celles qui sont relatives aux prix, A l'investissement ou aux échanges commerciaux.
Les prévisions du prix du pétrole ont été minutieusement ées, d'autant qu'elles s'appuient sur des modèles relativement contrastés, mettant plus particulièrement l'accent sur des caractéristiques de l'offre (capacités de production, besoins financiers), de la demande (croissance économique, effets de substitution) ou du
marché (sectiunels, marchés locaux, conditions géo-politiques). Mais - l'élution A moyen et A long terme des prix du pétrole a toujours fait l'objet d'un accord quasi unanime au sein de l'industrie pétrolière et de la communauté financière, dont les experts, avec ensemble, se sont tous trompés depuis que la prévision moderne existe, avec une constance dans l'erreur qui n'a d'égale que leur consensus du moment - (Maurus, 1985). Cet -effet Panurge- est dû au fait que les experts, baignant dans un milieu restreint nourri des mASmes informations et confrontés A une incertitude particulièrement peu maitrisable, préfèrent l'unani-misme dans l'erreur au risque d'un démenti solitaire.
Depuis la multiplication des organismes de prévision, une confrontation de leurs prévisions macro-économiques A court terme, appuyée sur des modèles concurrents, est également réalisée périodiquement (Courbis-Keller, 1982 ; Fonteneau, 1982). Elle montre A son tour un conformisme non négligeable des prévisions, sauf sur des variables sensibles comme l'investissement ou stratégiques comme les prix, l'inflation prévue pour 1984 allant de 10 % (GAMA) A 5 % (ministère des Finances) pour une réalisation de 8 %. Des aisons de mASme type ont été menées sur des travaux de prospective (Godet, 1984), plus qualitatifs et A long terme, mettant en évidence la faiblesse des prévisions économiques et la naïveté des prévisions technologiques et institutionnelles. Cependant, A ce niveau, -la plupart des faits économiques importants ont été prévus par des économistes ; mieux encore, ils ne pouvaient pas ne pas l'air été, car, quoi qu'il se soit passé, il se trouvait quelque économiste pour l'air annoncé- (Kolm, 1986).
Une confrontation diachronique plus approfondie entre prévisions et réalisations a enfin été menée sur les budgets économiques (Boullé-Bouysset-Perker, 1975), les prévisions conjoncturelles de l'INSEE (Cling-Fayolle, 1986) ou les projections A long terme du (Dubois, 1985). La première met en évidence l'existence de biais systématiques, dans le sens de l'optimisme, sur le trend de l'ensemble des grandeurs nominales et les fluctuations de la FBCF des ménages et des exportations en lume. La deuxième montre que la prévision est ici sans biais et mASme très précise sur des variables inertes comme le PIB (car les - erreurs sur chacun des agrégats qui le composent se compensent -), mais aussi que les points de retournement de la conjoncture n'ont pas été prévus (récession de 1974-75, creux de 1981-82). La troisième indique enfin que, si les prévisions réalisées en 1972 pour 1985 sont globalement correctes sauf pour le chômage, cela résulte d'une compensation tant entre les quatre secteurs considérés (où elles sont plus problématiques) qu'entre les périodes successives de croissance et de stagnation (où elles ne sont pas détaillées).
Problèmes déontologiques.
Un modèle peut AStre mis en cause par l'homme politique s'il fournit des projections qu'il juge inacceples, et comme l'opinion publique ne vient jamais au secours d'un modèle, une telle condamnation est sans appel. Comme le rappelle M. Albert (1980), les travaux préparatoires du VIP avaient conduit A l'élaboration de deux scénarios fondés sur FI FI et différant essentiellement quant aux hypothèses sur l'environnement international, A sair le prix du pétrole et la Production Intérieure Brute de nos partenaires étrangers. Le scénario - gris -, préyant plus d'un million de chômeurs en 1980, fut refusé par les partenaires sociaux et le gouvernement comme étant trop défaitiste et insuffisamment mobilisateur, et un scénario plus acceple fut proposé, appuyé sur une politique lontariste en matière d'investissement et d'emploi. Le scénario - gris - lui-mASme devait cependant, A l'expérience, se révéler optimiste par rapport A la réalité, et faute d'une analyse rétrospective suffisamment fine, c'est le modèle lui-mASme qui a subi l'opprobre, en oubliant que - l'outil ne corrige pas l'erreur de la main qui le pousse -.
Si - les modèles peuvent jouer un rôle spécifique en délimitant mieux ce qui relève des faits et ce qui relève des choix - (Artus-Nasse, 1979), encore faut-il expliciter ces éléments sans recours A un flou artistique ou A un argument d'autorité. D'une part, s'il est légitime que des simulations préliminaires restent A usage interne aux organismes de prévision et A leur tutelle, seule une publication des prévisions publiques (sinon des entreprises) peut permettre un vérile débat contradictoire. D'autre part, s'il est illusoire de reproduire tout le cheminement ayant conduit aux résultats retenus, les prévisions affichées doivent néanmoins préciser la part due aux modèles, aux hypothèses exogènes et aux considérations normatives. A cet égard, la direction de la Prévision a une politique limitant la publication aux seules prévisions officielles, alors que l'INSEE publie des prévisions plus nombreuses et - spontanées - ; mais ces prévisions ne sont pas toujours accomnées des commentaires indispensables, problème particulièrement crucial quand, définies pour un horizon donné, elles sont révisées en fonction des informations nouvelles disponibles (Vemholes, 1987).
Que les prévisions affichées portent sur des variables de politique ou de résultat, leur impact sur les comportements dépend de leur crédibilité, conditionnée par le degré de réalisation des prévisions passées et l'existence ou non de prévisions contradictoires. Des biais systématiques apparaissent fréquemment, l'inflation brésilienne prévue pour 1983 et 1984 étant de 70 % et 40 % pour une réalisation de 211 % et 224 %, le déficit budgétaire des états-Unis prévu en 1982, 1983, 1984 chaque fois pour les trois années suivantes étant systématiquement en baisse alors qu'il a toujours augmenté (sauf en 1984). Stockman (1985) n'hésite pas A parler de -
publicité mensongère -, accusant son gouvernement d'air - cherché la quadrature du cercle avec des manœuvres comples, des demi-vérités et des malhonnAStetés dans les chiffres budgétaires -. On ne saurait en déduire que - de toute faA§on, cela n'a aucune importance, personne ne suit les prévisions - (Halbron, 1985), car elles exercent bel et bien une influence, des sommes considérables ayant été investies en 1980-81 pour faire face A une croissance encore attendue du prix du pétrole.
La crédibilité des prévisions pose elle-mASme le problème de leur caractère éventuellement autoréalisateur ou contraréalisateur (ir II, 6), étant entendu qu'elles ne peuvent air ce caractère que dans certaines zones de valeur des variables. La prévision contraréalisatrice est recherchée dans les projections du MIT ou du Club de Rome, qui visaient A montrer les effets dévastateurs A long terme d'une croissance trop rapide pour inciter A y réagir, prévision entendue malgré son caractère caricatural. La prévision autoréalisatrice est ulue dans la prévision publique de faibles taux d'inflation, encore que le jeu soit faussé par le fait que les agents la considèrent souvent comme sous-évaluée et la rectifient en conséquence, ce que le décideur peut A nouveau lui-mASme reprendre en compte. De fait, la puissance publique est toujours partagée entre l'affichage de prévisions pessimistes, qui apparaissent comme plus défaitistes que mobilisatrices, mais conduisent A des réalisations qui les surpassent, et de prévisions optimistes, qui affirment la lonté d'agir dans un certain sens, mais risquent fort d'AStre démenties.