Le contrôle de gestion a, pendant longtemps, été une fonction très sle en entreprise. Constitué parallèlement A la montée du taylorisme, il s'est structuré autour de trois types d'outils et de disciplines associées : le budget qui cadre les ressources d'une entité donnée, la compilité analytique ou analyse des coûts qui en contrôle l'utilisation et le choix d'investissement que nous avons présenté dans notre première partie.
En fait, cette silité trouve son origine dans l'importance qu'a revAStue la compilité analytique dans les processus de gestion. En effet, l'intérASt de cette discipline était de pouvoir accomner chaque bien produit par l'entreprise - évaluable par ailleurs de faA§on fiable sur le
marché - par une analyse détaillée de l'ensemble des coûts conduisant A cette production (cf. encadré ci-après). L'outil était de ce fait très puissant pour l'aide A la décision, et l'on a longtemps cru A la pérennité des méthodes de gestion qu'il impliquait. Mais la compilité analytique va progressivement rentrer en crise, entrainant après quelques années une forte évolution des systèmes de gestion.
La crise de la compilité analytique
Le facteur qui va déclencher ce phénomène est l'imprécision croissante du processus d'imputation, qui est la démarche permettant d'affecter les coûts des différentes équipes A ses différents produits. Comme on le voit dans l'encadré ce processus reposait sur une vision traditionnelle de la création de la valeur - c'est A dire une valeur créée par l'acte de production. Il était donc fatal que la compilité analytique subisse les conséquences de la forte évolution connue par ce modèle. C'est ce qui est apparu A partir des années 852 avec essentiellement deux manifestations :
- La montée des coûts indirects (comme ceux de la recherche / développement). Il n'était pas rare dans la haute technologie de voir ces coûts monter au-delA de 60, voire de 70 % dans certains cas ;
- Ou l'apparition de coûts cachés qui sont des activités indirectes, mais inhérentes aux fonctions de production, comme on le verra mieux ci-après ;
De telles difficultés auraient pu AStre contenues grace A un raffinement des techniques comples, mais elles se cumulaient avec des difficultés parallèles pour tracer la valeur ajoutée des activités des productions. Il s'agissait en fait des deux faces d'une mASme évolution où la valeur devenait de plus en plus difficile A ramener A des processus de production précis. En termes de gestion, cela signifiait alors - et c'est ce point qu'il faut retenir - que les activités devaient AStre analysées selon deux logiques désormais autonomes : en valeur et en coût.
La dualisation de l'analyse du couple coût-valeur
L'enjeu du contrôle de gestion est de savoir relier la gestion fine des ressources dans les équipes de
travail aux résultats d'une entreprise ' qui donneront ses comptes publics. A partir des années 20, cette démarche s'est concentrée sur l'analyse des coûts de production car on pensait que la valeur des produits - qui pouvait AStre constatée sur un
marché - relevait essentiellement de leur production. De ce fait l'analyse pouvait consister A décomposer les coûts de chaque produit selon une équation de la forme : Coût d'un produit = E coûts élémentaires des activités y concourant +R R étant un ratio pour les activités concourant indirectement A la production (activités support, fonctionnelles, etc.). C'est la méthode dite des coûts complets.
Tant que le ratio R était faible, l'efficacité et la renilité d'une activité pouvaient alors se juger facilement (notamment par le biais de la
productivité du travail). Mais l'évolution des
marchés a rendu cette technique de moins en moins opératoire. Pour une large part, cela tient au nouveau modèle
concurrentiel qui pousse les entreprises A des logiques d'innovation (cf. notre chapitre 2), ce qui rend caduque l'hypothèse qui relie la valeur au seul acte de la production. Cependant, ce phénomène joue aussi au niveau de l'analyse -pure- des coûts, puisque les mASmes mouvements conduisent A la fois - A augmenter la part des coûts indirects dans les produits, - et A complexifier l'affectation des coûts directs de faA§on précise A chacun des produits.
De ce fait, les entreprises vont AStre forcées d'analyser de faA§on autonome le processus déformation des coûts et le processus déformation de la valeur, ce qu'on appelle aujourd'hui l'analyse du couple coût / valeur. Cela représente un facteur indéniable de complexité qui est A l'origine des évolutions modernes du contrôle de gestion.
Il s'agit lA d'une évolution radicale car si on l'admet, les résultats financiers d'une activité ne peuvent plus suffire A la juger sur le managérial. Et toute la réflexion moderne en matière de contrôle de gestion est partie de ce (double) constat.
Les grandes évolutions du système de contrôle de gestion
Ce n'est pas le lieu de retracer ici l'ensemble de ces évolutions. Mais simplement d'en résumer les grandes lignes, ce qui tient en six éléments.
1. La première évolution concerne la notion d'efficacité productive qui devient complexe et ne peut plus se réduire A l'idée de productivité (mASme si l'idée de coût subsiste).
Nous avons longuement évoqué ce point dans notre partie I. Il signifie que l'on ne peut plus appréhender la valeur de faA§on univoque (id est la déduire d'un enchainement d'activités physiques) mais qu'on doit au contraire la considérer comme une réalité multicritères, ces critères étant eux-mASmes autonomes par rapport A la logique de production, A l'image du trilemme coût / qualité / délai bien connu dans l'univers du service (et encore, il s'agit d'un cas simple). Cette multiplicité doit elle-mASme se lire A deux niveaux :
- Au niveau fonctionnel et/ou d'une équipe de travail, comme on l'a dans notre exemple des centres d'appel (cf. encadré, chapitre 4) ;
- Au niveau des processus qui se voient reconnaitre le statut d'entités de gestion A part entière : rappelons qu'un processus se définit par rapport au besoin
du client, ce qui rend naturelle son analyse en termes de valeur.
2. La deuxième évolution concerne la méthode mASme du contrôle avec l'apparition de la notion de pilotage, le pilotage étant un suivi des activités de l'entreprise mené du seul point de e du
management (i.e. sans lien nécessaire avec les autres outils comples).
C'est la simple conséquence du point précédent. A partir du moment où la contribution A la valeur devient multiple, l'enjeu pour
le management sera de suivre les facteurs y contribuant, comme par exemple la qualité des produits, la
compétence des agents etc. L'enjeu du pilotage revient alors A suivre ces facteurs clés, c'est-A -dire des activités considérées comme des facteurs causaux3 de l'efficacité : c'est ce suivi qui forme les fameux leaux de bord du
manager (on parlera de facteurs de succès). LA encore deux approches vont apparaitre :
- le pilotage opérationnel au niveau d'une entité, A l'image de notre exemple des centres d'appels,
- le pilotage stratégique qui se situe A un niveau plus global, et qui contrôlera la mise en œuvre d'une stratégie. Un tel suivi, comme expliqué dans l'encadré ci-après, s'ésectiunera alors par construction des résultats immédiats, ce qui bien sûr en complexifie l'interprétation.
Les principaux enseignements du pilotage stratégique
Le pilotage stratégique n 'est pas fondamentalement différent du pilotage opérationnel puisqu'il s'agit de suivre A l'aide d'indicateurs adaptés les facteurs clé assurant le succès d'une stratégie. Mais il s'en distingue par le terme de la réflexion, forcément plus long, ainsi que par la complexité des relations liant les facteurs clé A l'objectif stratégique. En effet, ces facteurs clés doivent AStre lisibles au travers d'activités directement observables, alors que les enjeux stratégiques sont forcément exprimés en termes généraux, conceptuels. Dans ce processus deux points durs vont apparaitre :
- la traduction de la
stratégie en objectifs mesurables : il s'agit d'un enjeu délicat qui distingue le pilotage stratégique du pilotage opérationnel où les objectifs sont pratiquement des données. On a d'ailleurs au chapitre 12 combien un tel choix pouvait AStre délicat ;
- la traduction de ces objectifs en activités cibles (les facteurs de succès) car le lien logique est ici beaucoup moins clair que dans l'opérationnel.
Pour illustrer cette difficulté on peut prendre -A la suite de Lorino ' l'exemple du recouvrement dans les entreprises de service dont l'amélioration est devenue un enjeu stratégique majeur. Ces entreprises avaient coutume de gérer cette fonction par des mesures classiques. Mais un pilotage stratégique les a conduit A infléchir le raisonnement vers des facteurs A plus long terme, souvent préventifs (comme le suivi -direct- des consommations, la recherche d'adéquation des types d'abonnement aux besoins des
clients modestes etc.). Ce qui fait dire A Lorino : -Pour piloter ses activités, l'entreprise est contrainte d'anticiper et de porter un jugement aussi pertinent que possible sur les actions concrètes susceptibles de maxiomiser durablement la création nette de valeur-. 4
Malgré l'apparence souvent contre intuitive de telles démarches, les résultats se sont montrés probants. C 'est pourquoi le
management des connaissances pourra s'inspirer de ce genre de démarches. Avec des limites cependant qui tiennent - outre le choix des objectifs -A la difficulté d'isoler des activités opérationnelles mesurables capables de tracer la réalité des jeux de connaissances en entreprise. On en verra des exemples ci-après.
A l'usage, cette notion de pilotage s'est révélée très puissante. Dans l'environnement d'aujourd'hui, souvent opaque aux managers, elle a fourni de réels points d'appui aux
stratégies de différenciation des produits qui ont
marqué les quinze dernières années : ce qui explique sa diffusion et la taille souvent trop grande des leaux de bord dans certaines unités.
Avancées et limites du pilotage : les indicateurs
Néanmoins, la notion de pilotage n'en souffre pas moins de limites, qui tiennent en grande partie A sa tendance naturelle A se centrer sur les enjeux internes de l'entreprise. Ce phénomène s'explique avant tout par la difficulté A bien quantifier la contribution A la valeur de chaque activité et notamment des facteurs de succès. Or cette difficulté conduit rapidement A consacrer A ces facteurs les meilleures ressources au risque, par exemple -de faire de la sur-qualité- quand celle-ci est e comme un facteur clé. Il s'en déduit deux difficultés en quelque sorte inhérentes aux systèmes modernes de pilotage :
1. La perte de pertinence des outils budgétaires qui vient de cette difficulté A mesurer le lien entre action interne et résultats de marché. Un budget est décidé a priori, il doit donc présupposer ce lien, ce qui rend difficile d'en faire le pilier d'une bonne gestion alors qu'il est l'outil
économique par excellence en entreprise. Il apparait lA un vide dans la démarche de gestion qui n'a toujours pas été vérilement dépassé.
2. Ce vide explique en retour la cristallisation du suivi de l'efficacité sur des indicateurs internes, censés traduire l'intensité des facteurs de succès, mais dont l'objectivité est sujette A caution.
Il s'agit d'une difficulté incontournable qui tient A la nature de la contribution d'une activité A la valeur. Dans la mesure où cette activité n'est confrontée qu'indirectement au marché, le contrôle ne pourra s'y réaliser qu'au travers d'une évaluation physique de sa grandeur : comme le nombre de défauts d'une série, les notations effectuées par les clients etc. C'est ce qu'on appelle généralement des indicateurs. Or il ne s'agit lA que d'un pis-aller, car on ne sait jamais traduire ces indicateurs en résultats chiffrés, c'est-A -dire en augmentation de résultats (que les clients jugent un produit de qualité ne signifie pas qu'ils vont l'acheter) et ce avec toutes les difficultés que cela suppose, et notamment :
- la perte rapide de pertinence des indicateurs, car la moindre évolution du marché perturbera fortement leur potentiel d'information ;
- ou, plus grave, le processus de détournement des indicateurs, en entendant par lA que les acteurs en font un objectif en soi et faussent l'esprit du suivi. Dans les centres d'appels par exemple, l'indicateur de qualité a longtemps été le délai moyen de réponse, et nombre d'opérateurs ont été tentés de l'abréger volontairement, ce qui créait l'inverse de l'effet recherché.
Naturellement le management est prévenu de tels problèmes. Aussi a-t-on cherché A pallier ces difficultés par des démarches complémentaires qui ont pris des formes très diverses. Citons ici les démarches de
benchmarking internes qui permettent la aison de plusieurs unités similaires (plusieurs magasins, par exemple). On verra toutefois que des logiques managériales spécifiques vont apparaitre nécessaires, la plupart consistant A faire évoluer l'évaluation des hommes, pour éviter certains effets pervers (cf. notre conclusion)
Le suivi particulier des investissements
Enfin, et c'est le dernier aspect de cette évolution, une difficulté particulière apparait au niveau du suivi des investissements. Il s'agit lA d'un point paradoxal, car rien en théorie n'interdit de
manager les investissements en se fondant sur des outils de pilotage analogues A ceux que l'on vient de présenter. Et tel sera le cas dans de nombreux projets, ou dans le cas de certains investissements stratégiques. Ainsi pour Mevellec : -L'idée du pilotage consiste A replacer l'investissement au sein de la chaine de valeur de l'entreprise5-.
Mais les difficultés que l'on a notées y seront renforcées par la durée d'un investissement qui accroit les
risques de non-pertinence que l'on vient de présenter. C'est pourquoi on assiste actuellement A deux tendances en quelque sorte inverses :
- D'une part la volonté de maintenir la notion de retour sur investissement (ROI), parfois A la limite du raisonnable, comme on l'a évoqué chapitre 5. Tel est le cas de nombreux projets où ce maintien de la notion est compris comme un ancrage indispensable dans la réalité économique pour décider de son lancement.
- Mais parallèlement sont en train d'apparaitre des techniques nouvelles d'évaluation visant A mieux mesurer la
valeur économique d'un investissement. Tel est le cas des techniques dites d'EVA présentées au chapitre 3. Mais tel est aussi le cas des techniques dites de balance équilibrée (-balanced score-card-), dont le propos est de chercher A suivre en parallèle les résultats de l'entreprise et des variables proches de l'investissement : le plus souvent ces variables seront les processus et les compétences des acteurs. Partant de lA , le management est incité A traiter ces deux variables en tant que telles, et notamment les compétences, ce qui le rapproche du (d'une forme de )
management des connaissances ou plutôt ce qui pourrait l'en rapprocher car ces pratiques sont encore en gestation et peu d'entreprises les ont encore mobilisées dans leurs démarches de pilotage (si l'on excepte, bien sûr, les cas que nous allons présenter).
Axes de pilotage
Toutes ces évolutions, répétons-le, sont encore très récentes, mais le fait est qu'elles ont été largement diffusées tout au long de la décennie 90. Aussi la question se pose de leur capacité A rendre compte des enjeux que nous discutons. En quoi de telles techniques peuvent-elles aider A un management opératoire des connaissances ? Voire mASme - mais il ne s'agit que d'un second temps - ce dernier peut-il les faire évoluer ? C'est dans un tel état d'esprit, somme toute modeste, qu'il nous faut aborder le problème du pilotage.
Répondre A ces questions est tout sauf facile aujourd'hui, car on ne peut pas dire que le temps d'expérimentation soit suffisant pour dégager une tendance vérile. Un système de pilotage doit AStre fiable, n'oublions pas et l'on ne peut y innover -simplement pour voir-, il faut du temps pour le construire. Compte tenu de ce retard en quelque sorte naturel, la première expérience que nous en avons conduit A avancer trois idées :
- Il semble d'abord que les principes du pilotage que nous avons énoncés, sont partiellement adaptés A de nombreux enjeux de management de la
connaissance en entreprise. Ou ce qui serait plus précis, une première appropriation de ces enjeux peut se faire dans le cadre des outils de pilotage que l'on vient de présenter.
Aussi notre propos sera d'illustrer ce point A partir d'expériences récentes et de l'illustrer sans fard, car il est clair que les problèmes de mesure se poseront de faA§on significative. Nous le ferons donc au cas par cas, en fonction des stratégies de valeur que nous avons présentées chapitre 11.
- Mais on l'a , la logique du pilotage moderne tend A éloigner le suivi de la sanction du marché. Et cette tentation peut s'aggraver dans l'univers de la connaissance. C'est pourquoi il semble essentiel, quand c'est possible, de maintenir l'ancrage du pilotage économique de la connaissance dans la notion de renilité classique.
Nous le ferons autour de deux exemples - limités A des unités de taille modeste - qui semblent assez souvent généralisables, notamment A d'autres projets opérationnels.
- Enfin, et on rentre ici dans les innovations permises par le management des connaissances, il semble possible d'élaborer une démarche nouvelle d'analyse des coûts fondée sur la spécificité et la dimension collective de la connaissance. Il serait plus juste de parler de schéma car les solutions que l'on va aborder sont encore embryonnaires.
Compte tenu de la proximité que l'on verra entre les deux dernières approches, c'est par elles que nous allons commencer.
LE CALCUL DU R.O.I. DANS DES CAS PARTICULIERS
Le calcul classique du ROI reste possible dans certains cas particuliers, dont il est encore trop tôt pour bien mesurer la valeur de généralité. Nous allons donc en donner deux exemples concrets, qui sont sans doute reproductibles dans certaines situations, mais ne peuvent représenter une méthode générale.
Il convient d'ailleurs d'ajouter que dans au moins l'un de ces cas - celui que nous présenterons en second - le calcul de renilité n'a pas été identifié et pensé comme tel avant le démarrage du projet. Le déroulement de la démarche et les avancées significatives obtenues en interne, ainsi que le bon écho rencontré ont permis en cours de route d'évaluer le retour sur investissement de la démarche. Et il s'avère qu'un tel calcul serait possible a priori.
Partage des meilleures pratiques
Un des cas particuliers où le calcul du ROI peut AStre opératoire concerne les processus d'économie de coûts récurrents comme les coûts de fonctionnement. Le calcul est rendu possible par la technique du benchmarking interne qui permet A la fois d'identifier de faA§on précise les activités de formation de la connaissance et de s'abstraire de nombre de difficultés de mesure qui sont incontournables dans d'autres situations.
Prenons un cas que nous avons rencontré, celui de la maintenance des installations industrielles dans une entreprise ayant plusieurs unités de production similaires, c'est-A -dire organisées autour d'un mASme process et délivrant le mASme produit. En général, on connait le coût de la maintenance rapporté A une unité de mesure, par exemple le coût de maintenance A la tonne du produit délivré ou A la pièce. Il est donc possible de er ces coûts et d'identifier de faA§on assez précise les usines qui obtiennent les meilleurs résultats. De plus, on peut postuler que les usines ayant de bons résultats sont celles qui ont des connaissances leur permettant précisément de faire mieux que la moyenne. En effet, dans des situations de ce type, ce sont bien souvent les innovations réalisées -A la base- qui permettent d'optimiser les process ; et la mise en place d'une démarche de partage des meilleures pratiques s'impose. A contrario, on peut également postuler que les usines qui font significativement moins bien que la moyenne manquent des connaissances pour pouvoir faire mieux.
Partager les bonnes pratiques est loin d'AStre gratuit dans de tels cas, du fait de la complexité des process et il s'agit clairement d'une démarche d'investissement en connaissances. Néanmoins, les coûts générés sont assez faciles A identifier - en termes de temps passé par les acteurs, notamment. Dans un tel contexte, il est possible de calculer le ROI de la démarche A partir des résultats escomptés : si une usine qui fait significativement moins bien que la moyenne baisse ses coûts de maintenance de x dollars ou euros, alors cette baisse constitue le gain obtenu par la démarche. Le ROI s'en déduit alors facilement.
Si l'on veut généraliser cet exemple, on verra qu'il est possible de calculer le ROI lorsque la démarche de management des connaissances vise une amélioration quantitative de la performance pour laquelle on possède déjA un référentiel de aison fiable et silisé. Ce n'est donc pas seulement le cas de la maintenance, mais également de toutes les activités qui représentent un coût direct ou indirect sle et mesurable, et dont la contribution A la valeur est, elle aussi, sle. Cela vaut surtout pour les activités industrielles et parmi celles-ci nous pouvons citer les coûts de
consommation d'énergie, les taux de rebut (mesure de la non-qualité), les coûts décomposés de maintenance (durée d'arrASt, nombre d'arrASt, coûts d'intervention, montant des achats de pièces), les coûts de stockage etc.
Néanmoins, et nous l'avons A plusieurs reprises, la plus grande partie des thèmes concernés par le management des connaissances ne rentre pas dans ces catégories : notamment quand un investissement en connaissances modifie la valeur produite sans qu 'on puisse le mesurer a priori. On peut notamment citer la protection de l'environnement (par exemple baisser le taux d'émissions nocives nécessite de forts investissements en connaissance, mais cette baisse ne se traduit pas directement dans les comptes alors qu'elle représente d'énormes avantages pour l'entreprise). Il en est de mASme en ce qui concerne la sécurité et la baisse d'accidents de travail : ce sont des cas où le partage des meilleures pratiques contribue fortement A l'amélioration de la performance d'ensemble, sans qu'on puisse réellement le mesurer.
L'exemple des bonnes pratiques montre donc qu'un investissement en connaissance peut avoir des objectifs très concrets - y compris sur le financier - mais principalement dans le domaine de la réduction des coûts. Et les calculs de ROI -par benchmarking- sont praticables en fonction de la silité des
données économiques ées et de la précision des données internes de l'entreprise.
Créer de la valeur autour d'un produit
Le deuxième exemple A retenir se rapproche d'un calcul classique dans ce qu'il cherche A tracer une contribution directe de la connaissance A la valeur au travers de l'évolution de l'offre. Cet exemple est caractéristique des entreprises industrielles positionnées sur ce qu'il est convenu d'appeler le marché -business to business-, i.e. la commercialisation de produits industriels pour des entreprises industrielles de toutes tailles. Sur un tel marché, les acheteurs ou les décideurs sont souvent des entreprises peu ou moyennement sensibles aux avancées technologiques. Les vendeurs sont alors relativement démunis car l'essentiel de la
négociation tend A se focaliser sur le prix du produit ce qui a pour conséquence évidente une baisse des marges. Des questions telles que la taille de l'entreprise qui fournit le produit, l'importance du service après vente deviennent secondaires et un fournisseur moins solide, moins performant techniquement mais nettement moins cher a la possibilité de grignoter des parts de marchés significatives.
Face A cette contraint de coût, l'idée de départ consiste A identifier les possibilités de service additionnel que l'on peut offrir aux clients, et cela A périmètre constant. Dans le cas qui nous occupe, il a été décidé d'accomner la vente du produit par une activité de conseil en organisation qui permet d'améliorer l'utilisation du produit tout en optimisant l'utilisation de l'énergie ou l'ergonomie du poste de travail. Ce conseil peut également AStre accomné par la formation délivrée au client final.
Un tel projet n'est pas, en apparence, original : la recherche du service pour créer de la valeur est un axe constant dans l'industrie. Dans le cas qui nous intéresse, cependant, l'essentiel de la démarche s'est centrée sur l'évolution des connaissances des technico-commerciaux, au moyen d'une amélioration significative de leur maitrise des technologies, des produits, des défauts, etc., toutes connaissances disponibles au sein de l'entreprise. En d'autres termes, l'essentiel de l'effort a porté sur la -mise A niveau- de ces acteurs au contact des acheteurs pour leur permettre d'assimiler le savoir-faire de l'entreprise et son application possible aux problématiques des clients, ce qui a supposé la mise en place de tout un dispositif parallèle de retour-client et /ou de retour d'expérience. En particulier, la mise A disposition des connaissances a pris la forme d'un site Intranet, dont le succès laisse présager une ouverture sous forme d'Extranet aux clients eux-mASmes.
Dans un cas de ce type, le calcul du ROI a priori s'est révélé possible. Tout d'abord parce que l'investissement en connaissance a été programmé, et le surcoût occasionné est devenu assez facile A estimer. Mais surtout, les revenus générés sont apparus -raisonnablement- mesurables sur le marché : une fois les investissements nécessaires A la réalisation du support des connaissances terminés et le cycle de vente, du conseil et du service enclenché toute nouvelle vente est en fait génératrice de marge. En d'autres termes, le conseil offert au client permet de contrer la tendance A la baisse
des prix. Et cette hypothèse fournit l'essentiel des éléments pour un calcul de renilité assez fiable a priori et sans doute très précis pour un calcul de renilité a posteriori : il suffit de er les coûts programmés aux survaleurs estimées grace au maintien de la marge (et de les rapporter aux hypothèses d'actualisation cf. chapitre 3).
On notera d'ailleurs qu'un tel calcul n'est opéré que sur les éléments quantifiables, et ne tient donc pas compte du retour qualitatif en termes de fïdélisation du client, par le biais du conseil, d'Extranet et des services associés : toutes choses, bien sûr qui doivent peser dans la décision. Mais l'important, dans ce cas, est que dans sa fonction d'aide A la décision, le calcul reste possible a mini-ma comme un ordre de grandeur (mais est-il autre chose que cela ?).
Cela fournit quand mASme un résultat intéressant, car dans les deux cas que nous venons de présenter, la démarche est bien entendu généralisable A des contextes similaires.
Calcul synthétique et situations de gestion
Il convient cependant de prendre ce résultat avec prudence, en rappelant que dans sa forme originale, le ROI renvoie A un calcul analytique, -analytique- signifiant que l'on distingue chacun des éléments enjeu et qu'on les assigne de faA§on claire A des démarches possibles de gestion (les revenus, notamment, sont clairement rapportés A des engagements de coût). Or, dans le cas présent, ce n'est pas tout A fait le cas. Il ne s'agit que d'un calcul synthétique, où l'on ne cherche pas de lien direct - et donc contrôlable par le management - entre telle ou telle action de connaissance et tel ou tel résultat. En fait, le calcul part d'un constat d'habitudes collectives, où les coûts liés A la connaissance sont traités globalement. Et il en va de mASme des revenus. Pour le dire de faA§on imagée, le calcul procède par une analogie où la complexité de la réalité est concentrée dans certains paramètres et qu'on considérera par convention comme sles.
Il s'agit donc d'une technique pragmatique et dont les enseignements ne valent qu'au niveau global (de l'unité dans son ensemble). Et c'est sans doute ce pragmatisme qui explique sa généralisation possible A certains problèmes d'analyse et de contrôle des coûts, dont on a qu'ils tendaient A se multiplier dans les entreprises (cf. notre introduction). Nous n'aborderons cependant ce point - son caractère encore embryonnaire - que de faA§on partielle, A partir de la thématique des coûts cachés.