Résumé : L’objet de cet article est d’étudier la place du don et de la coopération dans l’organisation
économique de l’Internet. Nous montrons que le contexte institutionnel dans lequel est né l'Internet ne suffit pas à expliquer le poids actuel des services non marchands et la vitalité des comportements coopératifs sur ce réseau. Selon nous, ces éléments sont consubstantiels de l’économie de l’Internet. L’explication tient en grande partie à l'absence de séparation claire entre ceux qui sont producteurs de services et ceux qui sont clients. Cette rérsibilité ou cette symétrie des rôles facilite la participation volontaire et limite les comportements de passagers clandestins. La forte modularité des services sur l'Internet et leur facilité de diffusion et de reproduction est aussi un élément central, qui fait obstacle aux comportements opportunistes. Ces différentes caractéristiques de l’Internet permettent l’émergence d’une forme efficace et sle de coopération, appelée "Network Cooperation" que l'on retrou dans les logiciels libres, les forums de communications de type Usenet ou les accords de peering entre réseaux de transports.
1. Introduction
Lorsque l’on parle de l’Internet, on a tendance à se focaliser sur le commerce électronique et les dot com comme Amazon, eBay ou Yahoo. En particulier, les cours des dot.coms ont fait l’objet d’une forte médiatisation. Les titres de ces sociétés ont connu des hausses mais aussi des baisses spectaculaires ces cinq dernières années. Le prix des actions de Yahoo a été multiplié par 26 en 3 ans (de 1996 à 1999) avant d’être divisé par 10 sur l’année , 2000. E-bay, un site d’enchère a connu une hausse de 792 % entre septembre 1998, date de son introduction, et décembre 1999, puis a perdu 2/3 de sa valeur entre mars et décembre 2000.
On pourrait multiplier les exemples. Mais cette surmédiatisation de la « Noulle
Économie », tend à nous faire oublier que les activités marchandes ne constituent qu’une faible partie des services déloppés et proposés sur l'Internet. La plupart des informations qui y circulent n’ont pas un objet directement lucratif, mais s'inscrint au contraire dans une logique de gratuité et de coopération. Ceci s’explique sans aucun doute par le fait que l’Internet a longtemps été un réseau public de communication, à l’usage de la recherche et de l’enseignement . L’accès à ce réseau se faisait de manière restricti selon les conditions définies par l’AUP (Acceple Use Policy) : seuls les sites appartenant à des campus ou ayant des activités culturelles, éducatis et de recherche pouvaient se raccorder à un point d’accès régional du réseau Internet et échanger des
données ac les autres sites connectés. L’arrivée des entreprises privées, à partir des années 90 et le déloppement d’activités commerciales de services en ligne ont quelque peu transformé la nature de ce “ réseau des réseaux ”. Cependant, même si à l’heure actuelle la communauté scientifique ne représente plus la majorité des utilisateurs, son influence reste très prégnante dans l’organisation des relations entre les différents acteurs et utilisateurs. Les modes d’échange sont largement fondés sur la coopération et le don. Ce sont des dizaines de milliers d’utilisateurs qui consacrent bénévolement du temps à animer des forums de discussion, à créer des sites d’information gratuits ou à délopper des logiciels pour l'Internet en renonçant à leurs droits d’auteur.
Dans cet article, nous souhaitons montrer que le contexte institutionnel dans lequel est né Internet ne suffit pas à expliquer le poids actuel des services non marchands et la vitalité des comportements de don et de coopération sur ce réseau. Selon nous, ces éléments sont consubstantiels de l’économie de l’Internet. L'Internet est en effet un réseau unirsel de co-production, de co-
consommation et d’échanges de services sous forme électronique, au sein duquel se déloppent des formes de coopération efficace et sle, distincte des formes traditionnelles.
Deux formes de coopérationsont habituellement distinguées : la coopération volontaire et la coopération nécessaire. Cette distinction est élie sur la base de la séparabilité ou non du produit résultant de l'action collecti. Dans une coopération volontaire, le produit est séparable. Certains participants peunt alors être tentés de s’approprier une part plus importante du produit final que les autres. Ce type de comportements opportunistes nécessite donc de s'entendre au préalable sur les modalités de répartition du produit, mais aussi sur des les règles permettant de faire respecter ce partage . En effet, tout accord de partage est insle par nature et peut être violé ou dénoncé par l'un des participants, en raison de la séparabilité du produit final. Pour garantir le respect de ce type d'accord, il faut pouvoir détecter rapidement les comportements opportunistes et les sanctionner sévèrement dans les périodes suivantes . L'accord se révélera sle si et seulement si le gain net que l'on retire à s'approprier le produit des autres participants est inférieur aux coûts des représailles qui s'ensuint. L’existence de multiples solutions de partage peut aussi rendre difficile la conrgence de vues et faire échec à une coordination des comportements. Les principaux obstacles à une coopération volontaire tiennent donc à l’imperfection de l’information, à l’asymétrie ou l’hétérogénéité entre les partenaires et à une faible préférence pour le futur. Le cadre d’analyse privilégié pour ce type de coopération est la théorie des jeux, plus particulièrement la théorie des jeux répétés, et les applications les plus courantes concernent les accords de collusion entre firmes concurrentes. D’autres exemple de coopération volontaire ont été décrits par Axelrod (1984), au Sénat américain ou dans les tranchées pendant la Première Guerre Mondiale.
Dans la seconde forme de coopération, chacun contribue à un produit joint ou non séparable. L'effort d'un participant ne peut donc être isolé de celui des autres et être approprié par lui seul. C’est typiquement l’équipe de déménageurs qui doit transporter un objet volumineux. Une seule personne ne pourrait souler cet objet, rendant la coopération nécessaire entre les membres de l'équipe. Dans cette relation, il n'existe pas d'opportunisme sur le partage du produit final, mais sur les efforts fournis par chacun. Dans une coopération nécessaire, l'accord va donc porter sur les règles d’incitations à l’effort, le problème de l'efficience d’un tel arrangement se posant : le produit final va dépendre des efforts fournis par chacun, ces efforts dépendant eux-mêmes des incitations initiales . Or chaque partenaire peut chercher à cacher ses vrais capacités ou à surestimer le coût de son effort afin d'être moins sollicité que les autres ou d'être mieux rémunéré pour sa participation. Ce type de comportements provient généralement d’une information incomplète sur les caractéristiques de chacun et nécessite la mise en œuvre de mécanismes conduisant chacun à révéler ses informations cachées. Le cadre théorique traitant de ces problèmes est celui de la théorie des jeux coopératifs et de la théorie des incitations. Un des exemples classiques de coopération nécessaire est la production d’un bien public. Un bien public par définition est non séparable puisqu'il est non rival et bénéficie à ceux qui ont contribué à sa production comme à ceux qui n’ont fourni aucun effort. Cette situation peut engendrer des comportements de passager clandestin, entrainant une sous-production et éntuellement une disparition du bien public. Ce phénomène a été largement étudié par Olson (1965). Ce dernier souligne que l’existence d’un intérêt commun n’est pas suffisant à l’existence d’une action collecti. Une des solutions possibles est alors de fournir des incitations sélectis privées qui ne bénéficieront qu’à ceux qui fournissent le bien public ou de rendre obligatoire la participation. Ainsi, il explique l’existence de syndicats puissants dans certaines corporations où l’adhésion est obligatoire pour être embauché ou pour obtenir certaines aides. Le syndicat peut de cette façon financer ses actions collectis consistant à défendre les conditions de
travail ou le niau de rémunération des salariés, qui est par essence un bien public profitant aux syndiqués et non syndiqués.
En résumé, dans la coopération volontaire, le problème principal n’est pas la participation ou la contribution à l’action collecti, mais l’opportunisme dans le partage du produit final. A l’inrse, dans une coopération nécessaire, il n’existe pas de problème d’opportunisme sur le partage, mais plutôt un problème de participation ou de passager clandestin. La coopération volontaire renvoie plutôt à des relations décentralisées et informelles, comme celles que l’on peut retrour sur un marché, alors que la coopération nécessaire s’inscrit dans des relations plus formelles et hiérarchiques. Dans cet article, nous souhaitons montrer que l’Internet a permis l’émergence d’une « coopération réticulaire » ( Network Cooperation ), qui est une forme hybride de coopération à la fois nécessaire et volontaire, distincte de la « coopération contractuelle » ( Market Cooperation) et de la « coopération hiérarchique » (Hierarchies Cooperation ). Ceci tient à l’absence de hiérarchies dans l'Internet et au poids des acteurs non marchands, mais aussi à des caractéristiques techniques combinant des “ effets de réseau ” propres aux industries de télécommunications et une dynamique d’innovations propres à l’industrie de l’informatique. Ces différentes propriétés sur lesquelles nous reviendrons permettent de transformer des relations nécessaires en coopération volontaire, éliminant ainsi les problèmes de passager clandestin ou d’inefficience, sans pour autant s’exposer à des comportements opportunistes. Inrsement, l'Internet permet de transformer des relations volontaires en coopération nécessaire. La coopération réticulaire (Network cooperation), par son caractère à la fois nécessaire et volontaire, offre de meilleures garanties contre les comportements opportunistes et de free-riding et se révèle donc plus efficace et plus sle que la coopération contractuelle ou la coopération hiérarchique. Ces éléments expliquent la place essentielle qu'occupent la coopération et le don dans la production de nombreux services sur l'Internet.
Pour appuyer cette thèse, nous proposons de distinguer deux grandes catégories de services dans l'Economie de l'Internet, d’un côté, les services d’usage et de l’autre les services de support. Ce découe se justifie par des considérations techniques. L'Internet est, en effet, constitué d’une multitude de réseaux hétérogènes, interconnectés les uns ac les autres, dans un enchevêtrement dense (Kavassalis et Solomon, 1997). Tous ces réseaux peunt communiquer et échanger des données grace à un langage commun défini par les protocoles TCP-IP. Ces protocoles permettent d’élir une séparation nette entre le transport des données d’un côté (services supports) , et la fourniture de services d’usage de l’autre, les seconds pouvant se délopper indépendamment des premiers (Kavassalis et Lehr, 1998). Les services d’usage se décomposent en trois grandes fonctions . En premier lieu, on trou les services de
communication qui comprennent le courrier électronique, les forums de discussion, les “ news groups ”, les transferts de
fichiers et la téléphonie sur Internet. En second lieu, on a les services d’information qui correspondent essentiellement à la consultation des sites Web. Enfin, les services de transaction qui englobent le commerce électronique et les échanges de données informatisées entre
clients et fournisseurs. Pour permettre aux utilisateurs de bénéficier de ces différents usages, trois services-support sont nécessaires : les services d’accès au réseau, les services de transport des données électroniques à trars le réseau et les services et logiciels d’application qui rendent possibles ou facilitent les usages de l’Internet, transport et accès compris (moteurs de recherche, navigateurs, serurs d’information, messagerie électronique, ) . Chaque utilisation de l'Internet va mobiliser des modules relevant de ces différentes catégories de services. L'Internet permet d'assembler les modules les uns ac les autres grace à des protocoles unirsels d'interfaçage .
La section suivante cherche à démontrer le caractère volontaire et sle de la coopération sur l'Internet. Nous avançons comme argument la symétrie des acteurs sur l'Internet et leur statut à la fois d’offreur et de consommateur. Nous illustrons cette idée en prenant l’exemple de l’interconnexion entre les réseaux Internet, basée sur le peering et l’exemple des forums de discussion.
La section 3 s’attache pour sa part à justifier le caractère nécessaire et efficace de nombreuses relations sur l'Internet. Nous avançons comme argument la forte modularité des services sur l'Internet et les facilités de diffusion et de reproduction qui rendent inefficace toute lléité de s’approprier un service. Le déloppement de logiciel libre sur l'Internet illustre parfaitement cette idée, tout comme les sites d’informations sur le Web.
2 Internet : un réseau de coopération volontaire
2.1) Le principe de symétrie
L'Internet repose sur un principe de symétrie qui se matérialise de deux manières. D’une part, pour chaque type de services, l'Internet garantit techniquement un traitement identique des internants. D’autre part, pour ces mêmes services, tous les acteurs sont à des degrés dirs à la fois offreur et consommateur.
Sur le premier point, rappelons que l’Internet est un ensemble de réseaux hétérogènes qui parvient, à trars le protocole TCP/IP, à s’affranchir de toutes ces différences et à les rendre transparentes pour les utilisateurs. A partir de réseaux hétérogènes, l'Internet propose un réseau unirsel et homogène dans lequel chacun est dans une position symétrique aux autres. Par exemple, au niau de la couche inférieure de l’Internet, chaque réseau de transport est identifié par un numéro (ASP) qui lui permet, quelle que soit sa taille, de se connecter ac n’importe quelle autre réseau et d’échanger des données sans problème d’interopérabilité. Au niau des couches supérieures, on retrou le même principe à trars les adresses électroniques qui confèrent à chaque utilisateur, quel que soit son statut, sa nationalité, le même droit de recevoir et d’envoyer des messages. On obser le même principe pour les sites Internet à trars leurs noms de domaine. La terminaison peut varier selon l’objet du site ou sa nationalité (.com pour les sites commerciaux, .edu pour les sites éducatifs,), mais c’est une des caractéristiques fortes de l’Internet que d’élir une symétrie et une égale proximité entre les acteurs à trars le système d’adressage. Cette symétrie est un facteur favorable à la mise en œuvre d’une coopération sle et efficace sur les services.
La seconde caractéristique importante de l’Internet est d’être un réseau de coproduction et de consommation conjointe. Chaque utilisateur participe directement à la production des services présents et futurs . Mais surtout, il n’existe pas de séparation claire entre ceux qui sont producteurs et ceux qui sont clients. Chaque réseau de transport offre des services de connectivité aux autres réseaux, mais est aussi demandeur pour disposer d'une courture unirselle. De même, dans les forums de discussion ou sur le Web, chacun produit de l’information et en consomme. Cette rérsibilité des rôles rend difficile l’émergence d’une logique classique de marché. Elle crée une double dépendance : chacun dépend des autres en tant qu’offreur, mais aussi en tant que demandeur. Cette double dépendance permet de transformer des relations nécessaires en coopération volontaire, créant de fortes incitations à coopérer et dissuadant les comportements de passager clandestin en présence de
biens publics. En effet, si un des acteurs ne fournit pas un niau de services ou d’efforts suffisants, il est, en tant que consommateur, directement pénalisé. Mais surtout, s’il abuse ou surconsomme des services fournis par les autres, il s'expose, en tant qu’offreur, à être exclu par les autres offreurs. Etant donné que la plupart des services sur l'Internet ne peunt être fournis sans l'aide des autres offreurs, cette sanction peut être très dissuasi et contribue à rendre la coopération en réseau efficiente. Surtout cette sanction est crédible car exclure un des acteurs ne requiert pas trop d’efforts et ne remet pas en cause la coopération entre les autres acteurs.
Pour illustrer ces deux points, on peut prendre l’exemple du peering dans l’interconnexion de réseau et celui des forums de discussion.
2.2) Les accords de peering
Le service de transport est de tous les services, le plus invisible ou le plus transparent pour l’utilisateur, bien qu’il soit indissociable des services d’usage . Il est aussi celui où la coopération entre opérateurs de réseaux Internet est des plus nécessaires, si ces derniers ulent garantir à leurs clients une connectivité unirselle (Huston, 1999). Une des formes les plus intéressantes de coopération entre opérateurs de réseaux que l’on appelle ISP (Internet Service Provider),concerne les accords de peering. Il s’agit d’accords d'échange de trafic sans compensation financière : chaque ISP prend en charge gratuitement l’ensemble du trafic qui lui est adressé par les autres ISP, et tire ses recettes des abonnements que lui rsent ses clients . Cette forme de troc tranche ac les pratiques d’interconnexion dans les télécommunications. Les opérateurs de téléphonie ont recours, en effet, à des accords de compensation ac une compilité des durées des appels entrants et sortants de leurs réseaux et des rersements en faur du réseau déficitaire.
Dans l'Internet, le peering peut se justifier d’un point de vue technique et économique. En effet, de par ses principes de fonctionnement , l'Internet ne peut garantir un délai ou une qualité de livraison, ce qui rend difficile la mise en place d’un système de rémunération de l’acheminement, quoiqu’en disent certains économistes . En particulier une compilisation des paquets entrants et sortants des réseaux serait coûteuse à mettre en place et aurait pour effet de ralentir le débit de transmission. Le peering permet ainsi d’améliorer la fluidité des réseaux IP à moindre coût.
La relati symétrie entre les réseaux qui sont parties prenantes dans le peering peut aussi expliquer le caractère sle de ces accords de coopération souples et largement informels . La silité repose sur des menaces de sanction ou d’exclusion de tout partenaire ISP qui adopterait une attitude opportuniste (stratégie de type donnant-donnant, Axelrod, 1984). Ici, un comportement opportuniste consisterait à sous-instir dans son réseau et à utiliser le réseau de ses partenaires pour acheminer une partie de son trafic rs des réseaux tiers, en réalisant des économies substantielles. Mais une telle attitude serait vite détectée et “ punie ”, par rupture de l’accord de peering.
Le peering pourrait cependant être menacé par la concentration à laquelle on assiste dans le transport de données . Ainsi, Worldcom, propriétaire d’un des plus grands réseaux Internet, depuis ses fusions successis ac UUNet, et MCI refuse depuis mai 1997 de faire du peering ac les petits ISP. Si ces derniers ulent échanger du trafic, ils devront payer des droits d'accès comme n'importe quel
client (accord de transit). La position d’UUNet a été reprise par la plupart des grands ISP. Cette asymétrie croissante entre les réseaux, ac d’un côté une poignée de réseaux transcontinentaux, pour la plupart américains, et de l’autre, de nombreux petits ISP dont le réseau se limite à quelques liaisons louées rs le noeud d’interconnexion le plus proche, pourrait bien circonscrire l’espace de coopération. Les grands ISP refusent de plus en plus de financer des réseaux qui sernt à acheminer du trafic pour lesquels ils ne touchent aucun renu. Ils estiment que les petits ISP ne respectent pas la règle de réciprocité implicite dans les accords de peering et doint à ce titre payer un droit d’accès. Une seconde limite aux accords de peering entre ISP, même de taille identique, pourrait nir de la
concurrence qu’ils se livrent sur les services d’accès et d’usage. Les sources de conflit sont nombreuses et la lutte est sount acharnée pour conquérir de nouaux clients : il arri que certains ISP démarchent les clients d’autres ISP ou bradent les tarifs d’accès. Cette rivalité peut conduire deux ISP à refuser toute interconnexion directe. Les échanges de trafic transitent alors par des réseaux tiers, ac une qualité de transmission moindre (Baake et Wichmann, 1998, Dang-Nguyen et Pénard, 1999).
Bref, la remise en cause récente du peering est provoquée par l’affaiblissement du principe de symétrie : l’interconnexion de réseaux de taille trop différente conduit à une violation de ce principe. En outre, la rivalité entre ISP est également une question de recherche de la taille maximale, donc de source de dissymétrie. Chacun des ISP en effet, a intérêt à posséder une base de clientèle la plus large possible, pour constituer un « club » et en tirer avantage auprès des fournisseurs de contenus. Dans ces conditions, le peering peut affaiblir les avantages du club exclusif, notamment en ce qui concerne la qualité des transmissions. La menace sur cet
avantage concurrentiel potentiel peut donc inciter les ISP à refuser le peering ac les concurrents les plus « dangereux ». Mais en dehors de ces cas spécifiques, le peering continue de régir les relations entre ISP.
2.3) Les services de communication
Les services de communication sont par essence la pierre angulaire de tous les phénomènes de coopération sur l'Internet. En effet, comment imaginer une relation coopérati sans communication ? L'Internet a d’ailleurs été conçu à l’origine pour permettre à des chercheurs dispersés géographiquement de collaborer sur des projets scientifiques : il devait faciliter le travail à distance et les échanges de documents . La communauté scientifique a été rapidement séduite par la rapidité et la gratuité de cet outil de communication. La propension des chercheurs à partager leurs idées et à participer à des projets collectifs n’a fait qu’accélérer sa diffusion (effet de réseau classique).
Ac l’essor mondial de l’Internet, les services de communication ont pris une noulle dimension. Un des phénomènes les plus remarquables a été la
constitution d’innombrables communautés virtuelles et groupes de discussion autour de thèmes dirs, entre des individus ne se connaissant pas a priori. Ces communautés fonctionnent toutes sur des principes coopératifs de partage d’information et d’entraide (Kollock et Smith (1999)). Tous les services rendus à l’intérieur d’une communauté sont gratuits. Par exemple, une communauté d’utilisateurs d’un logiciel donné permet de soumettre des questions auxquelles s’efforceront de répondre les membres les plus compétents. Dans d’autres communautés, il s’agit de partager des expériences personnelles ou d’apporter des conseils pratiques. Au sein de ses groupes, il est sount de règle de recourir à l’auto-contrôle ou à l’auto-discipline. Chaque nouau membre doit préalablement consulter et accepter la NetEtiquette du groupe, c’est à dire les règles de bonne conduite et les objectifs définis lors de la création. Le nouau membre doit aussi prendre
connaissance des questions fréquemment posées (FAQ) avant d’internir dans les discussions. Il doit absolument éviter les attaques personnelles et les messages publicitaires, ou envoyer un article en dehors du sujet du groupe. Celui qui ne respecte pas ces règles ou cette éthique, s’expose aux foudres de l’ensemble de la communauté. Il peut être tout simplement exclu ou être sanctionné par une flame war qui consiste à inonder sa boite aux lettres de messages agressifs. On peut imaginer les conséquences lorsque le groupe est composé de plusieurs milliers d’individus. Il s’est donc créé, sur le “ Net ”, un principe de coordination par les règles, dont le caractère auto-organisé est patent , et qui est fortement
marqué par les principes de sa communauté d’origine, celle des chercheurs. L’irruption de considération marchandes n’a pas remis en cause ces principes. Au contraire, ces communautés bénéficient des faurs et attentions des acteurs marchands conscients que le moyen le plus rapide d’entrer sur le Net est de recevoir l’adhésion de ces communautés.
L’esprit coopératif qui règne dans les services de communication pourrait cependant être menacé par la
croissance exponentielle des utilisateurs de l’Internet. L’arrivée en masse de nouaux participants, ignorant les règles de comportements et de bonne conduite ne peut que perturber le fonctionnement de ces communautés virtuelles. Leurs membres les plus actifs pourraient délaisser ces lieux d’échanges gratuits et de coopération dans lesquels se glisseraient trop de passagers clandestins. De plus, la possibilité de changer facilement d’identité sur l'Internet pourrait limiter les mécanismes de réputation, essentiels dans toute coopération . En réalité, les choses ne se passent pas toujours ainsi. Même si l’on se borne à participer de façon anonyme à des forums ou des groupes de discussion des types sociaux apparaissent vite, comme celui du « novice » et celui de « l’ancien », le second se chargeant « d’éduquer » le premier, qui en retour lui reproche parfois son « totalitarisme ». Ainsi de vériles codes sociaux se mettent en place qui silisent les relations, renforcent les sentiments d’appartenance et réduisent la probabilité d’occurrence de passagers clandestins.
3 Internet : un réseau de coopération nécessaire
3.1) Le principe de modularité
Un service sur l'Internet est rarement le produit d’un seul acteur, mais plutôt un assemblage de multiples modules réalisés par différents auteurs. Ces modules peunt être des programmes informatiques ou bien des informations. Ce principe de modularité s’explique à la fois par la facilité de diffusion et de reproduction de ces modules et par le caractère dynamique de leur production. Précisément, la diffusion ou la reproduction d’informations numériques correspond à un coût quasiment nul et peut se faire à une grande échelle et très rapidement . De même, le coût de production des services sur l'Internet est largement réduit par la facilité offerte de réutiliser certains modules de services existants. En effet, un service, lorsqu’il est consommé, ne disparait pas ou n’est pas altéré. Au contraire, chaque utilisateur peut amélioré un service en modifiant l’un de ses modules ou en ajoutant de nouaux. Cette dynamique de production à laquelle chacun peut contribuer sans coût excessif, garantit une qualité et une adapilité continue des services.
Ces caractéristiques rendent cependant difficile et inefficace la mise en place de droits de propriété restrictifs. Les efforts de protection risquent d’être coûteux et inutiles face aux possibilités techniques offertes par l'Internet, de diffusion et de réutilisation. Comme il n’est pas possible de s’approprier seul le résultat final, la coopération prend alors un caractère nécessaire. La qualité des services ainsi produits dépend des efforts collectifs des différents acteurs concernés. Certes, certains peunt être dissuadés d’offrir des services devant les
risques de piratage et d’appropriation de leur travail. Mais, le faible coût de participation et de production supporté par chacun, é aux gains significatifs retirés de services de qualité et adaptés à ses besoins, permet toujours de créer une masse critique sur l'Internet.
Les logiciels libres et les sites d’information sur le Web illustrent bien cette coopération efficace. Dans le premier cas, la coopération devient nécessaire grace à un système de licence qui empêche toute appropriation privée de ces logiciels. Dans le second cas, ce sont les liens hypertextes entre les sites qui vont obliger les auteurs à coopérer.
3.2) le modèle des logiciels libres
C’est sans aucun doute le déloppement de logiciels qui a suscité les phénomènes de coopération les plus intéressants. Sans l'Internet, les “ logiciels libres ” n’auraient jamais connu un tel succès au point d’ébranler Microsoft. Linux, un système d’exploitation libre concurrent de Windows NT, détenait plus de 17% du
marché des serurs en février 2000 et plus de la moitié des sites sur le Web sont gérés par le logiciel libre Apache. Avant d’analyser ce phénomène, il est important de le définir.
Un logiciel libre se caractérise avant tout par la libre disponibilité des codes sources (c’est à dire les lignes de programme) et donc la possibilité pour chaque utilisateur de le modifier et de l’améliorer. En revanche, il est faux d’associer libre ac gratuit, parce que d’une part, il existe des logiciels gratuits qui ne sont pas libres (l’utilisateur n’a pas accès aux codes sources) et d’autre part, un logiciel libre peut être payant ou commercialisé . La disponibilité des codes sources des logiciels libres est protégée par différentes licences (BSD, GNU Public License, ). La GNU Public License (GPL) étend même cette libre disponibilité à toutes les rsions dérivées, modifiées ou adaptées. Ces licences sont en définiti des contrats collectifs réglementant les relations entre les déloppeurs, les distributeurs et les utilisateurs.
Au-delà de ces questions de licence, les logiciels libres sont d’abord le fruit d’un travail coopératif entre de nombreux déloppeurs qui ne se connaissent parfois que de manière virtuelle. Les projets ont généralement un fonctionnement décentralisé, ac ou sans coordinateur. Pour Linux le coordinateur est Linus Thorval. Raymond (1998) dans “ The cathedral and the Bazaar ” analyse le succès des projets de déloppement décentralisé sur l'Internet qui relènt d’un modèle bazar, par opposition au modèle centralisé, en cathédrale, des logiciels propriétaires commerciaux. Le principe du déloppement bazar est de diffuser rapidement des rsions préliminaires et imparfaites pour bénéficier de l’avis des utilisateurs qui sont sount eux-mêmes des déloppeurs. Lorsqu’un problème est signalé, plusieurs solutions-programmes sont proposées par les déloppeurs de la communauté. Chaque programme fait l’objet d’une évaluation et de commentaires de la part des autres déloppeurs. Finalement, la meilleure solution est retenue sur un principe consensuel. Si ce mode de déloppement n’est pas très économique en temps et en efforts puisque des dizaines de programmes, représentant des centaines d’heures de travail peunt être proposés pour un problème mineur, il permet d’obtenir un logiciel de qualité, très fiable. Chaque déloppeur qui contribue à un logiciel libre oeuvre bénévolement et renonce à ses droits d’auteur : il se contente de voir urer son nom sur la licence du logiciel. Selon Linus Thorval, le coordinateur du projet Linux, ce n’est pas la recherche des honneurs qui fait travailler ainsi autant de déloppeurs sur des projets coopératifs : c’est le plaisir de programmer et surtout le souci de disposer de logiciels performants et adaptés à leur besoin.
Le succès de cette démarche tient aussi à des raisons techniques. Les programmes informatiques sont de l’information codifiée par nature (codage binaire), beaucoup plus aisée à transmettre et à partager que l’information tacite (Winter, 1987). La programmation en commun et le partage “ des codes sources ” ont toujours existé. Mais l'Internet a donné une noulle dimension à ce phénomène, en permettant à des milliers de programmeurs dans le monde entier de s’auto-organiser (abolition des distances) et de travailler ensemble sur des projets ambitieux. Stallmann, fondateur de la FSF, Free Software Foundation qui a pour but de promouvoir les logiciels libres, souligne d’ailleurs que la
philosophie du libre n’est pas tant la copie systématique des logiciels, que l’appropriation collecti des éléments de créativité contenus dans ces logiciels (le code source du programme). L’abandon des droits de propriété intellectuelle, pour surprenant qu’il soit par rapport au système traditionnel des brets et droits d’auteur, peut également s’expliquer. Dans un système classique, les brets ont en général une durée finie, et les droits d’auteurs finissent par disparaitre, pour permettre à la communauté de s’approprier l’information au bout d’un certain temps. Or dans les technologies de l’information les progrès sont si rapides et la capacité à créer de noulles informations si aisée que les brets ont peu de sens, car ils protègeraient trop longtemps quelque chose qui s’avèrerait rapidement obsolète. Dans ces conditions, les seules formes de protection que pratiquent les producteurs de logiciels, sont la compilation des programmes (qui rend le contenu hermétique car codé en langage machine), et leur protection par des méthodes de cryptage, et/ou des contrats de cession locati très restrictifs, donnant lieu à des clauses répressis censées discipliner le comportement des acquéreurs de licence . Les partisans des logiciels libres sont de l’avis que ces méthodes sont antiéconomiques, dans le contexte de progrès rapide des technologies de l’information, et qu’elles interviennent au détriment des consommateurs. Ils proposent donc une production collecti, sans droit de propriété explicite sur le fruit codifié de l’effort (c’est à dire le code source). Une vision pragmatique invite à penser que l’approche des partisans du logiciel libre n’est pas utopique, et peut être réconciliée ac le fonctionnement d’un marché : la marchandisation peut internir en aval ou en complément de la phase de création de l’information codifiée.
La vérile menace vient en réalité des dissensions internes à la communauté des logiciels libres. Il existe une ligne de fracture entre les tenants d’une organisation plus centralisée des projets, autour notamment de la FSF (Free Software Foundation) qui pourrait collecter des fonds et orienter les projets, et les tenants du modèle bazar d’auto-organisation. Des tensions existent aussi sur le choix des licences (GPL ou BSD licence) et sur la place des acteurs marchands dans le déloppement de ses logiciels. Le résultat pourrait être une fragmentation des projets qui nuirait à la crédibilité et la lisibilité des logiciels libres (notamment auprès des entreprises).
3.3) le partage de l’information
Pendant longtemps, les informations de nature scientifique et académique ont représenté l’essentiel des contenus sur l'Internet. Ces informations sont par essence libres d’accès et gratuites, chaque chercheur ayant intérêt à ce que ses travaux soient diffusés le plus largement possible pour recueillir des commentaires d’autres chercheurs et obtenir la reconnaissance de ses pairs. Cette gratuité s’inscrit dans le modèle de concurrence unirsitaire basée sur le nombre de publications “ publish or perish ”.
Ac le déloppement de l’Internet, l’offre d’information est denue abondante et beaucoup plus dirsifiée qu’auparavant. Les informations de nature commerciale (site d’entreprise,) ou ludique (es personnelles, site de dirtissement, ) ont pris une place significati. Toutefois, la plupart de ces informations sont libres d’accès et gratuites, même sur les sites marchands. Plusieurs raisons peunt être avancées à cela. La volonté de reconnaissance et de notoriété ne se limite pas à la communauté scientifique et se retrou chez la plupart des
personnes privées et des entreprises. L'Internet constitue une vitrine et un moyen de promotion . L’information sur l'Internet est ainsi parée de toutes les caractéristiques d’un bien public : non seulement c’est un bien non rival par essence , mais dans la majorité des cas c’est aussi un bien non exclusif (gratuit et libre d’accès). Paradoxalement, cela ne semble pas poser de problème majeur de “ passager clandestin ” . La plupart des utilisateurs trount un intérêt à fournir de l’information publique et à supporter une partie des efforts pour la produire, même si ils sant que tous les autres en bénéficieront gratuitement. De plus, les progrès technologiques, au niau de la numérisation et de la mise en forme des informations, rendent de plus en plus facile et peu coûteuse la production d’informations numérisées. L'Internet contribue donc à abolir la frontière entre celui qui produit et celui qui consomme et permet de faire coïncider l’intérêt privé (se faire connaitre), ac l’intérêt collectif (contribuer à la production d’informations publiquement disponibles).
La gratuité de l’information et son libre accès pose cependant le problème de sa qualité et de sa fiabilité . Même si certains intermédiaires comme les moteurs de recherche, peunt jouer un rôle de sélection et de certification, il n’en reste pas moins que des formes extrêmes de basse qualité peunt exister (thèses révisionnistes, ou rumeurs infondées mettant en cause les personnes physiques ou morales). Au delà de ces cas limites, la régulation de la qualité est en fait assurée par les utilisateurs eux-mêmes. Dans les sites d’information, dès lors qu’un objectif de notoriété est poursuivi, un mécanisme d’“ auto-sélection ” de la qualité se met en place. L’entreprise ou l’individu cherche à donner la meilleure image de soi même, de peur que l’effet accélérateur de diffusion dans l'Internet, ne conduise à un résultat contraire à l’objectif recherché.
Finalement, un site d’information a toujours intérêt à produire de l’information de qualité si il ut exister sur le web. En effet, si il ne fait que consommer des informations d’autres sites sans en produire lui-même ou sans souci de qualité, il ne recevra aucun lien hypertexte d’autres sites. Or, ces liens sont pris en compte par les moteurs de recherche pour évaluer l’intérêt et la qualité d’un site. Un site rs lequel de nombreux sites de qualité pointent, sera plus facilement référencé. A l’inrse, un site ayant très peu de liens n’apparaitra jamais dans les moteurs de recherche. Ce risque d’isolement pour ceux qui ne contribuent pas à l’information est donc un fort stimulant à coopérer. Pour des sites voisins (sur les thèmes, la nationalité, …), les liens hypertextes créent une solidarité et une nécessité de coopération si ces derniers ulent être visibles ou reconnus par les moteurs de recherche et les utilisateurs du Web.
Au total, l’information, gratuite sur l'Internet, n’engendre pas trop de mécanismes opportunistes conduisant à l’effondrement de ce bien collectif. Assurément, les effets de notoriété que peunt trour les acteurs économiques à faire diffuser rapidement et à très faible coût cette information, et la tradition de coopération sans contrepartie financière suffisent à siliser la production de ce bien “ public ”.
4 Conclusion :
Dans cet article, nous avons vu qu’initialement, l'Internet était un réseau d’acteurs non marchands, dominé par des relations coopératis. Ac l’arrivée des entreprises dans les années 90, nombreux sont ceux qui ont pensé que l’Internet allait basculer rs un réseau marchand organisé autour de relations contractuelles fortes, dont l’expression la plus emblématique est le commerce électronique. Or nous avons montré que l’essor de l’Internet s’est accomné d’une dirsité de formes relationnelles, dans lesquelles la coopération et le don occupent une place essentielle : c’est le cas du peering qui est un accord d’interconnexion non contractuel entre opérateurs de réseaux ou du déloppement de logiciels libres qui impliquent des acteurs marchands et non marchands liés par des relations contractuelles de licences. Nous avons vu que ces formes de coopération tiennent aux caractéristiques de l’Internet. Service de réseau, l'Internet s’appuie, comme les télécommunications, sur les “ effets de club ” . Mais gardant les traces d’une communauté d’utilisateurs mus par une volonté coopérati, l'Internet a du mal à susciter une mise en nte de l’information. Directement issu de l’informatique, l'Internet impose aussi un rythme d’évolution technique et des modes de création de normes et de protocoles de communication, fondés sur le partage et l’effort collectif, auxquels cette industrie n’était guère habituée jusqu'à présent.
Bibliographie :
Axelrod, R. (1984), The Evolution of Cooperation, New York, Basic Books.
Arrow K.J. (1962) “ The Economic Implications of Learning by Doing ”, Review of Economic Studies XXIX(2), p155-l73.
Baake, P., T. Wichmann (1998) “ On the Economics of Internet Peering" ” Netnomics 1, 89-l05. Http://www.berlecon.de/tw/peering.pdf.
Bailey J.P., L. McKnight, (1997) Internet Economics, Cambridge, MIT Press, 155-l68.
Bailey, J.P. (1997) “ The Economics of Internet Interconnection Agreements ”, in L. McKnight, J.P. Bailey (Eds.) Internet Economics, Cambridge, MIT Press, 155-l68.
Dang-Nguyen, G., T. Pénard (1999) “ Interconnection between ISPs, Vertical Differentiation and Capacity Constraints ”, Document de travail ENST Bretagne.
Friedman E., Resnick P. (2001). "The Social Cost of Cheap Pseudonyms." Journal of Economics and Management Strategy 10(2): 173-l99
Hauben, M., Hauben (1998). “ Netizens : On the history and impact of Usenet and the Internet ” Firstmonday Journal of Internet, Vol. 3, N°7, https://www.firstmonday.dk/issues/issue3_7/.
Hardin, G. (1968) « The Tragedy of Commons », Science 162, 1243-l248.
Huston, G. (1999) “ Internet, Peering and Settlements” http//:www.telstra.net/peerdics/peer.html
Kavassalis P., Solomon, (1997) “ Mr Schumpeter on the Telephone ” Communications et Stratégies 26, 371-408.
Kavassalis P., Lehr W. (1998) “ Forces for Integration and Disintegration on the Internet ”, Communications et Stratégies 31, 135-l54.
Kollock, P. & M. Smith (1996) « Managing the Virtual Commons : Cooperation and Conflict in Computer Communities », http ://www.sscnet.ucla.edu/soc/faculty/kollock/papers/vcommons.html
Kollock, P. & M. Smith (1999) Communities in Cyberspace, London : Routledge.
Olson, M. (1965), « The Logic of Collecti Action, Cambridge », MA, Harvard Unirsity Press.
Raymond, E. (1998) “ The Cathedral and Bazaar ”, FirstMonday Journal of Internet, vol.3, N°3, http ://www.fisrtmonday.dk/issues/issue3_3/.
Srinagesh, P. (1997) "Internet Cost Structures and Interconnection Agreements", in L. McKnight, J.P. Bailey (Eds.) Internet Economics, Cambridge, MIT Press, 121-l54.
Winter S. (1987) : “ Knowledge and Competence as Strategic Assets ” in D. Teece (Ed.) The Competiti Challenge, Ballinger.