Informations d'accessibilité| Page d'accueil| Aller au contenu| Plan du site| Moteur de recherche| Contact

Association Francophone des Utilisateurs de Logiciels Libres

French speaking Libre Software Users' Association

Promouvoir les logiciels libres ainsi que l'utilisation de standards ouverts.

Logiciels Libres et Entreprises

Bernard Lang

Logiciels Libres et Entreprises

25 septembre 1999
Bernard Lang

INRIA - AFUL

En guise d'introduction.

Comment un mathématicien va-t-il cuire un oeuf dur, avec à sa disposition un oeuf cru, une casserole vide, un robinet et un réchaud ? Tout simplement en remplissant la casserole d'eau, en la faisant chauffer et en laissant l'oeuf dans l'eau bouillante pendant une dizaine de minutes. Mais tout l'intérêt de cette question réside dans un second problème où le mathématicien dispose d'un oeuf cru, d'un robinet, d'un réchaud et d'une casserole d'eau bouillante. La réaction de tout bon mathématicien est instantanée : il jette l'eau bouillante, vidant ainsi la casserole pour se ramener au problème précédent.

Cette histoire caricature à peine l'évolution actuelle de notre système économique. Ses règles ont été longuement élaborées et raffinées pour optimiser le développement économique et technique, dans un univers de production et de consommation contraint par la pénurie ou par les coûts de production et de distribution.

Or l'économie moderne repose, pour une part toujours croissante, sur des productions immatérielles pour lesquelles ces contraintes ont largement disparu. Grâce à l'informatique et à l'Internet, les coûts marginaux de production comme les coûts de distribution sont quasiment nuls. Or, plutôt que de repenser les structures économiques et les règles qui les régissent, on constate que, pour des raisons qui semblent relever de la pure idéologie, les responsables politiques et économiques choisissent de jeter l'eau bouillante, c'est-à-dire de rematérialiser l'immatériel par des combinaisons des procédures techniques (encryptage, filigranne) et juridiques (brevets, interdiction de certains outils), afin de se ramener au problème précédent.

Malheureusement, ou heureusement, cela n'est sans doute pas viable à terme. En effet, même si l'on réussit ainsi à rétablir une certaine pénurie et à maintenir, temporairement, les vieilles structures économiques, on ne peut plus stabiliser les marchés sur des coûts marginaux qui sont devenus nuls. En outre, on peut se poser la question de savoir si, avec cette nouvelle donne de l'immatériel, ce sont toujours les vieilles recettes qui optimisent le développement économique et technique.

Les ressources libres

En dehors des ressources immatérielles protégées depuis 2 à 4 siècles par le brevet ou le droit d'auteur, il existe d'autres ressources, techniquement et économiquement essentielles, mais qui restent librement utilisables, notamment celles qui constituent les connaissances scientifiques.

Le monde de la connaissance scientifique est lui-même une structure économique où l'on échange des biens tels que connaissance, renommée, attention, voire des biens plus matériels, et dont le but est l'accroissement du savoir humain. Les mécanismes moteurs et régulateurs de cette économie sont fondés sur une libre circulation et réutilisation de l'information, sur le jugement des pairs, la liberté de chacun de reprendre, amender, déformer, reformuler, étendre les contributions existantes, avec pour seuls objectifs le développement de connaissances nouvelles et l'amélioration, le perfectionnement, des connaissances acquises. Le rôle de la libre diffusion est dans ce contexte tellement important que cette diffusion de la connaissance devient un objectif en soi.

On ne peut que prendre acte de ce que ce modèle a parfaitement rempli son rôle. Si bien que, dès les années 1980, il a été proposé par Richard Stallman de le reprendre pour le développement des logiciels informatiques. Sans même recourir à de récents résultats de logique qui établissent qu'un programme informatique est une entité de même nature qu'une preuve mathématique [1], on constate empiriquement que les programmes informatiques se développent dans un contexte semblable à celui de la connaissance scientifique : rôle prépondérant de la matière grise sur l'investissement, grande complexité, nécessité d'une décomposition modulaire permettant de réutiliser des résultats (programmes) en faisant confiance à leurs auteurs, techniques et résultats toujours perfectibles par les contributions et les critiques des pairs, et surtout possibilité de réutiliser à l'infini, sans coût supplémentaire, un résultat (programme) obtenu.

C'est ainsi qu'une communauté d'informaticiens a depuis 20 ans entrepris de développer des ressources informatiques libres [2], les logiciels libres, caractérisés principalement par :

  • la liberté de diffusion
  • la liberté d'utilisation
  • la liberté de modification

Ce mouvement a en outre été favorisé aux États Unis par la réglementation fédérale qui impose ce statut aux produits financés par l'argent public.

Il est important de comprendre que l'expression de ces 3 libertés se décline juridiquement bien sûr, sous forme de license de distribution, mais aussi techniquement en fournissant en particulier les ressources immatérielles nécessaires à la modification de ces logiciels : documentation et code source.

Cependant, limitée aux trois règles ci-dessus, une ressource libre n'est guère différente d'une ressource dans le domaine public. Le principal «problème» est qu'il s'agit d'une caractéristique non transmissible. Tout acteur qui effectue une modification peut prétendre à la propriété de la version modifiée, et détruire ainsi la dynamique de libre circulation et de libre contribution, et même la motivation de contributeurs éventuels. Les promoteurs privés du logiciel libre ont donc fait oeuvre juridique originale en utilisant le droit d'auteur pour protéger également le libre usage des évolutions successives de leurs créations : ils ont ainsi conçu une license de distribution, dite License Publique Générale (GPL) [3], qui spécifie que les 3 droits ci-dessus ne sont conférés qu'à la condition expresse que les bénéficiaires les reconduisent sur les oeuvres dérivées, tant sur le plan juridique que sur le plan technique. Notamment cela impose que toute diffusion soit accompagnée des documents nécessaires à la mise en oeuvre et à la modification.

On constate empiriquement 20 ans plus tard que les mêmes mécanismes, qui ont présidé à l'incontestable succès de la science occidentale, produisent effectivement aujourd'hui - et pas seulement en milieu universitaire - des produits informatiques de grande qualité qui concurrencent avec succès ceux des plus grands acteurs du marché.

Ce succès a été longuement analysé sur le plan technique, notamment dans l'essai d'Eric Raymond, «La cathédrale et le Bazar» [4] ou dans les rapports internes de la société Microsoft, dits «rapports Halloween» [5].

Mais le succès technique et la qualité ne sont pas tout. L'acceptation actuelle, voire parfois l'engouement - le logiciel Apache, par exemple, détient 56% de son marché [6], et Linux est la plate-forme serveur qui a la plus forte croissancem [7] -, de ces produits par les acteurs économiques impliquent la satisfaction de nombreux critères non techniques, de nature économique ou industrielle.

L'informatique propriétaire

L'industrie du logiciel présente une grande variété de situations, due elle-même à la très grande variété des logiciels, en complexité, en rôle, en taille du produit ou du marché. Nous nous intéressons ici au secteur de l'édition de logiciels, c'est-à-dire aux logiciels à moyenne ou grande diffusion, par opposition aux logiciels très spécialisés qui relèvent plus du secteur des services que de celui de l'édition.

Une caractéristique clairement observable de ce secteur est la tendance à l'instauration de monopoles, que ce soit pour les systèmes d'exploitation, les bases de données, les routeurs, les logiciels de gestion, les moteurs multimedia, voire même dans des marchés de niche comme la gestion des cabinets dentaires.

Cette tendance au monopole s'explique en fait facilement par des phénomènes de rendements croissants dûs principalement à la combinaison de deux causes :

  • la nullité des coûts marginaux qui permet des économies d'échelle considérables pour les acteurs dominants.

  • le rôle prépondérant et massif des externalités de réseau [8]. Ces externalités se manifestent en amont quand les fournisseurs ou contributeurs (producteurs de composants matériels, d'applications ou de «plug-ins») favorisent les plates-formes les plus populaires qui représentent un marché plus important. Elle sont également présentes en aval en raison du conformisme raisonné des clients autour des produits dominants ou pressentis comme tels, parce que cela paraît une garantie de pérennité - l'on confond souvent pérennité des sociétés et pérennité de leurs produits - et parce qu'il est plus facile de trouver du personnel formé ou de l'assistance technique pour les produits les plus populaires, même s'ils ne sont pas techniquement les meilleurs.

En outre, un acteur dominant a généralement le moyen de contrôler, juridiquement (par le droit d'auteur, le «copyright» ou les brevets) ou techniquement (par le secret ou le glissement temporel des spécifications [9, 10]) les protocoles de communications, les formats de données ou les interfaces hommes-machine, qui deviennent des standards de faits. Il peut ainsi contrôler l'accès au marché de ses concurrents, voire de ses partenaires.

Cette dérive monopolistique présente nombre d'inconvénients évidents :

  • un moindre effort de recherche et d'innovation, voire un bridage des recherches effectuées par des tiers, dans un secteur où ce sont généralement les petites entités ou les individus qui innovent parce que l'investissement en capital est négligeable au regard de la matière grise.

  • un manque de diversité «écologique» du tissus technologique, d'où une plus grande vulnérabilité aux agressions (virus et pirates par exemple) [11], qui inquiète de plus en plus les décideurs, et en particulier les gouvernements. Ce manque de diversité risque aussi conduire à des culs de sac techniques, pouvant imposer des reconversions coûteuses.

  • absence de pérennité des normes officielles ou des «standards» de faits, soumis au bon vouloir des acteurs dominants, d'où en particulier le risque d'un manque de pérennité des données archivées et de la mémoire des organisations.

  • absence de pérennité des logiciels eux-mêmes, soumis à la stratégie discrétionnaire de l'acteur dominant.

  • dépendance des clients et de nombreux autres partenaires économiques, tant pour les prix [12] que pour la satisfaction de besoins spécifiques. Cet aspect est particulièrement critique si l'on se rappelle que l'informatique est le système nerveux de l'entreprise [13].

  • dépendance du client pour sa stratégie industrielle si les logiciels sont intégrés à des produits, sans alternative en cas de conflit avec le fournisseur.

  • difficulté de sécuriser un système dont on ne connait pas les spécifications internes, et risque avéré de diffusion de code piégé [14, 15].

Nombre des problèmes évoqués sont liés au secret de la fabrication des logiciels, la non diffusion des codes sources et de la documentation, assortis généralement de l'interdiction légale de procéder à un «retro-engineering» (désassemblage ou décompilation), ce qui serait de toutes façons extrèmement coûteux.

Même dans les situations qui restent concurrentielles, le modèle commercial propriétaire, sans diffusion des sources (ou même souvent avec disponibilité contrôlée des sources) continue à présenter plusieurs des inconvénients cités, auxquels viennent s'ajouter :

  • une absence de pérennité liée non seulement aux décisions des entreprises, mais aussi aux avatars de leur existence. La non-disponibilité des données nécessaires à l'entretien des logiciels peut se révéler catastrophique si l'on sait que le fournisseur peut parfois disparaître, ou perdre ces informations. Le bug de l'an 2000 en a fourni des exemples.

  • une absence fréquente de standardisation effective due à la recherche de marchés captifs, ou même simplement à l'évolution divergente de logiciels initialement semblables (UNIX par exemple), dans un contexte où chaque acteur se doit de procéder à des développements indépendants.

Remarquons aussi que le secteur de l'édition de logiciel est fort peu créateur d'emplois, notamment au regard de ses profits et de sa capitalisation boursière [16], à la différence évidente du secteur des services informatiques.

Les logiciels Libres et l'entreprise

S'ils sont clairement issus du monde universitaire et de son éthique de la connaissance, les logiciels libres ont très rapidement pénétré le monde de l'entreprise, en raison de leurs qualités techniques - dont l'analyse sort du cadre de cette présentation - et de leur flexibilité d'emploi. Ainsi, dès la fin des années 1980, nombre d'outils logiciels libres étaient utilisés sur les plates-formes de type Unix (traitement de documents, environnements de programmation, compilateurs). Les promoteurs de ces logiciels, conscients de l'importance des synergies avec le monde de l'entreprise, avaient d'ailleurs fait évoluer la GPL en créant la LGPL [17], Licence Publique Générale pour les Bibliothèques, de façon à mieux encadrer la notion de logiciel dérivé, et permettre ainsi aux entreprises de créer des produits propriétaires compatibles avec un contexte de produits libres.

Les logiciels libres, par nature, échappent aux problèmes évoqués dans la section précédente. Il n'est bien entendu plus question de monopole de la production puisque tout un chacun est libre de faire évoluer et de redistribuer le logiciel. Contrairement à ce que l'on pourrait craindre, l'expérience montre que cette liberté n'entraîne pas de divergence technique significative. Cela est sans doute dû à ce que les meilleures solutions à chaque problème sont librement réutilisables par tous et s'imposent donc de façon uniforme, et aussi à la pression des communautés d'utilisateurs qui ne se fient généralement qu'à un petit nombre de concepteurs ou de distributeurs dont la réputation est bien établie, comme le montre l'exemple du système d'exploitation Linux. De plus l'existence de cette concurrence dans le développement de chaque aspect d'un logiciel, sanctionnée exclusivement par la qualité des résultats, est l'un des facteurs qui assurent l'excellent niveau technique des logiciels libres.

Toute organisation ou personne utilisant des logiciels libres a la maîtrise complète de ses outils, de leur mise en oeuvre ou de leur adaptation à des besoins spécifiques, soit en assurant elle-même les tâches à accomplir, soit en les confiant à un prestataire de service de son choix. L'un des effets est donc de remplacer une industrie d'édition, peu créatrice d'emplois et fournissant une ressource peu flexible, par des activités de services permettant une meilleure adaptation des ressources techniques aux besoins spécifiques. Pour les besoins courants, la maintenance et l'adaptation des logiciels libres est assuré par la communauté des développeurs qui ne sont généralement qu'un sous-ensemble actif des utilisateurs universitaires ou industriels.

C'est aussi l'existence de cette communauté ouverte et son examen permanent des codes sources qui y garantit l'absence de pièges et chevaux de Troie.

Le faible coût des solutions informatiques libres permet aux petites PME d'accéder plus facilement à l'informatisation de leur activité et de devenir ainsi plus compétitives. Et ces entreprises étant de loin les plus nombreuses, cela élargit d'autant le marché pour les prestataires de services informatiques.

En ce qui concerne les entreprises, de plus en plus nombreuses, qui incorporent des logiciels dans leurs produits, l'utilisation de ressources libres leur permet de maîtriser complètement la source de leur matière premiere, et donc leur stratégie industrielle. En outre, sa gratuité effective - même si elle ne fait pas partie des axiomes fondateurs - permet d'abaisser substantiellement les coûts et donc d'améliorer la compétitivité. C'est d'ailleurs, avec les serveurs d'entreprise et les serveurs du Web, l'un des secteurs où la croissance industrielle de l'usage des logiciels libres est la plus forte [18], pour les raisons exposées ci-dessus, et aussi parce que dans ce contexte les externalités de réseau sont les plus faibles.

La création de logiciels libres

Une critique fréquemment formulée au sujet de ce modèle de développement concerne sa viabilité économique. Il semble peu crédible que la bonne volonté des universitaires et de quelques ingénieurs suffise à satisfaire la diversité des besoins du monde industriel. C'est peut-être vrai - encore que la réalisation du système Linux est impressionante -, mais la création de logiciels libres s'est maintenant largement étendue aux entreprises et à d'autres organisations. Il est probablement prématuré d'analyser ce phénomène en pleine mutation, dont les succès ou les échecs sont pour la plupart encore à venir, mais on peut déjà identifier un certain nombre de mécanismes et de motivations qui favorisent cette évolution.

Depuis un dizaine d'années on voit apparaître des entreprises explorant des modèles de développement divers combinant la création et le service pour les logiciels libres, comme Cygnus, Ada Core Technologies, ou Aladdin, et dont quelques unes ont une croissance honorable. La liberté du logiciel est souvent pour elles un moyen de mieux diffuser un produit pour lequel elles ont une expertise reconnue, et monnayable de diverses façons, comme le développement à façon ou la vente de nouvelles versions temporairement non libre de leurs produits.

Une autre source de logiciels libres provient d'entreprises ou d'organisations qui développent des logiciels pour leurs besoins propres, sans qu'ils aient un rôle important dans leurs activités compétitives. Ces organisations ont alors intérêt à mettre ces logiciels à la disposition de tous pour bénéficier des améliorations qui pourront y être apportées par d'autres utilisateurs. Il s'agit en fait tout simplement d'amorcer un méchanisme de mutualisation des coûts de développement d'une ressource utile.

Le partage d'un même fournisseur par plusieurs clients n'est souvent rien d'autre qu'une telle mutualisation des coûts. Cependant, compte tenu des risques de dérive monopolistique, on peut penser que, surtout pour des ressources critiques, la mutualisation des coûts peut être mieux assurée par le financement en commun de ressources libres, en jouant dans le cas du logiciel sur l'absence de coûts marginaux. C'est très précisément le raisonnement d'un consortium de douze grandes multinationales impliquées dans la réalisation de produits contenant des logiciels embarqués, et qui a fait réaliser par la société Cygnus le système d'exploitation libre eCOS destiné à promouvoir un standard commun [19].

La volonté de stabiliser et de pérenniser des standards est d'ailleurs un grand pourvoyeur de logiciels libres. Le ton fut initialement donné par l'IETF (Internet Engineering Task Force) qui structura et dynamisa le développement de l'Internet par la spécification de protocoles standardisés, dont la viabilité et la diffusion étaient assurées par l'existence d'implémentations libres. Le consortium W3C qui préside au développement du Web continue à encourager cette approche. Mais on peut aussi classer dans la même catégorie :

  • la «libération» du navigateur de Netscape, essentiel pour éviter la mainmise de Microsoft sur les protocoles du Web, et de là sur le marché des serveurs puis des services en ligne;
  • la «libération» du compilateur Jikes d'IBM pour le langage Java qui en se diffusant peut garantir l'indépendance de ce langage dont le rôle devient prépondérant dans les systèmes d'information;
  • les interprètes libres du format MP3, destinés à assurer la survie de ce format audio contre la volontée de quelques grands éditeurs de musique.

Les logiciels libres ont montré que la présence d'une large communauté d'utilisateurs/développeurs est le meilleur garant de pérennité qui soit. Ce message a maintenant été reçu par un certain nombre de grandes entreprises qui veulent utiliser ce modèle, ou l'on déjà fait, pour pérenniser des logiciels qui ne s'inscrivent plus dans une stratégie commerciale d'éditeur mais qu'elles souhaitent néanmoins préserver [20], par exemple en raison de l'existence d'une base installée ou pour maintenir une activité de service. Il ne faut cependant pas croire que la simple «libération» est une recette miracle. Il est impératif qu'une telle entreprise soit structurée par l'équivalent d'un «business plan» destiné à susciter la création d'une communauté susceptible d'assurer la pérennité recherchée.

L'avenir ?

En dépit d'une idéologie ambiante résolument hostile a priori, le développement des logiciels libres montre que ce modèle ancien et efficace de création de richesses peut jouer un rôle essentiel dans certains secteurs immatériels de l'économie moderne. En s'opposant aux dérives monopolistiques et au secret industriel qui rigidifient les marchés et stérilisent le développement technologique, ces ressources libres sont un ferment de la croissance. Citons la revue Stratégie Télécoms & Multimédia (27/08/99) : « L'envolée des logiciels libres s'est étendue récemment au marché des logiciels du domaine des télécommunications par la création de «Open Source for Open Telecom», [...] . Les exploitants ont été contraints de s'intéresser à cette nouvelle démarche qui dynamise le marché et augmente les échanges à moindre coût.»

Il est cependant évident que cette situation ne fait pas nécessairement le bonheur de tous les acteurs, et que les avantages économiques et technologiques de cette libéralisation ne sont pas encore bien perçus comme l'une des données essentielles du développement de l'économie moderne. On ne peut donc que s'inquiéter de voir se renforcer les lobbies et les legislations [21] qui veulent élever les barrières protectionnistes des brevets en matière de logiciels informatiques, que ce soit pour des raisons idéologiques, par ignorance des enjeux, pour défendre des intérêts corporatistes, ou par volonté clairement exprimée de bloquer le développement des logiciels libres [22, 23,5].

Les brevets ont été institués pour dynamiser le développement des techniques, en favorisant leur découverte, leur dissémination ou leur exploitation dans l'intérêt général. Ils consistent en l'octroi par la puissance publique d'un monopole destiné à motiver ces processus et/ou à en compenser financièrement les coûts, monopole qui est lui-même un coût imposé à la société. Leur efficacité et leur utilité sont donc très dépendantes des motivations des acteurs et des conditions sociologiques et économiques dans lesquelles ces trois processus se réalisent, et notamment la nature des investissements et des infrastructures nécessaires (qui sont généralement très faibles dans le cas des logiciels) [24]. Il est donc extrèmement imprudent d'aller contre le principe reconnu depuis toujours de non-brevetabilité des créations immatérielles [25], sans même avoir analysé longuement - et cela n'a guère été fait - les conséquences durables d'une telle évolution, notamment en ce qui concerne les équilibres du marché.

Références et notes

[1] W.A. Howard, The formulae-as-types notion of construction, in " To H.B. Curry : Essays on Combinatory Logic, Lambda Calculus and Formalism ", J.P. Seldin et J.R. Hindley, Academic Press, 1980.

[2] Le terme «libre» correspond en anglais à «open source» [http://www.opensource.org/] ou à «free» [http://www.fsf.org/], au sens de «libre» et non au sens de «gratuit». Le choix entre ces deux termes en anglais relève plus de questions de linguistique ou de marketing, que d'une difference technique significative. L'antonyme de «libre» est «propriétaire» utilisé comme qualificatif. Les deux types de logiciels peuvent êtres commercialisés.

[3] Free Software Fundation (FSF) : « GNU General Public License (GPL) », Version 2, juin 1991. [http://www.fsf.org/copyleft/gpl.html]

[4] Eric S. Raymond : « The Cathedral and the Bazaar », First Monday, Vol.3 No.3, mars 1998. http://www.firstmonday.org/issues/issue3_3/raymond/index.html Traduction française de Sébastien Blondeel : http://www.linux-france.org/article/these/cathedrale-bazar/cathedrale-bazar_monoblock.html

[5] Vinod Valloppillil : « The Halloween Documents » Rapports internes, Microsoft Corp., Août 1998. [http://www.opensource.org/halloween/]

[6] Netcraft : « The Netcraft Web Server Survey » [http://www.netcraft.co.uk/survey/]

[7] Stephen Shankland : « Linux shipments up 212 percent », CNET News, 16 décembre 1998. [http://www.news.com/News/Item/0,4,30027,00.html]

[8] Nathan Newman : « From Microsoft Word to Microsoft World: How Microsoft is Building a Global Monopoly », NetAction, 1997. [http://www.netaction.org/msoft/world/]

[9] Robert X. Cringely : « Why the Right Price for Your Next PC is Nothing », The Pulpit, 3 septembre 1998. [http://www.pbs.org/cringely/pulpit/pulpit19980924.html]

[10] Roger Irwin : « Shifting Standards », November 1998. [http://www.geocities.com/SiliconValley/Hills/9267/sstactics.html]

[11] Jamais Cascio : « The ecology of computer viruses », Salon Magazine, 7 avril 1999. [http://www.salonmagazine.com/tech/feature/1999/04/07/melissa/print.html]

[12] Jesse Berst : « Windows pricing could be the smoking gun », ZDNet AnchorDesk, 13 avril 1998. [http://www.zdnet.com/pcweek/opinion/0413/13berst.html]

[13] Microsoft : « Bill Gates Keynotes Worldwide Developer Conference », Microsoft PressPass, 2 septembre 1998. [http://www.microsoft.com/presspass/press/1998/sept98/devancpr.htm]

[14] Andrew Fernandes : « Microsoft, the NSA, and You », Press Release, Cryptonym Corporation, 3 septembre 1999. [http://www.cryptonym.com/hottopics/msft-nsa.html]

[15] Duncan Campbell : « NSA Builds Security Access Into Windows », CMP's TechWeb, 9 mars 1999. [http://www.techweb.com/wire/story/TWB19990903S0014]

[16] Microsoft Corporation : « Microsoft Fast Facts », juin 1999. [http://www.microsoft.com/presspass/fastfacts.htm]

[17] Free Software Fundation (FSF) : « GNU Library General Public License (LGPL) », Version 2, juin 1991. [http://www.fsf.org/copyleft/lgpl.html]

[18] RHI Consulting : « Survey says future looks bright for LINUX technology », Press release, 28 septembre 1999. [http://www.rhiconsulting.com/jobsRHIC/About_RHIC/092899.html]

[19] Cygnus Solutions : « eCos - embedded Cygnus operating system », 1999. [http://www.cygnus.com/ecos/]

[20] Bull : « Bull supports open source initiative with source code for Enterprise JavaBeans (EJB) platform », Communiqué de presse, 24 juin 1999. [http://www.openmaster.com/press/releases/pr_990624_ejb.htm]

[21] UNDP, United Nations Development Program, « Human Development Report 1999 », Oxford University Press, 1999. [http://www.undp.org/hdro/index2.html]
« The relentless march of intellectual property rights needs to be stopped and questioned »

[22] La Commission européenne : « Brevets: la Commission expose les grandes lignes d'un plan de mesures ambitieux », 12 février 1999. [http://europa.eu.int/comm/dg15/fr/intprop/indprop/99.htm]

[23] Didier Lombard : « Le Brevet pour l'Innovation », Synthèse du rapport Lombard, mars 1998. [http://www.evariste.anvar.fr/inpi/pi980121.html]

[24] Jean-Paul Smets : « Software Useright: Solving Inconsistencies of Software Patents », septembre 1999. http://www.smets.com/it/policy/useright/

[25] « Convention sur la déliverance de brevets européens », article 52, 5 octobre 1973. [http://www.european-patent-office.org/epc97/epc97-f.htm#ar52]

[26] Jean-Paul Smets et Benoît Faucon : « Logiciels libres - Liberté, égalité, business », Edispher, Paris 1999. http://www.freepatents.org/liberty/


Bernard Lang <Bernard.Lang@inria.fr> est directeur de recherche à l'INRIA, Institut National de Recherche en Informatique et en Automatique, http://www.inria.fr.
Il est également secrétaire fondateur de l'AFUL, Association Francophone des Utilisateurs de Linux et des Logiciels Libres, http://www.aful.org.