error 404

Aller au contenu | Aller au menu | Aller à la recherche

dimanche 21 avril 2013

De la neutralité du Net

Le Conseil National du Numérique a organisé mardi dernier une présentation de ses travaux sur la "Neutralité du net" à la Cantine, à Paris. Quatre représentants du nouveau CNNum faisaient face à une audience fournie. Les geeks, IRL ou URL, étaient particulièrement représentés. Rédigé à la demande du gouvernement, suite à "l'affaire Free", l'avis rendu le 1er Mars est assez court. D'une trentaine de lignes, il énonce principalement que :

"le principe de neutralité doit être reconnu comme un principe fondamental nécessaire à l’exercice de la liberté de communication et de la liberté d’expression et [doit être inscrit] dans la loi au plus haut niveau de la hiérarchie des normes"

Comme l'a mentionné au cours de la présentation Christine Balagué, une des membres du collège ayant rédigé l'avis (et le rapport préparatoire), la mission conférée au CNNum n'était évidemment pas de faire la loi. Néanmoins, on pourra regretter la brieveté de l'avis, comme celle du rapport, qui se cantonne à des domaines très conventionnels. D'où une interrogation sur ce que recouvre cette neutralité, et les enjeux qu'un tel concept sous-tend.

Lors de la présentation de l'avis, le président du CNNum a déploré que la neutralité du net n'intéressait principalement que les geeks, et pas d'autres catégories de la population. Comme en écho, lui répondait quelques semaines plus tôt Bluetouff devant Manhack, "à force d'agresser leur environnement, les hackers sont entrés en politique". Il est vrai que le domaine est très technique, et que les compétences du législateur en la matière sont assez faibles. IRL, si l'on considère le nombre de lois retoquées au Conseil Constitutionnel, il y aurait également matière à questionnement sur d'autres sujets. Mais je m'égare. 

Une citation de Tim Wu, extraite de sa communication dans le Journal of Telecommunications and High Technology Law (2003) introduisait la problématique.

"Au cours de la prochaine décennie, les conflits entre les intérêts privés des fournisseurs de haut débit et l'intérêt du public vont mobiliser l'attention croissante des régulateurs de télécommunications."

Tim Wu, professeur de droit à l'Université d'Harvard, est l'un des premiers à avoir théorisé la net neutrality. En bon disciple de Lawrence Lessig, entre autres, Wu s'est spécialisé dans le droit dérivé de la technologie internet, soit le copyright, la liberté d'expression, les télécommunications...

 

Au cours de la discussion ont souvent été abordés deux thèmes : l'égalité et la liberté. Ne manquait que la fraternité, et la Cantine devenait le Club des Jacobins. Cela n'a pas l'air, mais j'y reviendrai.

L'égalité, c'est le principe fort de la neutralité du net : la non discrimination de l'information. Pour faire court, quelle que soit la nature de la donnée transportée par le réseau, celui-ci ne doit la traiter que selon le principe premier de l'internet , le "best effort delivery". La neutralité des réseaux, énoncée par Wu et acceptée par tous depuis, est que :

"The idea is that a maximally useful public information network aspires to treat all content, sites, and platforms equally"

Le deuxième point tient tant des exigences démocratiques (la liberté d'expression) qu'il découle techniquement de la non discrimination des contenus : la liberté de circulation de l'information doit être garantie dans le Réseau. Pour paraphraser une citation du rapport "toutes les informations circulent libres et égales en droit". Ce que l'on oublie un peu trop, c'est que le présupposé de Wu est qu'Internet est un réseau d'information public. Pourtant, si les protocoles qui le portent sont libres de droit (qu'en serait-il autrement?), il est opéré de part en part via des opérateurs privés. Dans les faits, tout le monde et personne possède Internet. C'est ainsi, que de façon latente, apparaît ce qu'Habermas a discuté dans son essai : la création d'un espace public. Espace public dont les sujets ne seraient plus juste des humains, mais des données.

Le principe de la neutralité du net, c'est que la donnée puisse librement transiter dans le Réseau, et, subséquemment, qu'elle ne puisse pas être altérée; c'est-à-dire que quelle que soit la source de la création de cette information, sa propriété première, sa véracité (la non modification de son état "à la création") doit pouvoir être garantie par le Réseau. Lawrence Lessig, (in Code is Law, paru en 2006), l'a très exactement résumé :

"The issue here is how the architecture of the Net - or its "code" - becomes a regulator. In this context, the rule applied to an individual does not finds its force from the threat of consequences enforced by the law - fines, jail, or even shame. Instead, the rule is applied to an individual through a kind of physics".

 

Le démiurge

L'homme a une fâcheuse tendance à reproduire son environnement. Non qu'il manque d'imagination, mais la limite de ses capacités réside dans sa perception du monde. Il est plus facile de concevoir ce que l'on peut imaginer (et réciproquement).

L'homme, cet ultime maillon de l'évolution cellulaire (selon Darwin), a d'abord appris à vivre dans son environnement. Hostile, il a muté. Il a aplanit les difficultés, comme les montagnes à coup de TNT, domestiqué les éléments, en comprenant "comment ça marche". La dernière étape – actuelle - est sa capacité à jouer au démiurge. Il joue donc avec la vie (cellules souches, nanotechnologies) et avec ses propriétés. il joue également avec son environnement. Ce qui nous amène à la neutralité des réseaux.

L'homme a appris à communiquer, bâtissant une société à mesure qu'il la signifiait. Des langages, des codes, des structures, chaque pierre apportant un développement suivant. Sans alphabet, pas de Saintes Ecritures. Sans codes, pas d'organisation de la cité. Sans imprimerie, pas de Réforme (et de diffusion de la langue vernaculaire). Du code, il en a produit depuis les alphabets aux codes informatiques, en passant par la mathématique. Ces codes forment un langage, normé, cohérent, qui décrivent un environnement, ses propriétés. Ces codes sont un moyen d'échange et de compréhension mutuelle, ils forment la communication.

Chaque invention humaine procède d'une autre. Chaque progrès technique dépend d'une compréhension, laquelle est décrite, discutée, normée. Chaque invention humaine a une documentation, des manuels d'utilisation, des règles propres. Le dictionnaire décrit les mots. L’étymologie leur prête un sens.

De son environnement maîtrisé, il est deux choses que l'homme n'a pu contraindre : les propriétés intrinsèques de soi, et celles de son environnement. Ainsi, les propriétés physiques de l’éther, la vitesse de la lumière, le nombre d’Avogadro, la constante de Planck... Ainsi, la division cellulaire, la réplication de l'ADN, la spécialisation des parties du cerveau.  

Ces propriétés physiques permettent à un individu d'appréhender une réalité objective. Si ses capteurs - les 5 sens - ne sont pas déréglés, ni son processeur central - le cerveau -, alors il ne souffre d'aucune distorsion de la réalité. Ce que l'individu voit dans l’éther existe. Même un mirage existe, il est le résultat des propriétés physiques de l'air, dans des conditions particulières.  Ce que l'individu entend existe, ce n'est que le résultat de la propagation d'une onde sonore dans un mélange gazeux dont toutes les propriétés physiques sont connues.

L'environnement ne ment pas, car ses propriétés ne sont pas modifiables.  Les avancées technologiques sont en train de modifier tout cela. La plus proche de nous est bien évidemment la recréation d'un éther. Internet est un éther, construit par l'homme. C'est en cela que le sujet est d'importance.

Internet est né de la volonté de chercheurs de créer un espace de liberté, non rigide, ouvert et de pair à pair. Comme le note Manuel Castells (in La Galaxie Internet) :

"le véritable exploit d'Internet est d'avoir instauré ce mode de gouvernement relativement stable sans succomber à la bureaucratie [...] ni au chaos qui menace sa structure décentralisée. S'il a échappé à ces deux écueils, le mérite en revient essentiellement à ces gentlemen de l'innovation technologique - Cef, Kahn, Postel, Berners-Lee et bien d'autres - qui ont vraiment eu le souci de maintenir le réseau ouvert à leurs pairs afin d'apprendre et de partager. C'est par un conception communautaire de la technologie que l'élite méritocratique a rencontré la contre-culture utopique pour inventer internet et lui conserver son esprit initial de liberté : c'est ainsi qu'Internet est avant tout une création culturelle."

Internet est un espace physique, calqué sur la communauté humaine. En choisissant d'implémenter un processus de type best effort delivery, les pères fondateurs ont garanti techniquement la résilience du Réseau, dans une architecture end-to-end ("l'intelligence est aux extrémités"). La contrainte technique (condition sine qua non de la Darpa), s'est muée en une "loi" morale. Le réseau doit délivrer l'information; toute atteinte peut être considérée comme une censure. La liberté d'expression des hommes est de fait traduite techniquement par le code.

Les attaques contre le réseau sont actuellement de deux ordres : l'un venant des Etats, l'autre du système marchand. Cette tension prend sa source dans une relative perte de souveraineté de la puissance publique, contre le public, ainsi que dans la transformation de la communication - l'échange de données - en marchandise.

 

Politique VS Economie VS Espace Public

Jeremy Rifkin, dans l'Age de l'accès, de citer Jean-Marie Guehenno quant à la fin de l'Etat/nation :

"A l'ère des réseaux, la relation des citoyens au politique est en concurrence avec l'infinité des connexions qu'ils établissent en dehors de lui. Par conséquent, la politique, loin d'être le principe organisateur de la vie en société, apparaît comme une activité annexe, voire une construction artificielle peu adaptée à la résolution des problèmes pratiques du monde moderne".

Un point de vue partagé par Eric Schmidt et Jarod Cohen, dans un article intitulé The Digital Disruption, qui avance l'apparition d'un "pouvoir interconnecté", fait de citoyens sur le réseau - à l'image de la presse, regroupée dans le fameux "4ème pouvoir" -  lequel s'oppose aux pouvoirs constitués.

On peut penser Internet comme la création des villes en Europe, qui culminera au Traité de Westphalie. Autonomie, liberté, constitution d'espaces publics, apparition d'une bourgeoisie basée sur une accumulation de connaissance/capital. Fait nouveau, ces nouvelles communautés, qui ne sont plus structurées géographiquement, tendent à redéfinir l'espace qui les entoure.  S'opposant à un pouvoir central, comme jadis les villes franches s'affranchirent du pouvoir féodal, elles tirent leur légitimité d'une liberté ubi et d'une défiance orbi, qui s’accroîssent de jour en jour.

Alors qu'il ne serait pas imaginable de contester l'aménagement des infrastructures routières par l'Etat, la suspicion de ce pouvoir interconnecté envers le pouvoir politique peut être légitime. Ainsi, les tensions autour du droit d'auteur, la surveillance généralisée, les atteintes à la vie privée. Même un Benjamin Bayart, opérateur d'un FAI indépendant, s'oppose à une structure web opérée par les Etats - souverains et démocratiques, rappelons-le. C'est que la défiance des citoyens envers l'Etat renvoie à une réciproque, qui n'est pas nouvelle. Par exemple, lors de la création des cabinets noirs du courrier postal..

 

Du coté de l'économie, rien n'est simple. Internet est organisé en couches. Si les protocoles sont libres de droit, d'autres couches sont appropriées. Les tuyaux, les services, les applications appartiennent pour la plupart à des groupes marchands, monopolistiques. L'aliénation volontaire des citoyens à ces nouvelles plateformes de droit privé, dont la gouvernance est de fait exclue de leurs mains, fait craindre des atteintes autant à la liberté d'expression qu'à celle d'entreprendre. Comme s'interrogent Nicolas Colin et Henri Verdier dans l'Age de la multitude :

"Que pèsent les lois sur le pluralisme quand Google suscite 60% du trafic des sites d'information et peut supprimer 75% du trafic d'un site en une nuit [...] ? Comment intervenir dans la lutte pour le monopole de la structuration d'Internet que se livrent Google, Facebook, Apple ou Amazon, et qui porte parfois même sur l'ergonomie ou le design des interfaces ?"

C'est là qu'entre en scène le domaine public. Selon Hannah Arendt (in "La condition de l'homme moderne") :

"[le mot public] signifie d'abord que tout ce qui parait en public peut être vu et entendu de tous, jouit de la plus grande publicité possible [...] [et] en second lieu, le monde lui-même en ce qu'il nous est commun à tous et se distingue de la place que nous y possédons individuellement"

De fait, le commun est le mot central du domaine public, et rattaché plus tard au "social". C'est ainsi que ce qui structure (le monde lui-même) est du domaine public. Après Harendt, Habermas fit du développement de l'espace public une condition nécessaire et suffisante à la critique de l'Etat, et d'autres, le suivant, à la construction d'une unité démocratique, car discutée.

Internet est au début de la construction de l'espace public tel qu'apparu au XVIIème. Rejeton du domaine privé, petit à petit approprié par tous, il devient au fur et à mesure nécessaire à la construction d'une société démocratique. Ici, la menace opérée sur l'information est donc double : de la part d'Etats qui ne peuvent tolérer la libre expression; de la part du monde marchand qui, en opérant une privatisation de l'espace public, par celle de la conversation, s'approprie ou empêche cette expression. Quelques exemples parmi d'autres : la volonté de l'Etat français de censurer la parole a priori - dans l'affaire du tweet #unBonJuif; la volonté d'Apple ou de facebook de proposer un écosystème puritain, exempt d'érotisme ou de seins - féminins; ou encore les techniques de type "man in the middle" opérées par des Etats totalitaires, comme le régime syrien. A cette censure peut s'ajouter la dénaturation de l'information, par un traitement opaque. Ainsi, la recherche sur internet, ou l'affichage des statuts facebook selon des algorithmes dont on ne connait pas la teneur. Ce qui fait prôner à l'un des membres du CNNum, Serge Abitboul, de l'INRIA, une neutralité de la recherche. Quant à la défiance en l'Etat (de droit), laissons la parole au président du CNNum, Benoit Thieulin, qui "ne ferait pas confiance à un moteur de recherche fait par un gouvernement". CQFD.

Il est également discuté de l’asymétrie des réseaux (voire des protocoles) opérés entre consommateurs et opérateurs de tuyaux et contenus comme d'une atteinte à la neutralité. Laurent Chemla, l'un des fondateurs de Gandi.net, fait correspondre ce principe de neutralité à celui d'égalité entre citoyens. Pour faire simple, si l'expression du FAI est une parole à 10dB, la parole du consommateur est limitée à 3dB. Ou encore, si l'expression reçue par le consommateur est du domaine du flux vidéo, sa parole sera limitée à du contenu texte. Citoyen, consommateur, le mélange est à dessein. La limite est en effet ténue tant "l'expression" recouvre à la fois une liberté du citoyen de concourir à la vie publique et à la vie des affaires.

Renverser le paradigme

On entend souvent que la technologie est - ou doit - être neutre. Rien n'est plus faux. Tous les progrès techniques ont accompagné, voire précédé, des mouvements sociaux d'importance. La mise en place du capitalisme actuel est précédé de la Réforme protestante, elle-même permise par la diffusion de la pensée, via le livre de Gutenberg. De même, les mouvements politiques actuels sont dérivés d'une organisation de la société capitaliste. Sans industrialisation, pas de Karl Marx.

Les Technologies de l'Information et de la Communication ne sont pas neutres non plus. Les partisans de cette neutralité voudraient qu'il existe un équilibre - politique - entre un téléphone mobile servant de déclencheur de bombe en Afghanistan et celui permettant à une afghane à prendre des cours via un centre d'appel. Rien n'est plus faux. Le téléphone mobile, dans les deux cas, simplifie et accélère un processus de communication. Il n'est pas neutre.

Mais les TIC ont un devoir de neutralité sur la nature du message qui circule. Le fait de créer un réseau d'échange d'information, sans doute préalable à la Noosphère de Teilhard, implique des responsabilités quant à la véracité de la donnée qui circule. C'était le point développé par la LCEN, où l'on a accolé le mot confiance au mot numérique. Aussi, lorsque l'information devient la pièce essentielle de la structure, sa monnaie, il est primordial que cette économie de la connaissance soit parée de la plus haute des vertus : la confiance dans l'information. Comme la confiance a structuré la société humaine, elle doit structurer la société de la donnée.

Au cœur de l'Internet - du réseau - se trouvent les services. Les tuyaux opèrent la circulation de l'information, laquelle information est la matière première opérée par des places de marché - plateformes. La problématique discutée à l'heure actuelle par les Etats est de contraindre des entités privées à accepter des règles de droit public, voire à les considérer comme des services publics. Ce qui a pu faire sens après la Révolution française (conférer un intérêt général à un service) et se perpétuer jusqu'au XXème n'est plus aujourd'hui d'actualité. D'une part, à cause de la défiance des populations envers les Etats, d'autre part, à cause de l'universalité des services, qui rendent l'action nationale impossible.

L'avis du CNNum pêche par une sous-estimation des enjeux des réseaux. Parlant de la neutralité comme d'une liberté fondamentale, il propose "de l’inscrire dans la loi au plus haut niveau de la hiérarchie des normes", c'est-à-dire dans la loi de 1986 "relative à la liberté de communication". La loi n'est pas le plus haut niveau de la hiérarchie, or, le sujet le mérite.

Entendons-nous bien. S'il s'agit de mettre en place des normes qui régissent la circulation de l'information dans un système de communication électronique, alors nous sommes en train d'écrire une Constitution qui s'applique à l'information comme un sur-ensemble humain. L'activité de communication humaine actuelle sur les réseaux, puis le déluge informationnel promis par le développement du M2M - ou Internet des objets - comme l'intégration croissante du numérique dans la sphère corporelle (google glass, quantified self, réalité augmentée) ou environnementale (maison intelligente, médecine, surveillance, assistants personnels...) impliquent que l'information qui transite par les tubes ou les services puisse être de confiance absolue. 

Aussi, à mon sens, la neutralité du net ne doit pas se concevoir comme une somme de devoirs appliqués à des tubes ou des services, quant à la circulation ou l'exploitation de l'information. Il faut attribuer des droits à la donnée elle-même, de sorte que sa consommation puisse être agréée, ou pas, en fonction de sa valeur de confiance, quelle que soit la couche du réseau qui l'aura processée.

 

NB : Certains liens de ce post sont issus d'une séance du webinaire organisé dans le cadre du Master « Architecture de l’information » de l’ENS sur le thème « Neutralité du Net, Économie de l’attention et Biens communs » par Savoirscom1

A lire : Les trois écritures: Langue, nombre, code de Clarisse Herrenschmidt

jeudi 11 avril 2013

Du rapport Colin et Collin

Cher Nicolas

Il est difficile de résumer une pensée en une note de blog. Encore plus de discuter des 200 pages de ton rapport (incluant près de 600 notes de bas de page !), qui parle essentiellement fiscalité, mais dont la nature couvre économie, politique, technologie, droit comparé, bref organisation de la société humaine. Je vais quand même essayer de le faire. Cela m'a pris un peu de temps, j'ai dû réviser quelques classiques, et m'ouvrir à d'autres. C'est toujours intéressant, rien n'est jamais perdu.

 

Tout d'abord, merci de m'avoir cité dans ton rapport, par deux fois. Etre présent, même en note de bas de page, dans un rapport gouvernemental écrit par un maître des requêtes au conseil d'Etat et un inspecteur général des finances, aux cotés de Serres, Arrington ou Krugman, ça fait toujours plaisir aux chevilles.

Ensuite, concernant le contenu, je ne change pas d'un iota mes craintes : la peur de voir les individus privatisés via la recréation de la taille personnelle.

De ton exposé des motifs, rien n'a beaucoup changé depuis le rapport "Economie de l'immatériel" de MM Levy et Jouyet de 2006. On y parlait déjà mobilité des actifs immatériels, travail gratuit. Les multinationales du numérique, Apple, Google étaient déjà citées.

Il ressort des conclusions certaines évidences, mais aussi des propositions assez innovantes. D'un coté, la remise à plat des traités internationaux portant sur les prix de transfert. De l'autre, la création d'une fiscalité dédiée à l'exploitation des données personnelles – à titre temporaire - "visant à accumuler du capital de négociation", et basée sur la terrorialité du producteur de la donnée. D'expérience, et concernant l'Etat, j'ai tendance à me méfier du temporaire. Surtout en temps de crise. Souvenons-nous du caractère temporaire de la CRDS.

Mais je m'égare.

Donc, coté prix de transfert, la renégociation des traités bilatéraux pourrait être une formalité, lorsque la Grande Bretagne, la Suisse voire les Pays Bas se prononcent pour un encadrement strict de ces pratiques fiscales. Et que le débat atteint même les Etats-Unis. Une redéfinition de "l'établissement stable" ne devrait donc pas poser de problèmes. Cela reste néanmoins complexe à mettre en œuvre, car si aujourd'hui, "le numérique dévore le monde depuis les Etats-Unis", demain il le fera depuis la Chine, l'Inde, le Brésil, les iles Vanuatu. Voire, sur des territoires temporels, via des processus de HFT qui optimiseront en temps réel les législations et les fiscalités de la planète. Le monde n'est plus fait de territoires étanches soumis à autant de lois; le monde est fait de réseaux où l'information peut être soumise à autant de statuts juridiques que lui permet la vitesse de la lumière.

Mais, d'un point de vue national, il nous est tout à fait possible de légiférer, même pour des sites situés à l'étranger. La mise en place de l'ARJEL en est un bon exemple.

Du coté de la taxation, c'est un autre problème. Le modèle économique - transitoire - comme l'assiette sont à discuter. Plus quelques aspects sociaux, car on ne peut réduire la formidable mutation de la société qui s'opère à un problème fiscal. Les idées ont des conséquences. Et le mieux est souvent l'ennemi du bien.

Il est intéressant qu'un des exemples cités dans le rapport et les nombreuses interview données pour en assurer sa diffusion soit la taxe carbone. En voulant empêcher une trop grande pollution de l'atmosphère terrestre, les Etats ont inventé à Kyoto la taxe carbone. D'une bonne idée à la base - pollueur/payeur - la taxe a de fait privatisé l'air que nous respirons. En donnant une valeur à la pollution - donc à l'air "sale" - nous avons donné une valeur - supérieure - à l'air "propre". Ca n'a pas l'air comme ça, mais depuis Kyoto, nous payons pour respirer.

Il est regrettable que ton homonyme ait pointé du doigt - lors de votre audition conjointe devant la commission sénatoriale des finances - une réalité qui en dit long sur le degré de civilisation que nous avons atteint : "L'administration française se mobilise plus facilement pour les questions fiscales que pour la protection des libertés individuelles". Cela m'atteint, mais cela doit être mon coté fleur bleue.

 

Modèle économique

Il est en effet pregnant que "les données, issues du travail gratuit des utilisateurs d'applications, sont au cœur de la création de valeur". L'externalisation d'une charge de travail de l'entreprise vers le consommateur n'est pas typique du net, et ikea, mcDonald's ou la sncf intègrent déjà ces processus dans la fourniture de leurs biens, qui dans le montage des meubles, qui le service à table, qui l'impression de billets de trains. Ces mécanismes sont très bien documentés dans "Le travail du consommateur" de Dujarier.

Le web, se basant sur les mêmes mécanismes, bénéficie de rendements croissants, démultipliés par l'effet réseau théorisé par la loi de Metcalfe.

Néanmoins, dans le domaine de l'immatériel, c'est un service qui est fourni, qui plus est gratuitement. Pour autant, le ratio coûts/revenus explose, car basé sur une "immatérialité" des revenus (ie goodwill). Ainsi d'une entreprise comme Instagram (15 employés pour 100 millions d'utilisateurs) valorisée récemment près de 1 milliard de dollars, sans aucun modèle d'affaires....

 

Le modèle des plateformes web de service gratuit est basé sur une exploitation du consommateur, selon plusieurs types de travail gratuit :

1/ L'exploitation des User Generated Content, principalement sur la longue traine, où les videos de chatons et de licornes, photos de plats cuisinés, écrits, bandes audio..  sont exploitées sans que leurs producteurs, titulaires d'une PI potentielle, ne fassent l'objet de rétribution,

2/ L'exploitation de la fonction de curation, autrefois le fait exclusif des "medias", laquelle met à profit les utilisateurs pour hierarchiser et diffuser des contenus,

3/ L'exploitation d'un temps de travail subi et conscient, sous forme de jeu ou de requête visant à améliorer le service (captcha, pagerank, traduction, modération, commentaires..)

4/ L'exploitation des données personnelles de l'individu, visant à fournir à l'industrie un temps d'attention publicitaire. Néanmoins, il serait injuste de réduire cette exploitation des données personnelles à une seule conception – marxiste – d'une exploitation de l'individu, puisque ces données permettent également d'optimiser les services proposés a priori par les plateformes (yeld management, personnalisation, efficience du service..).

 

Ton rapport traite exclusivement du 4eme point. Il envisage de mettre en place un système de taxation basé sur les données personnelles des internautes, qui est une prédation des externalités positives. Néanmoins, un système de bonus (partant, d'exonérations fiscales) est prévu pour les "bons élèves" qui ne se contenteraient pas d'exploiter ces données, mais les feraient circuler, par exemple via des dispositifs d'API ouvertes. Mimant le procédé mis en œuvre par la TVA c'est l'entité juridique en bout de chaine qui serait la plus taxée, dans le cas d'utilisation à des fins commerciales. Dans le cas de libre réutilisation, c'est une licence de type share alike qui s'appliquerait. C'est donc l'assymétrie des échanges de données - et/ou des prix des données - entre entités juridiques qui déterminerait la valeur de la taxe.

La data, ce prétendu "or noir" du XXIeme siècle, est au cœur de toutes les réflexions. Et la donnée personnelle fait l'objet d'attention particulières. Ainsi, dernièrement, les data a fait l'objet d'un important rapport du World Economic Forum portant sur leur usage, leur protection, mais aussi leur valorisation. Elles y sont définies comme une importante source d'innovation. Cette exploitation n'est nouvelle que dans son caractère individuel. L'exploitation de la donnée produite par la puissance publique a été encadrée et encouragée par l'instance communautaire, au terme d'une directive de l'UE, dès 2003. Elle est mise en oeuvre en France, par Etalab, via le site data.gouv.fr.

Concernant la restitution des données, pourquoi pas via des API, c'est déjà l'idée de l'UE via la révision en cours d'une directive de 1995, sous le titre d'un "droit de portabilité des données" (art. 18 de la proposition de règlement).

 

Les FAI peuvent toujours gloser sur leur création de valeur, ce sont juste des tubes; la valeur, c'est le TGV, pas RFF. C'est le kW/h, pas Erdf. Les plateformes d'exploitation de données personnelles peuvent toujours gloser sur leur création de valeur, ce sont juste des intermédiaires techniques. La valeur est soit produite par les "externalités" de leur plein gré (les fameux User Generated Content), soit à leur insu (les données personnelles). Les tubes peuveut toujours gloser; avec le développement du cloud, ce sont les services à valeur ajoutée dits Over The Top qui s'imposent.

Bien sûr que sans infrastructure, pas de circulation. Pour autant, le réseau autoroutier n'est pas la valeur déterminante de ma livraison UPS. Cela dit, il est intéressant de constater que toutes les infrastructures du XXeme siècle ont été financées par les Etats, en Europe comme aux Etats-Unis. Puis que les réseaux de transport publics ont été intégrés au système public. Les Etats sont intéressés par le caractère stratégique et les statuts monopolistiques des tubes ou services. Le monopole des registrar US commence à être sérieusement discuté au niveau des Etats, comme on a pu le voir lors du récent congrès de l'ITU. De même, un économiste comme Paul Krugman ne voit-il pas d'un mauvais oeil la nationalisation de la fonction de recherche Internet. De même, une pétition soutenue par Lessig circule actuellement aux Etats-Unis pour rendre de nouveau public l'espace hertzien.

Les FAI peuvent toujours gloser, internet n'en est qu'à ses débuts. 20 ans, c'est une adolescence. Le modèle des FAI, c'est vendre une plateforme d'échange d'information asymétrique. Lorsqu'on parle de neutralité du net, il ne faut pas oublier que, sans symétrie des débits, il n'y a pas de neutralité du net. Cette assymétrie engendre une valeur, et ce n'est pas Stiglitz qui démentira. Les services Over The Top vendent une assymétrie. Les clients, en bout de chaine, subissent une assymétrie. Lorsque Google - encore lui - vend de la fibre, il interdit à son client d'opérer, même à titre gratuit, son propre serveurHe isn't just a pretty face !

Concernant la portabilité des données, une entreprise comme Google – déjà sous le coup de procédures des institutions membres du groupe des 29 – en a très intelligemment anticipé la circulation, en développant takeout. Mais takeout, s'il permet la rapatriation de l'ensemble de ses propriétés immatérielles par un internaute (et pas ses données personnelles), ne va pas jusqu'à fournir d'API pour que des services concurrents s'en emparent. No joking !

Sans être un grand clerc, on peut penser que les plateformes perdront de leur superbe, non quand une taxe viendra frapper l'exploitation des données personnelles des internautes, mais quand ceux-ci pourront librement les récupérer, pour les confier à la concurrence. Il y a de ça quelques années, lorsque je travaillais dans un réseau social professionnel, était apparu un programme lancé par Google : openSocial. L'idée était de pouvoir partager les données de différents sites, via des API. Cette initiative n'a pas fonctionné, pour la bonne raison que la data étant le nerf de la guerre, aucune entreprise participante n'avait envie de partager ses données avec la concurrence, a fortiori avec Google himself. Derrière cette idée se trouvait une réponse technique (le sigle sign on), et une hégémonie à venir : qui détiendrait l'ID unique des 5 milliards d'individus connectés ? Ce n'est plus une question économique, cela devient une problématique politique.

Les plateformes qui exploitent les données personnelles en tirent un confortable bénéfice, en exploitant un travail gratuit. Mais la matière première n'est pas pour autant stockée dans des coffres forts. Elle est réutilisée via des processus complexes (via le business intelligence, grâce aux évolutions du traitement "big data) en vue de créer de nouvelles informations. Le coût de traitement est soumis à la loi des rendements croissants, grâce à la loi de Moore et à l'accumulation du travail gratuit passé. Puis ces nouvelles informations sont réinjectées dans le réseau, et elles-même réutilisées, par des individus, et des entreprises. Les individus en tirent une indéniable valeur ajoutée (optimisation de la recherche, nouveaux contacts professionnels ou personnels...), comme les entreprises. Pour autant, la survaleur est bien réelle. Le CA de Google ou facebook est là pour en témoigner.

Mais le modèle n'est pas conscrit au B2C. Les plateformes qui peuvent prétendre à la prédation du travail gratuit des individus le font également pour d'autres entreprises. Le modèle twitter en est le parfait exemple. Twitter, c'est à l'origine une base de données qui propose la mise à disposition de flux informationnels via des API. L'écosystème normé - une sorte de langage - a profité à d'autres entreprises, qui ont développé qui un GUI, qui de nouvelles fonctionnalités. Mais au fur et à mesure, twitter a limité ses API et développé, en interne, ses propres fonctionnalités. Seesmic, twitpic et tant d'autres ont investi temps et argent pour fournir à twitter des clients. Sauf que seesmic, twitpic (et les autres) ne sont ni filiales, ni contractants de twitter. Le travail gratuit implique également d'autres entreprises. Dans un strict cadre commercial, et juridique, la notion de parasitisme devient tout à coup très floue...

Par ailleurs, l'information n'est pas typée. Ses consommateurs ne peuvent être distingués entre une sphère marchande et une non marchande. La frontière entre espace privé et professionnel s'estompe; on l'a vu avec le développement des smartphones qui permettent d'être joignables par l'entreprise hors la présence physique; les emails que l'on consulte en vacances, le travail à la domicile, voire le phénomène du BYOD.

Plus de la moitié des entreprises créées l'an dernier en France l'ont été dans le cadre de la nouvelle forme de la profession libérale, l'auto-entrepreneuriat. Cela découle d'une nouvelle organisation du travail : d'un coté, les entreprises qui externalisent leurs coûts sociaux à des fins d'optimisation. De l'autre, une volonté du citoyen d'être maitre chez soi. Il devient complexe de distinguer les usages de services de la sphère privée ou d'entreprise.

Enfin, je l'ai évoqué plus haut, l'exploitation du travail gratuit concerne également la réutilisation des données publiques, qui, même si elles sont soumises à redevance de la part d'entreprises privées, ont une valeur d'exploitation bien supérieure.

 

Si une taxe sur l'exploitation des données personnelles est une bonne idée en soi, elle occulte - comme elle révèle à l'excès - la nature même du capitalisme : tout exploitant est un prédateur de ressources naturelles. Cette exploitation tire son fondement de la notion de propriété. Or, l'information ne peut - légitimement - être appropriée, sauf à traquer la création de toute information, dès son apparition. Par exemple, on l'a vu pour la presse qui revendique une taxe google; en quoi la victime d'une agression, relatée dans le journal, ne pourrait prétendre à des royalties sur son histoire ? pourquoi ne pas donner ces mêmes droits à son agresseur ?

La création de valeur des GAFA repose sur la prédation du travail gratuit. Sur des biens informationnels soumis à PI, elle va jusqu'à une appropriation (et donc une expropriation de son créateur). Le web, célébré comme une plateforme ouverte, repose sur un système américain basé sur les brevets. Tout est brevetable (on l'a vu lors du procès Apple VS Samsung), dans des proportions inimaginables. A l'inverse, la plus forte valeur ajoutée tient de l'appropriation de ressources communes, libres. Par exemple, Apple, la principale capitalisation boursière américaine, est l'un des principaux prédateurs du travail gratuit: son OS est un noyau Mach, et des composants BSD. Tout est libre dans l'OS d'Apple : Apache, autoconf, awk, bash, bc, BerkeleyDB, bind9, bison, bsdiff, bzip2, clamav, cron, cups, curl, cvs, emacs, fetchmail, gdb, gnudiff, gnuzip, gnumake, gnutar, grep, groff, hunspell, libpng, libjpeg, libxml2, man, nano, ncurses, netcat, OpenSSH, pcre, perl, postfix, PostregreSQL, procmail, Python, rsync, SpamAssassin, SQLite, subversion, tcl, tcpdump, vim, zlib...  Tout est libre, sauf l'OS.

 

Me faisant donc l'avocat du diable, j'objecterai sur plusieurs points concernant le mécanisme de taxation des recettes générées par l'exploitation des données personnelles :

- Concernant les API, qui sont pour certaines entreprises des pots de miel visant à créer un écosystème, comment lisser sur une année fiscale les évolutions des flux entrants et sortant, sachant que les évolutions des conditions d'utilisation des API des plateformes sont permanentes ?

- Concernant les API, alors que le modèle de taxation repose sur une finalité des données, comment la définir, dans un réseau, réticulaire, a-centrique, où la matière première informationnelle n'est pas fongible, et sa ré-exploitation pas forcément immédiate (eg "culture", "éducation", "contacts professionnels"...) ?

- Concernant les entreprises, comment définir la nature des données utilisées, qui recouvrent autant le domaine marchand que non marchand ?

- Concernant la taxation, comment distinguer dans les revenus d'entreprises la valeur de la prédation du travail du coût supporté par le service rendu et ses améliorations ? 

Comment donc mettre en place le système de taxation, et quelle pourrait en être l'assiette ?

 

L'assiette

Le principe de la valeur actuelle de l'information repose sur des exclusivités. La chronologie des médias, la publication de bonnes feuilles d'un livre dans un hebdo, l'embargo sur une news, la publication d'un rapport. Le prix, l'appartenance à un réseau, le niveau hiérarchique participent de la définition de ces exclusivités.

Les places de marché - privées - sont soumises à des contraintes de droit public. Le caractère merdeux du web - ni public, ni privé, soumis à de multiples droits territoriaux  - conduit à des choses étranges. Ainsi, si Apple décide de déréférencer Appgratis de son store, il en a le droit. Dans son walled garden, il fait ce qu'il veut, comme et surtout changer unilatéralement ses CGU, ses contrats fournisseurs, et bien évidemment d'interpréter sa loi comme bon lui semble. Si facebook décide d'interdire la publication de photos de nipples, il en a le droit. Le contrat qui régit l'utilisation de la plateforme est un contrat de droit privé.

Néanmoins, il n'est pas possible, socialement, de ne pas être sur de telles plateformes. Même si certains se gargarisent d'une certaine liberté, ne pas avoir d'existence en ligne est un handicap. Pour les services, monopolistiques, qui gèrent des centaines de millions d'utilisateurs, cette contrainte d'aliénation volontaire est tout bénéfice.

Dans la société de l'information, les individus ont d'ores et déjà une valeur de marché. Certains pour leur talent (et leur production de PI), d'autres pour leur seule existence (et leurs données personnelles). Avec le développement de la télé-réalité, des people comme Nabila ou Paris Hilton jouissent d'une valeur de reconnaissance. Transformés en marques d'eux-mêmes, c'est leur notoriété qui fait leur valeur. On en a déjà un aperçu sur twitter, où des people promeuvent en direct à leurs followers des produits de toutes sortes, et sont grassement rémunérés.

 

Du rapport, et afin de justifier une valeur à l'individu, j'ai bien entendu le parallèle avec le droit d'auteur. Tous auteurs, c'est l'histoire de ce blog, depuis sa création. De la production du contenu UGC par les pro-ams, jusqu'à leur valorisation, via la prédation. De la convergence de la production personnelle à la production de soi.

L'exercice du droit d'auteur ne tire sa légitimité que via son opposabilité. Une création de l'esprit, si elle n'est pas revendiquée, n'est pas soumise à la propriété intellectuelle. Une fois revendiqué, les droits sont libérés, selon des modalités patrimoniales. Cette conception du droit et de la propriété ne bénéficie qu'à un petit nombre; l'explication est historique, puis s'est perpétuée faussement. Il faudrait être un "artiste" pour être un auteur, aux termes d'un processus relativement complexe, avec des sociétés de gestion distinctes pour chaque type de création. Pour inverser cette tendance, un groupe d'universitaires américains a conçu les Creative Commons : éclater les attributs de propriété en 6 licences distinctes, lesquelles ont en commun l'attribut de paternité. Les restrictions à la circulation des oeuvres de l'esprit proviennent de la volonté du créateur et non de la loi. Fait nouveau, paternité est une sorte de propriété morale. Ce nouveau droit d'auteur prend un sens particulier dans les pays anglo-saxons, qui ne connaissent pas l'attribut moral du droit de la PI. 

Si le droit de la PI fonctionne, c'est parce que la marché de la PI est oligopolistique. Rendre opposable la PI de chaque humain auteur de lui-même est une fausse bonne idée : nous allons vers des contentieux de type Milka, ou Katsuni, pour tout individu connecté. 

De plus, cette promesse est discutée d'un point de vue éthique. Ainsi le Sénat s'est-il récemment prononcé contre le fait d’octroyer des droits de propriété sur les données personnelles de individus en rappelant le rapport de force inégal entre les cocontractants, et en se référant au risque de marchandisation des attributs de la personnalité (notion de dignité inscrite à l’article 16 du Code Civil). Mais, pour le moment, si vendre sa personne est interdit, rien n'existe pour sa personnalité virtuelle, sa représentation numérique. J'ai postulé, dans mon post de blog préalable à la publication du rapport, qu'un avatar numérique (somme de données personnelles) était un concept juridique proche des bases de données. Personnalité juridique intuitu personae, cet avatar pourrait dores et déjà être protégé pendant 15 ans, au titre de la PI sur les bases de données...

Au terme de formules mathématiques dont l'administration fiscale a le secret, il est évident qu'une base individuelle sera mise en oeuvre pour estimer les montants de l'exploitation des données personnelles et faire revenir dans les caisses de l'Etat une partie des montants correspondants à l'optimisation fiscale. Néanmoins, la mise en place d'une taxation sur marché induit sa légitimation. Taxer le proxénète induit un marché de la prostitution. Mais, comme il existe des people et des gens normaux, des tapineuses rue Saint Denis et des escort à 3000€ la nuit, la valeur des individus va être monnayable, Aussi, il est fort probable que les plateformes verront arriver des exclusivités d'individus, qui "n'existeront" que sur ces plateformes. A la manière des acteurs sous contrat avec les majors d'Hollywood dans les années 50, la taxe induisant le contrat d'exploitation de la marque individu, ces individus seront rémunérés, fonction de leur potentiel d'attraction sur le marché publicitaire par exemple. Comme pour le marché de l'air, nous verrons apparaître le marché de l'existence.

 

Me faisant de nouveau l'avocat du diable, j'objecterai à la taxation :

- Que la définition d'une assiette définit un prix subjectif de l'individu,

- Que l'Etat, en taxant une exploitation d'un travail déguisé, légitime ce travail et en devient complice,

- Que le risque de voir se développer un marché de "l'individu avatar" est réel, et qu'il heurte les grands principes de la Nation, notamment l'aliénation des individus,

- In fine, que les aspects structurels d'une société ne peuvent pas être envisagés qu'au seul prisme de la fiscalité.

 

Partant, il faut se pencher sur l'économie des données personnelles et l'économie de l'information

L'un des fondateurs de l'EFF, John Barlow, a introduit dans son essai "The Economy of Ideas", une taxonomie de l'information à l'ère digitale : une activité, une forme de vie, une relation. En décrivant la société de l'infomation numérique, il a décrit la société humaine.

Et dans un monde numérique où mêmes les propriétés du réseau singent celles de notre environnement ("The Internet treats censorship as damage, and routes around it "), nous sommes des informations et décrivons un marché de l'information. J'adore le web, car c'est pour moi la mise en place de la théorie de l'équilibre général de Walras. Et comme tous les équilibres, ce qu'il met en balance, c'est la promesse de la société de marché de Mauss : quantifier toutes les relations sociales entre individus, et les réduire, parce que c'est techniquement possible, à des relations économiques.

Le rapport est intéressant dans la mesure où il ouvre une quantité de portes sur des futurs possibles. Et amène une multitude de questions quant à la mise en place de nouveaux rapports sociaux, qui dépassent les frontières nationales, les cultures et les lois. Si j'avais les réponses, je ne serais pas là. Je serais en train de jouer à Civilization au niveau des boss. Mais il y aura une deuxième partie à ce post, peut-être un "âge des possibles" comme il y a eu un "âge des multitudes" ;-)

Amitiés

Julien

 

PS : si je peux me permettre deux idées :

Rends ton rapport copiable/collable (le pdf protégé, c'est vraiment un réflexe très XXème, et c'est chiant pour les citations).

Fais-en un site, et appelle les contributions à la manière d'un RFC. Ou d'un congrès international de l'impôt. Si l'économie numérique est "l'une des plus documentées qui soient", je suis sûr qu'il se trouvera - comme moi, mais en plus compétents - des experts qui voudront participer à l'élaboration d'un système global, et à l'épreuve des hackers. Car, de fait, les systèmes les plus solides sont ceux qui sont les plus discutés, de façon ouverte. Pour moi, on peut aisément comparer un avocat fiscaliste (ou un spécialiste du vice de procédure) à un hacker blackhat: en "optimisant" les codes des impôts de la planète, il réalise un exploit.

mardi 19 octobre 2010

"Nul n'est censé ignorer les CGU"

La lecture d'un article d'Europe1 sur la guerre que se livrent les deux partis majoritaires sur le Web m'a littéralement rendu fou de rage. Partant de l'affaire du compte Twitter "solférinien", qui serait un faux nez de l'UMP, l'auteur de l'article conclue, dans le plus pur style journalistique A croire, qu’à l’approche de 2012, le PS et l’UMP deviennent fébriles sur la maîtrise des réseaux sociaux.

Conscients que le Web est désormais incontournable dans leur stratégie de communication politique, les partis voudraient donc réitérer le succès d'un Obama sur le web et partant, "contrôler" les réseaux sociaux. La droite vient d'inventer la gauchosphère, et essaie de relancer sa communication sur le réseau des réseaux.

Et c'est là que la bât blesse. Le web n'est plus de la communication. Le web est une conversation. Les medias ne sont plus les grands groupes de presse qui pratiquaient de la communication top2bottom. L'information circule, dans les deux sens. "Nous sommes le Web", proclamait il y a quelques années Wired. Et les "réseaux sociaux", le nouveau truisme qui qualifie l'internet, ne se maitrise pas plus qu'il ne se contrôle. Quoi que..

Dans son livre Les liaisons numériques, le sociologue Antonio A. Casilli développe un concept qui prend le contre-pied de tous les Cassandre qui voient dans Internet un vecteur de dé-socialisation. Son antienne, "le web ne désocialise pas plus qu'il n'hypersocialise" (lire l'ITW sur InternetActu, écouter sur Place de la Toile). Paru approximativement au même moment, le livre d'un autre sociologue, Dominique Cardon, s'attache à trouver une place pour le Web dans l'organisation de la société ("La démocratie Internet"). Ces deux livres ont ceci de stimulant qu'ils vont à l'encontre des idées reçues, véhiculées et répétées ad nauseam par des conservatismes craignant pour leur fonds de commerce (ainsi, du bovarysme en son temps, "maladie" qui prenait sa source dans le roman et éloignait les femmes de leurs tâches ménagères).

Ces livres sont stimulants. Et optimistes. Car la sphère publique est totalement dépassée. Et la sphère économique, après son échec à transformer le web en un gigantesque mall, revient encore et toujours à la charge. Et bientôt, on pourrait regretter trolls et autres Point de Godwin. Et se contenter de "liker" au pays des bisounours...

Quelques exemples donc, pour juger du "contrôle" qui pourrait s'opérer sur nos communications, nos échanges, notre sociabilité, si on laisse faire les entreprises privées :

  • L'installation d'un navigateur Opera sur un iPhone/iPad ne peut s'effectuer que si son propriétaire a plus de 17 ans. Motif : "Fréquentes/intenses scènes adultes/suggestives". Pour autant, Opera est un navigateur internet. Apple prévient donc ses utilisateurs que le contenu du Web peut lui être moralement dommageable.Pour autant, Safari, browser préinstallé sur les iTrucs, n'affiche pas le même avertissement. Est-ce à dire que le contenu est controlé?

Un peu plus ancien mais tellement révélateur; alors que l'on se gausse de la censure chinoise qui emploierait des milliers de "policiers du net", comment qualifier les armées de marketeurs qui pervertissent le modèle de wikipedia (voir l'exemple Nespresso) ?

Lorsqu'on voit de le BIOS va bientôt rendre l'âme et être remplacé par l'EFI, qui fit couler pas mal d'encre en son temps car au centre de la polémique Palladium, on peut se demander s'il serait possible que la Société, la représentation nationale, les citoyens, le peuple puisse se saisir du Code et le définir de manière transparente, puisque ce Code informatique, comme ses ainés Civil et Pénal, va régir son environnement, ses relations, son organisation? 

Alors que le même Apple décide des contenus qui sont accessibles ou non à ses utilisateurs, d'autres géants, industries culturelles en tête, édictent des normes, lesquelles s'imposent au regard non des lois démocratiques, mais de leurs seuls intérêts.

Alors désormais, "nul n'est censé ignorer les CGU" ?

Il serait temps que l'on refasse de la politique.

dimanche 27 janvier 2008

Martine, ou Photoshop pour les nuls

Tout est parti d'une blague de potache. Un certain Tremechan, adepte du pastiche, avait posté sur son compte Picasa quelques détournements de couvertures d'albums ayant marqué la jeunesse de beaucoup de web users. Des parodies (remix, ou encore mashup selon la terminologie web2) comme il en existe beaucoup, que les internautes s'approprient et se forwardent pour égayer des journées de bureautique intenses. 

Le caractère un peu niais d'une ancienne idole des jeunes, allié à une foultitude de couvertures, disponibles sur les sites des distributeurs, a révélé la force du concept. Le bouche-à-oreilles a pris, et ce grand détournement a fait des émules dans la communauté des amateurs sachant manier le logiciel de retouche d'images.

Mais ce qui n'aurait pu rester qu'une blague de potache a pris un virage inédit grâce à l'industrialisation du procédé. Martine cover generator, le site récemment fermé, est né de l'envie d'un autre potache, appelé Delight, qui disposait quant à lui de compétences de codeur. Les couvertures étant fondées sur un respectueux cahier des charges (typographie, emplacement des caractères), la création d'un générateur de titres n'était plus qu'un jeu d'enfants (l'API Imagemagick intégré dans un script PHP par exemple).

Pour un public accro mais peu rompu au maniement de Photoshop, l'outil était une bénédiction. Combien de fausses couvertures de Martine ont-elles été générées avec ce site ? Le blog Martine est très pop en recense à lui seul plusieurs centaines; quant au site Poptronics, il évoquait le 23 octobre, soit 5 jours après le lancement du site générant les couvertures, le nombre de plusieurs dizaines de milliers de visites par jour...

Reste la fermeture du site. L'auteur a préféré arrêter l'expérience au bout d'un mois, après une demande amiable des éditions Casterman, et parce qu'il n'avait pas envie de risquer un procès. Pourtant, on peut se demander ce qu'aurait été l'issue d'un tel procès, puisque le droit consacre la parodie au titre d'exception au droit d'auteur.

Mais au delà d'un procès d'intention qui rappelle dans l'esprit l'affaire jeboycottedanone (perdue en appel par le groupe Danone), il reste que la fourniture d'outils d'usage simple à destination de publics non professionnels engendre l'adoption par ces derniers. Et peut être l'envie pour certains d'essayer les logiciels de retouche d'images (ou Imagemagick).

mercredi 20 septembre 2006

Web 2.0 et copyright

Dans la société de l'information, le droit d'auteur est le nerf de la guerre. Plus exactement le copyright. Car le copyright est un seul droit patrimonial, il ne s'embarrasse pas du droit moral des auteurs des oeuvres.

Le concept du web 2.0 a popularisé l'acronyme UGC ("User Generated Content") et une nouvelle valeur fiduciaire : la reconnaissance. Se basant sur la prophétie de Warhol, les sociétés les plus en vue du web 2.0 pillent allègrement les "oeuvres de l'esprit" des internautes, dont elles s'approprient les droits (à lire, l'article du jour du Guardian sur la détention des copyright dans le monde virtuel).

Pourtant, cette pratique, aussi appelée crowdsourcing, notamment pour les développeurs de logiciels, n'est pas propre à la netéconomie, cet impropre néologisme. Caveat Emptor avance deux hypothèses, l'une pseudo marxiste, l'autre multitudiste, qui ont toutes deux l'inconvénient d'être correctement dérangeantes.

Le seul tort - mais en est-ce un ? - que l'on puisse reconnaître à cette approche, et plus généralement au web lui-même, c'est de privatiser l'entiereté de l'espace public. En effet, la publication de contenu par le citoyen lui-même dans la sphère publique l'oblige à se conformer aux règles qui la régissent (la structure structurante), et le transforme de fait en auteur, affublé de toutes ses prérogatives. Ce faisant, en l'état actuel, soit il accepte ces règles, et bien souvent par méconnaissance il abandonne ses droits, soit il contourne ces règles au travers de nouveaux types de licence tels les Creative Commons.

Le web, qu'il soit 1, 2 ou 12, est un simple outil de mise en relation. Place de marché ou agora démocratique, il permet de s'affranchir des intermédiaires, qui n'ont de cesse de prouver leur valeur ajoutée. Un problème rencontré par les agences de voyage, les commerçants de toute sorte, les journalistes. Le système est chaotique et se met en place; lorsqu'il sera parvenu à une masse critique, il faudra bien le réguler.