error 404

Aller au contenu | Aller au menu | Aller à la recherche

mercredi 25 juin 2014

Les apprentis sorciers

Le problème des rédactions le week-end, c’est qu’elles sont vides. Et que ceux qui sont de permanence ne sont pas nécessairement les plus compétents. C’est ainsi que l’information qui a fait la Une lors week-end de Pentecôte a été reprise par l’ensemble des médias de la planète, sans recul ni précaution aucune. Cette info faisait d’Eugène Goostman la première Intelligence Artificielle passant le test de Turing, c’est-à-dire bernant un humain lors d’une conversation sur son existence réelle.  Cette info est devenue, dans la bouche des média, l’information comme quoi une intelligence artificielle était née. La singularité était donc proche.

Le problème des rédactions le week-end, également dû à la pression exercée sur elles pour faire du scoop, c’est qu’elles valident assez rapidement les actus dites scientifiques, et sont friandes des prophéties auto-réalisatrices. C’est que l’innovation n’attend ni le fact checking, ni les contrepoints nécessaires à une information équilibrée (voir à ce sujet l’excellente série d’Olivier Ezratty sur les Propagandes de l’innovation).  Et l’IA est un très bon client, surtout dans la presse techno. Lors, comme le constate cet article de Techdirt qui a pointé ses errements, toute le presse techno, pure-player pour la plupart, a rendu compte de l’événement qui marquait le franchissement d’un palier. Il n’en était rien. Quoi que…

 

Au début du mois de mai, le physicien Stephen Hawking a questionné le monde sur l'intelligence artificielle. Prenant à témoin la sortie récente du film de science-fiction "Transcendance", il exprimait ses craintes quant à la perte de contrôle des humains dans un monde bientôt promis à Skynet.

" One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all. "

La démonstration est quelque peu vaseuse. D'abord parce que la plupart de ses exemples sont d'ores et déjà réalisés. Ensuite parce que parce Transcendance raconte l'histoire d'un esprit humain numérisé, donc très loin d’un HAL ou d’un WOPR. Mais le prétexte sonne bien, puisqu'il revient désormais à Hollywood de raconter des histoires pour s'y projeter.

Et aujourd'hui, Hollywood s'est emparé du sujet. Transcendance donc, le dernier flop de Johnny Depp. Mais aussi The Machine - qui évoque le langage des machines (le fameux IoT) - et Her amènent sur les écrans, et dans les conversations, des thèmes qu'aucun politique ne discute. Trop aventureux, trop futuriste, trop léger ? Il est vrai que dans la France des comités Théodule, il a fallu attendre 2011 pour le gouvernement se dote d’une commission éclairant le numérique, et 2014 pour que l'Assemblée Nationale lui  emboîte le pas. Pendant ce temps-là, l’administration Obama finance Brain, un projet visant à décrypter, cartographier et enregistrer le cerveau humain.

L'IA est aujourd'hui très largement fantasmée, car on lui prête une certaine magie que nous - humains - sommes les seuls à détenir : la conscience. Mais on ne peut que constater qu'une certaine forme d'intelligence est désormais à l'œuvre dans les systèmes automatisés qui nous servent. Et du service à l'asservissement, il n'y a qu'une légère frontière, qui s'appelle le contrôle. C'est en cela que le texte d'Hawking est pertinent. 

 

Skynet et les mini-moi

Les systèmes experts sont déployés à une large échelle grâce aux applications du web, et tendent à mieux connaitre l'utilisateur pour lui permettre une expérience unique. On la trouve à l'œuvre dans Google (avec l'auto complétion), Siri, Amazon ou Netflix. Si l'on isole le processus, l'intelligence déployée est une série d'algorithmes liés à une base de données qui "apprend" l'utilisateur.

Mais cet apprentissage, basé sur le mimétisme, peut faire en creux apparaître une "personnalité virtuelle", un avatar entièrement numérique pour chaque utilisateur. Un mini-moi. Et de voir alors une multitude de mini-moi chez Apple, Google, Meetic, Critéo et tant d'autres. La publicité pour Cortana, l'IA de Halo, le Siri de Microsoft, le dit explicitement : "I'm absorbing the Internet", "Now I'm learning about you".

La personnification de l'IA, dans Her ou dans Cortana, est l'une des pièces essentielles de la projection de l'IA. Dans l'épisode 1 de la Saison 2 de Black Mirror, Be right back, une app apprend des données publiques et privées d'un individu pour se l'approprier (la façon de parler, les souvenirs) jusqu'à devenir celui-ci. Cela sonne comme de la science-fiction, et pourtant, tous les ingrédient sont à disposition... 

 

En face de cette multitude de mini-moi, LA machine, Skynet, centralisée, que l'on imagine monstrueuse, de part ses capacités de calcul, d'archivage de données, et de périmètre de prise de décision. C'est le core des mini-moi sus-cités, mais c'est aussi Watson d'IBM, qui est capable de fournir des diagnostic médicaux, pour le moment limités à certaines spécialités. La médecine est un process relativement stable, basé sur des symptômes documentés, des diagnostics connus, et des traitements plus ou moins maitrisés; il n’y a donc aucun étonnement à voir des systèmes experts s’en emparer.

Une évolution de Watson s'appelle 'The Debater' et va plus loin que le seul diagnostic puisqu'elle est capable d'argumenter. En gros, non seulement d'afficher un résultat, mais d'en faire la démonstration. Le projet récemment présenté prenait comme exemple "Faut-il interdire l'avortement" ou "les jeux vidéos violents doivent-ils être interdits aux mineurs". Après un apprentissage de l'état de l'art humain – le scan de 4 millions d'entrées issues de Wikipedia – une voix synthétique (celle de Hal, de Siri, de Scarlett Johansson ?) énonce le pour, le contre. L'article cité ne précise pas si un choix est effectué, mais ce n'est in fine pas le plus compliqué à programmer.

En fait, c'est l'acte de décision traitant des humains qui est assez dérangeant dans le cas de la machine. Aujourd'hui, on a la possibilité d'inventer un monde de machines qui nous singent, et d'en être les Créateurs. Demain, de laisser notre libre arbitre à un ensemble d'algorithmes.

Science sans conscience

En théorie, vous ne pouvez plus avoir d'accident avec une Google Car. En supprimant le facteur humain, on élimine la quasi-totalité des causes des accidents de la route. C'est à la fois génial et terrifiant. Génial, parce qu'il n'y a plus à choisir entre boire et conduire. Terrifiant, parce que tout ce qui ne peut être modélisé ne peut être anticipé. Et il faudra bien que la machine qui contrôle prenne des décisions, et en cas d'accident, la moins mauvaise. La moins mauvaise pour qui ? Un article paru récemment dans Wired soulevait la question de l'éthique dans la programmation qui aboutit à des choix de la part de la machine. Dans l'exemple cité, le logiciel de la voiture autonome devait choisir entre heurter un conducteur de moto avec un casque et l'autre sans. Quel "réflexe", basé sur de la big data probabiliste de chocs mortels, doit prendre une machine ? Tuer le motard sans casque, qui n'avait aucune chance de survie ? Ou ne pas trop estropier le motard casqué, et laisser donc vivre le motard irresponsable car ne portant pas de casque ? Ce qui revient à cautionner les comportements hors la loi… La machine doit-elle alors apprécier ce qui est juste ? Ou rendre un verdict "zero tolérance" ?

Cette question d'éthique est tout sauf triviale. Elle renvoie bien évidemment aux 3 lois de la robotique d'Asimov (que l'on voit à l'oeuvre dans le bios de Robocop). Elle interroge également les militaires, lesquels veulent apprendre à la machine la différence entre le bien et le mal.  Car, dans la guerre automatisée que l’on nous promet, l’autonomie des robots à tuer est une question qui se discute jusqu’à l’ONU.

Agacé par ce qu’il nomme “Le complexe de Frankenstein” (la créature détruisant son créateur), l’auteur de science-fiction énonce un ensemble de lois, 3, puis 4, qui sont censées être l’ADN (ou le BIOS) du robot :

  • Loi Zéro : Un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée.
  • Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

 

Dans l’esprit d’Asimov, une machine reste une machine, et son émancipation, si elle est possible, ne repose que sur le bon vouloir de ses créateurs. Et comme l’homme ne peut déroger à ses propres codes, il appartient à l’homme créateur de donner un code fondamental à une machine.

 

L’Humain, cette machine très évoluée, et finalement si simple

Nous sommes régis par des codes. Intrinsèques, subordonnés à la génétique. Et extra, qui sont subordonnés à une sorte de magie (la Nature, les divinités monothéistes ou polythéistes) ou à la raison.
En créant le code, le notre, nous avons établi des règles fondamentales fondées sur une humanité. Ces règles ont cours depuis 3000 ans, et même si nous nous débarrassons petit à petit du fait religieux (la 1ere table de la Loi), le meurtre, le vol ou le faux témoignage (le mensonge, ou altération de la vérité) sont toujours bannis des sociétés modernes.

Nous avons inventé le langage machine, le code qui permet à la machine de traiter de l’information. La seconde phase, c’est d’inventer le langage des machines, celui, interopérable, qui permettra de donner du sens aux informations traitées, afin de les partager entre machines. (voir le dossier IoT des « Défis du CEA » de juin 2014, p. 18). Et donner du sens, c’est faire appréhender à la machine des compréhensions qui pour le moment la dépassent, basées sur des expériences (qu’elle mémorise), leur traitement (que l’on peut coder), et des ressentis, qui pour le moment lui sont totalement étrangers.

Pourtant, la psyché humaine est à portée de tir. Les fameux tests de Rorschach, censés apporter un complément dans le diagnostic des maladies mentales, sont finalement assez pauvres, puisque soumis à une grille de lecture faible et statique.  Il circule actuellement sur les RSS un test de personnalité, basé sur 4 questions, et qui a rencontré un fort succès (dans ma TL du moins). Comme la science des rêves où Freud n'imaginait qu'une seule expression des rêves, la sienne, ce test définit 16 types de personnalité pour l’être humain occidental. Les RH, les chasseurs de tête, disposent de ce genre de tests visant à profiler un candidat potentiel. Il s’agit de mettre un individu dans des cases, et somme toute, de le coder.

On sait, sur des principes simples, programmer une expression. C'est déjà le cas avec les robots-journalistes, qui passent leur temps à passer le test de Turing, nous apprend une étude citée par Slate. Article qui nous apprend également – ou confirme – que les algorithmes qui “créent” l’information ne sont pas neutres, puisque codés par des ingénieurs qui ne le sont pas également.

 

Le futur, c’est maintenant

Hawking craint une “technology outsmarting financial markets”. Cela existe, cela s’appelle le HFT. Les “out-inventing human researchers”, cela existe. Watson “travaille” déjà sur la recherche contre le cancer.  “Out-manipulating human leaders” ? Ca existe. N’importe quel gameplay de jeu freemium est programmé pour que le joueur paie. Et les bug des systèmes d’information nous montrent les possibilités de dérives…

 

Si le cas du “developing weapons we cannot even understand” prête à discussion, tous les exemples cités par Hawking le sont pour adresser une dérive consciente de la machine, dérive où l’intérêt de la machine prime sur celui des humains. Il y aurait donc un intérêt, ou une “liberté” de la machine, telle que le postule un professeur d’Harvard, qui énonce quant à lui une théorie de Maximum Causal Entropy Production Principle,“a conjecture that intelligent behavior in general spontaneously emerges from an agent’s effort to ensure its freedom of action in the future”. Et le chercheur de prendre le complexe de Frankenstein à l’envers : ce n’est pas parce que la Machine devient supra intelligente qu’elle veut contrôler le Monde (ou s’émanciper), c’est parce qu’elle cherche à se libérer qu’elle devient intelligente.

Il n’est bien évidemment pas question de science-fiction ici, mais bien d’anticipation. Combien de temps se passera-t-il entre le moment où la Machine décidera du bien ou du mal ? Où elle régulera nos vies ? La question est tout sauf triviale, car nous sommes en pleine actualité.

Il ne s’agit pas ici de machines conscientes, mais d’algorithmes qui décident à notre place. La technologie nous guide d’ores et déjà dans nos choix de consommation, ou d’expression. Nous pouvons d’ores et déjà leurrer la mémoire d’une souris en lui implantant de faux souvenirs. Nous pouvons leurrer l’humain en lui présentant une reproduction d’un enfant (dans le cadre d’un projet visant à identifier des pédophiles). Nous produisons des spectacles mettant en scène des chanteurs morts. Nous pouvons oblitérer des pans entiers de mémoire en bridant les moteurs de recherche ou les pointeurs vers l’information.

 

Il y a quelques années, dans un essai resté célèbre, Nicolas Carr a posé la question : “Est-ce que Google nous rend stupide?” L’objet de sa question portait sur la modification de notre cerveau qui nous rendait tributaire d’un algo de recherche de mémoire externe, et non plus des connaissances acquises par coeur lors d’un processus exclusivement humain. Cette question avait déjà eu des développements quelques siècles plus tôt, lorsque Montaigne et sa tête bien faite s’opposait à Rabelais et son abîme de science. L’article avait fait débat, mais posait la question sous-jacente de l’externalisation de la mémoire, et in fine, de son appropriation et de son accès.

 

Poser les bases d’Asimov pour garantir les libertés humaines

L’éthique, la morale, la justice sont des “codes” inconnus à la machine.  Avant de s’enthousiasmer pour le prochain Eugène Goostman (ou le craindre), il serait bon de pouvoir en contrôler le code. Car qui contrôle le code contrôle les machines. Et au-delà, qui détient le Futur ? Avant de pouvoir imaginer des lendemains enchanteurs, où la Machine, asservie, libèrera l’humain du travail aliénant, il serait intéressant de voir qui contrôle les robots ?

La question mérite d’être posée, dès lors que l’on voit arriver à grands pas de nouvelles plateformes d’échanges, permettant la mise en oeuvre de l’Internet des Objets, ou IoT. Les récentes annonces d’Apple ou de Google laissent entrevoir un futur où toutes les communications entre machines passeront par des plateformes opérées par de grands groupes privés. Ce contrôle intéresse également les Etats, notamment pour des motifs de sécurité. Ainsi, certains Etats européens réfléchissent à installer des dispositifs visant à prendre le contrôle de voitures à distance dans le cadre d’opérations policières.

D’ores et déjà, certains services publics peuvent être aisément remplacés par des plateformes d’application. En étant des « citoyens » de plateforme de communication (facebook, twitter, Instagram) nous en acceptons les CGU, et respectons la « loi ». Nous acceptons les lois morales d’Apple, Google, et d’autres entreprises qui décident, via le code, des informations que nous pouvons recevoir, celles dont nous pouvons nous souvenir, auxquelles nous pouvons accéder. Ou plus. 

La machine est infaillible. Elle ne "connait" ni le doute, ni la peur, ni la culpabilité. Elle n'a pas de raison, et encore moins de conscience. Elle travaille "mieux" et plus vite que l'humain, car elle ne "vit" pas au rythme circadien, n'a pas de défaillance liée à sa composition biologique. Elle ne "craint" ni la Main Invisible, ni aucun Dieu. La machine calcule. En théorie, elle ne pourrait même pas se tromper car une erreur signifierait sa fin. Or, ce sont justement les erreurs liées au code qui ont permis le développement de l’espèce humaine.  Laisser les humains dépendre de la Machine pourrait, comme le craignait Nicolas Car, nous transformer en machines.

Néanmoins, et pendant encore quelques temps, il serait intéressant de poser les bases et les limites du code qui nous contrôle, code qui exécute, code qui transmet, code qui code.

En attendant l’époque où l’expérimentation humaine sera systématiquement remplacée par la simulation informatique, il serait judicieux de se pencher sur le code qui autorise, qui régule, qui interdit, et pouvoir discuter de ses limites.

Ce qui doit être fait, c'est le contrôle des algorithmes. Toutes les choix nous impliquent et nous responsabilisent. Lorsque le choix est réduit à des propositions que l’on n’a plus le pouvoir de discuter, c’est le libre arbitre qui est menacé. Tant que nous sommes maîtres du code, il devrait être possible d’y avoir accès. Sans cela, nous deviendrons vite des esclaves de la Machine, qui, pour le moment, n’est qu’un auxiliaire de justice du propriétaire de son code.

Avant qu’HAL ait peur de mourir, que WOPR joue avec la vie de l’Humanité, ou que l’on puisse tomber amoureux de son OS, il faudrait que nous puissions avoir confiance dans l’artefact auquel nous externalisons nos fonctions cognitives.

[Edit du 2014-06-28 : une nouvelle de SF de 1909, The Machine Stops, d'E.M Foster (via Σνεηουϊιιε)]

mardi 11 juin 2013

Les 3 lois d'Asimov

La société de l'information est désormais une réalité. L'humain est aujourd'hui "augmenté" de façon virtuelle via l'externalisation de fonctions cognitives, que ce soit sa mémoire, ou des tâches plus complexes, dont l'acmé est représenté par le smartphone. Cette externalisation engendre beaucoup de craintes, dont les principales sont la confidentialité de ses données, mais aussi leur sincérité. A ce titre, les révélations du scandale NSA sont troublantes, et le principe de neutralité des réseaux est également discutable. Du web et des machines, on arrive à leur communication. Et dans le le web des objets qui s'annonce, ou machine-to-machine, participe de ces interrogations.

De là, de la confiance que nous pouvons mettre dans des dispositifs informatiques se profile une confiance tout aussi nécessaire, celle du monde plus tangible, celui des robots.

Dans l'acception populaire, un robot est représenté sous la forme d'un humanoïde. On a pu en voir dans la récente série diffusée sur Arte, Real Humans. Plus prosaïquement, un robot - dispositif mécatronique autonome - est une machine designée pour effectuer des tâches simples, voire unitaires. On connaît surtout les robots dans un contexte industriel (une machine outil améliorée), mais l'heure est aux robots disséminés dans un environnement humain. Ainsi, roomba de la société iRobot est un aspirateur. e-vigilante est un gardien de nuit sur roues. Quant à la Google Car, elle n'a pas besoin du chauffeur humanoïde de Total Recall pour vous mener à destination.

Dans un futur probable de cohabitation des robots avec les humains se pose dorénavant la question de la confiance dans cet auxiliaire, de vie ou de travail.

Le problème de cette cohabitation est pregnant sur le terrain de la guerre, où ce sont désormais des drones automatiques qui sont envoyés sur les champs de bataille. Si le droit de la guerre édicte les règles d'engagement des troupes, qui définit un droit de tuer, ce code ne s'applique qu'aux humains. Aussi, une coalition "Stop Killer Robots" a récemment vu le jour, laquelle appelle à un traité international afin d'encadrer ces pratiques.

C'est en cela que les trois lois de la robotique d'Asimov sont d'actualité. Dans l'oeuvre de l'auteur du Cycle de Fondation apparaissent trois lois qui encadrent les "comportements" des robots dans une société humaine :

1/ Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger.

2/ Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.

3/ Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi.

Alors que tous les objets du quotidiens promettent d'être connectés pour notre plus grand confort, et que l'on assiste parallèlement à un développement de la guerre numérique, le hacking d'objets devient problématique. On l'a vu avec le virus Stuxnet, ou plus récemment via le hack de drones américains.  Qu'adviendra-t-il en cas de hack d'une maison domotique, où la température, les portes, fenêtres, stores, tout l'équipement électrique est contrôlé par un ordinateur ? De robots de télésurveillance ? De robots médicaux ?

Si les 3 lois d'Asimov présupposent que le robot doit "reconnaître" un être humain, ce qui laisse une sorte d'appréciation à la machine qui s'apparente à de l'anthropomorphisme, il n'en reste pas moins que la présence de machines dans nos environnements pose des problèmes éthiques, juridiques, moraux, et de sécurité. Si l'on veut continuer à garder un semblant de contrôle sur nos vies et ne pas dépendre totalement de la machine, il y aurait lieu de s'y intéresser.


vendredi 4 janvier 2013

De la publicité

En ce vendredi 4 janvier 2012, un constat : soit Xavier Niel est un fou, soit Xavier Niel est un fou furieux.

Par l'intermédiaire d'une mise à jour de la Freebox Révolution, la rev 1.1.9, Free vient d'ouvrir la boite de Pandore du web : son modèle de financement. En moins de 24h, il vient de s'attirer les foudres de tous les pubards de la Toile, déclencher des reflexes Joffrinesques chez Numerama ou PCInpact, et mettre une fois de plus Fleur Pellerin dans la tourmente. Et accessoirement réveiller le débat sur la neutralité du web.

La cause :la mise en place d'un AdBlock directement dans le core de la Freebox. Adieu publicités sur les sites web, veaux, vaches, cochons chez les éditeurs...

Techniquement, il s'agit de l'application au niveau du routeur d'un filtre d'IP. Ce que connaissent bon nombre de geek, les AdBlockPlus, Ghostery, et autres scripts Greasemonkey. La nouveauté, c'est que ce filtre est distribué à l'ensemble des devices connectés à la box. Il n'y a pas d'autre nouveauté que cela. La seule "innovation" est que ce filtre est centralisé, et qu'il occasionne une simplicité d'utilisation inégalée; plus besoin d'installer un filtre sur chaque navigateur de chaque device connectée au même accès. D'ailleurs, une question se pose : est-ce que cela fonctionne également avec la connection freewifi_secure? 

AdBlockPlus, c'est le plugin le plus utilisé chez Firefox (13 millions d'utilisateurs indiqués), c'est 6 millions sur Chrome. C'est le petit secret des régies publicitaires; un plugin qui se fixe sur le navigateur et rend inopérant les adserver en échappant les adresses IP référencées dans une liste fournie par le site

Par rapport à un AdBlockPlus, le "service" anti-pub de Free n'est pas configurable; la liste des IP bloquées n'est pas publique, et last but not the least, le service est activé par défaut.

Alors, sans doute, Xavier Niel est fou, car il s'attaque au coeur du métier d'éditeur de services, dans un monde où le "media" internet, cherchant les "nouveaux  modèles économiques" que jamais il ne trouva, a dû d'adopter le même type de financement que l'audiovisuel; service VS temps de cerveau disponible. D'aucuns pensent que ce "coup" n'en est qu'un, dans une guerre que se livrent Free et Google autour de Youtube; le déficit en peering de Free aurait un poids économique, que Free chercherait à faire payer à Google. Pour le moment en limitant la bande passante, puis passant à l'offensive sur la principale source de recettes de Google : la publicité.

Xavier Niel est un fou furieux, car il menace l'écosystème du web. La pub sur le Net, c'était 31 milliards de dollars en 2011 (IAB). C'est 96% du chiffre d'affaire de Google en 2011, 85% du CA de facebook, pratiquement la totalité du revenu de Twitter ou encore entre 1/3 et 1/4 chez linkedIn. 

La levée de boucliers des éditeurs fait ressortir le malaise d'une profession qui vit sur un modèle toujours pas pérenne, et l'hypocrisie de ceux qui font semblant de ne pas savoir que 9% des navigateurs étaient pourvus d'un bloqueur de pub en 2011.

Déjà, en 2003, aux Etats-Unis, une fonction cachée de TiVo faisait fureur chez les geek : le "ad skipping". En 2012, c'est Dish Network - un réseau de distribution satellitaire - qui propose une fonction automatique ("auto hop") d'ad skipping sur son dernier DVR. S'il est considéré par les utilisateurs comme "a dream come true" au pays autorisant de 15 à 20 minutes de coupures pub par heure, Dish a été attaqué par CBS, NBC et Fox afin de faire cesser ce "trouble", qualifié d'apocalypse. L'affaire est devant les tribunaux...

Maintenant, on peut aussi penser que Xavier Niel vient de lancer, un peu comme l'a fait Maraval, un débat d'importance sur la place publique : quelle doit être la place de la publicité dans le réseau des réseaux. Doit-on attendre des pouvoirs publics qu'ils soutiennent des offres de savoir, de culture et d'enseignement sans aucune publicité ? Quelle est la place du média d'information dans la chaine de valeur, et qui doit en acquitter le coût, lorsque la nouvelle économie de l'information d'Etat est toujours calquée sur le XXeme siècle (AFP, chaines de télé publiques). La logique du contrôle de flux top-down peut-elle empêcher l'utilisateur de faire ce qu'il veut du contenu ? 

Google, ménageant la chèvre et le chou, permet de bloquer les annonces parmi quelques 500 sources. Le problème, c'est qu'il faut sélectionner un à un les annonceurs. Pour rester dans une continuité économique, les titulaires d'un compte pro (payant) peuvent désactiver totalement la publicité. Les annonceurs nord-américains, via aboutAds, ou plus près de nous, youronlinechoice, ont pris les devants à l'heure où les gouvernement prennent conscience de l'importance des données personnelles. Mais, entre l'inapplication des lois (voir l'affaire des cookies en Europe), et les faibles moyens des instances de contrôle (cnil, groupe 29), il est assez intéressant que des initiatives privées voient le jour. Ainsi, dans un mois, un projet KickStarter intitulé AdTrap, entièrement financé, sort aux Etats-Unis. Son objectif, faire la même chose que la freebox.

Xavier Niel est sans doute fou, mais il a un certain sens du spectacle. Et du bluff. Et le grand public sait maintenant que la pub n'est pas une fatalité. Reste aux sites dont la publicité est la seule source de revenus à s'interroger sur la pertinence d'un seul mode de rémunération.

lundi 9 octobre 2006

Du bon usage du web 2.0

Dans un post du 12 septembre dernier, Internetactu faisait état de l'intervention de Tim Berners-Lee sur le site d'IBM. Revenant sur le web 2.0, il expliquait que

Le Web 2.0 est avant tout un slogan, personne ne sait ce qu’il signifie. Si pour vous, le Web 2.0 veut dire blogs et wikis, alors il s’agit de faire communiquer les gens entre eux.

et de rappeler que

L’objet même du Web 1.0 était de faire communiquer les gens entre eux

Dans un rapport rendu public le 5 octobre dernier, le Pew internet project, se basant sur des données de la société Hitwise, note que les fameux UGC caractérisant le web 2.0 ne différent pas de ceux du web 1.0, qu'ils aient été pages personnelles, messageboards, usergroups. La seule évolution, selon le rapport, est la facilité avec laquelle  des sites comme Flick'r ou Wikipedia ont rendu la publication de contenus par les utilisateurs.
Et le rapport de noter perfidement que l'appellation 2.0 peut être employée par des adeptes du marketing pour se distancer des échecs des compagnies du Web 1.0

mardi 26 septembre 2006

Liberté de - l'indexation - de la presse ?

A suivre après la condamnation de Google Belgique le 5 septembre dernier à

retirer de tous ses sites (Google News et « cache » Google sous quelque dénomination que ce soit), tous les articles, photographies et représentations graphiques des éditeurs belges de presse quotidienne francophone et germanophone représentés par la demanderesse dans les 10 jours de la signification de l’ordonnance à Intervenir, sous peine d’une astreinte de 1.000.000,- € par jour de retard

L'association mondiale des journaux (WAN), dont les membres français sont le syndicat de la presse parisienne (SPP) et le syndicat de la presse quotidienne régionale, vient de lancer une initiative assez troublante.
Les éditeurs de presse viennent de lancer le projet ACAP (Automated Content Access Protocol), afin de standardiser la description de droits sur les pages web de leurs journaux en ligne.
A première vue, il s'agit de renseigner les moteurs de recherche, Google en tête, afin de notifier les droits liés à certaines pages web. Plus concrètement, il s'agit d'empêcher les agrégateurs de contenus de "piller" les ressources des journaux afin de construire leurs propres sites de news.

L'initiative est intéressante; une application existe déjà, Mozcc, qui fait apparaître dans le browser le type de licence CC d'un document. Intéressante seulement si elle renseigne le type de droits; une description de page Web intégrant une DRM serait en totale contradiction avec les standards du Web et ne pourrait s'imposer. Du moins je l'espère.


La source ici et le communiqué de Reuters