error 404

Aller au contenu | Aller au menu | Aller à la recherche

mercredi 25 juin 2014

Les apprentis sorciers

Le problème des rédactions le week-end, c’est qu’elles sont vides. Et que ceux qui sont de permanence ne sont pas nécessairement les plus compétents. C’est ainsi que l’information qui a fait la Une lors week-end de Pentecôte a été reprise par l’ensemble des médias de la planète, sans recul ni précaution aucune. Cette info faisait d’Eugène Goostman la première Intelligence Artificielle passant le test de Turing, c’est-à-dire bernant un humain lors d’une conversation sur son existence réelle.  Cette info est devenue, dans la bouche des média, l’information comme quoi une intelligence artificielle était née. La singularité était donc proche.

Le problème des rédactions le week-end, également dû à la pression exercée sur elles pour faire du scoop, c’est qu’elles valident assez rapidement les actus dites scientifiques, et sont friandes des prophéties auto-réalisatrices. C’est que l’innovation n’attend ni le fact checking, ni les contrepoints nécessaires à une information équilibrée (voir à ce sujet l’excellente série d’Olivier Ezratty sur les Propagandes de l’innovation).  Et l’IA est un très bon client, surtout dans la presse techno. Lors, comme le constate cet article de Techdirt qui a pointé ses errements, toute le presse techno, pure-player pour la plupart, a rendu compte de l’événement qui marquait le franchissement d’un palier. Il n’en était rien. Quoi que…

 

Au début du mois de mai, le physicien Stephen Hawking a questionné le monde sur l'intelligence artificielle. Prenant à témoin la sortie récente du film de science-fiction "Transcendance", il exprimait ses craintes quant à la perte de contrôle des humains dans un monde bientôt promis à Skynet.

" One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all. "

La démonstration est quelque peu vaseuse. D'abord parce que la plupart de ses exemples sont d'ores et déjà réalisés. Ensuite parce que parce Transcendance raconte l'histoire d'un esprit humain numérisé, donc très loin d’un HAL ou d’un WOPR. Mais le prétexte sonne bien, puisqu'il revient désormais à Hollywood de raconter des histoires pour s'y projeter.

Et aujourd'hui, Hollywood s'est emparé du sujet. Transcendance donc, le dernier flop de Johnny Depp. Mais aussi The Machine - qui évoque le langage des machines (le fameux IoT) - et Her amènent sur les écrans, et dans les conversations, des thèmes qu'aucun politique ne discute. Trop aventureux, trop futuriste, trop léger ? Il est vrai que dans la France des comités Théodule, il a fallu attendre 2011 pour le gouvernement se dote d’une commission éclairant le numérique, et 2014 pour que l'Assemblée Nationale lui  emboîte le pas. Pendant ce temps-là, l’administration Obama finance Brain, un projet visant à décrypter, cartographier et enregistrer le cerveau humain.

L'IA est aujourd'hui très largement fantasmée, car on lui prête une certaine magie que nous - humains - sommes les seuls à détenir : la conscience. Mais on ne peut que constater qu'une certaine forme d'intelligence est désormais à l'œuvre dans les systèmes automatisés qui nous servent. Et du service à l'asservissement, il n'y a qu'une légère frontière, qui s'appelle le contrôle. C'est en cela que le texte d'Hawking est pertinent. 

 

Skynet et les mini-moi

Les systèmes experts sont déployés à une large échelle grâce aux applications du web, et tendent à mieux connaitre l'utilisateur pour lui permettre une expérience unique. On la trouve à l'œuvre dans Google (avec l'auto complétion), Siri, Amazon ou Netflix. Si l'on isole le processus, l'intelligence déployée est une série d'algorithmes liés à une base de données qui "apprend" l'utilisateur.

Mais cet apprentissage, basé sur le mimétisme, peut faire en creux apparaître une "personnalité virtuelle", un avatar entièrement numérique pour chaque utilisateur. Un mini-moi. Et de voir alors une multitude de mini-moi chez Apple, Google, Meetic, Critéo et tant d'autres. La publicité pour Cortana, l'IA de Halo, le Siri de Microsoft, le dit explicitement : "I'm absorbing the Internet", "Now I'm learning about you".

La personnification de l'IA, dans Her ou dans Cortana, est l'une des pièces essentielles de la projection de l'IA. Dans l'épisode 1 de la Saison 2 de Black Mirror, Be right back, une app apprend des données publiques et privées d'un individu pour se l'approprier (la façon de parler, les souvenirs) jusqu'à devenir celui-ci. Cela sonne comme de la science-fiction, et pourtant, tous les ingrédient sont à disposition... 

 

En face de cette multitude de mini-moi, LA machine, Skynet, centralisée, que l'on imagine monstrueuse, de part ses capacités de calcul, d'archivage de données, et de périmètre de prise de décision. C'est le core des mini-moi sus-cités, mais c'est aussi Watson d'IBM, qui est capable de fournir des diagnostic médicaux, pour le moment limités à certaines spécialités. La médecine est un process relativement stable, basé sur des symptômes documentés, des diagnostics connus, et des traitements plus ou moins maitrisés; il n’y a donc aucun étonnement à voir des systèmes experts s’en emparer.

Une évolution de Watson s'appelle 'The Debater' et va plus loin que le seul diagnostic puisqu'elle est capable d'argumenter. En gros, non seulement d'afficher un résultat, mais d'en faire la démonstration. Le projet récemment présenté prenait comme exemple "Faut-il interdire l'avortement" ou "les jeux vidéos violents doivent-ils être interdits aux mineurs". Après un apprentissage de l'état de l'art humain – le scan de 4 millions d'entrées issues de Wikipedia – une voix synthétique (celle de Hal, de Siri, de Scarlett Johansson ?) énonce le pour, le contre. L'article cité ne précise pas si un choix est effectué, mais ce n'est in fine pas le plus compliqué à programmer.

En fait, c'est l'acte de décision traitant des humains qui est assez dérangeant dans le cas de la machine. Aujourd'hui, on a la possibilité d'inventer un monde de machines qui nous singent, et d'en être les Créateurs. Demain, de laisser notre libre arbitre à un ensemble d'algorithmes.

Science sans conscience

En théorie, vous ne pouvez plus avoir d'accident avec une Google Car. En supprimant le facteur humain, on élimine la quasi-totalité des causes des accidents de la route. C'est à la fois génial et terrifiant. Génial, parce qu'il n'y a plus à choisir entre boire et conduire. Terrifiant, parce que tout ce qui ne peut être modélisé ne peut être anticipé. Et il faudra bien que la machine qui contrôle prenne des décisions, et en cas d'accident, la moins mauvaise. La moins mauvaise pour qui ? Un article paru récemment dans Wired soulevait la question de l'éthique dans la programmation qui aboutit à des choix de la part de la machine. Dans l'exemple cité, le logiciel de la voiture autonome devait choisir entre heurter un conducteur de moto avec un casque et l'autre sans. Quel "réflexe", basé sur de la big data probabiliste de chocs mortels, doit prendre une machine ? Tuer le motard sans casque, qui n'avait aucune chance de survie ? Ou ne pas trop estropier le motard casqué, et laisser donc vivre le motard irresponsable car ne portant pas de casque ? Ce qui revient à cautionner les comportements hors la loi… La machine doit-elle alors apprécier ce qui est juste ? Ou rendre un verdict "zero tolérance" ?

Cette question d'éthique est tout sauf triviale. Elle renvoie bien évidemment aux 3 lois de la robotique d'Asimov (que l'on voit à l'oeuvre dans le bios de Robocop). Elle interroge également les militaires, lesquels veulent apprendre à la machine la différence entre le bien et le mal.  Car, dans la guerre automatisée que l’on nous promet, l’autonomie des robots à tuer est une question qui se discute jusqu’à l’ONU.

Agacé par ce qu’il nomme “Le complexe de Frankenstein” (la créature détruisant son créateur), l’auteur de science-fiction énonce un ensemble de lois, 3, puis 4, qui sont censées être l’ADN (ou le BIOS) du robot :

  • Loi Zéro : Un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée.
  • Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

 

Dans l’esprit d’Asimov, une machine reste une machine, et son émancipation, si elle est possible, ne repose que sur le bon vouloir de ses créateurs. Et comme l’homme ne peut déroger à ses propres codes, il appartient à l’homme créateur de donner un code fondamental à une machine.

 

L’Humain, cette machine très évoluée, et finalement si simple

Nous sommes régis par des codes. Intrinsèques, subordonnés à la génétique. Et extra, qui sont subordonnés à une sorte de magie (la Nature, les divinités monothéistes ou polythéistes) ou à la raison.
En créant le code, le notre, nous avons établi des règles fondamentales fondées sur une humanité. Ces règles ont cours depuis 3000 ans, et même si nous nous débarrassons petit à petit du fait religieux (la 1ere table de la Loi), le meurtre, le vol ou le faux témoignage (le mensonge, ou altération de la vérité) sont toujours bannis des sociétés modernes.

Nous avons inventé le langage machine, le code qui permet à la machine de traiter de l’information. La seconde phase, c’est d’inventer le langage des machines, celui, interopérable, qui permettra de donner du sens aux informations traitées, afin de les partager entre machines. (voir le dossier IoT des « Défis du CEA » de juin 2014, p. 18). Et donner du sens, c’est faire appréhender à la machine des compréhensions qui pour le moment la dépassent, basées sur des expériences (qu’elle mémorise), leur traitement (que l’on peut coder), et des ressentis, qui pour le moment lui sont totalement étrangers.

Pourtant, la psyché humaine est à portée de tir. Les fameux tests de Rorschach, censés apporter un complément dans le diagnostic des maladies mentales, sont finalement assez pauvres, puisque soumis à une grille de lecture faible et statique.  Il circule actuellement sur les RSS un test de personnalité, basé sur 4 questions, et qui a rencontré un fort succès (dans ma TL du moins). Comme la science des rêves où Freud n'imaginait qu'une seule expression des rêves, la sienne, ce test définit 16 types de personnalité pour l’être humain occidental. Les RH, les chasseurs de tête, disposent de ce genre de tests visant à profiler un candidat potentiel. Il s’agit de mettre un individu dans des cases, et somme toute, de le coder.

On sait, sur des principes simples, programmer une expression. C'est déjà le cas avec les robots-journalistes, qui passent leur temps à passer le test de Turing, nous apprend une étude citée par Slate. Article qui nous apprend également – ou confirme – que les algorithmes qui “créent” l’information ne sont pas neutres, puisque codés par des ingénieurs qui ne le sont pas également.

 

Le futur, c’est maintenant

Hawking craint une “technology outsmarting financial markets”. Cela existe, cela s’appelle le HFT. Les “out-inventing human researchers”, cela existe. Watson “travaille” déjà sur la recherche contre le cancer.  “Out-manipulating human leaders” ? Ca existe. N’importe quel gameplay de jeu freemium est programmé pour que le joueur paie. Et les bug des systèmes d’information nous montrent les possibilités de dérives…

 

Si le cas du “developing weapons we cannot even understand” prête à discussion, tous les exemples cités par Hawking le sont pour adresser une dérive consciente de la machine, dérive où l’intérêt de la machine prime sur celui des humains. Il y aurait donc un intérêt, ou une “liberté” de la machine, telle que le postule un professeur d’Harvard, qui énonce quant à lui une théorie de Maximum Causal Entropy Production Principle,“a conjecture that intelligent behavior in general spontaneously emerges from an agent’s effort to ensure its freedom of action in the future”. Et le chercheur de prendre le complexe de Frankenstein à l’envers : ce n’est pas parce que la Machine devient supra intelligente qu’elle veut contrôler le Monde (ou s’émanciper), c’est parce qu’elle cherche à se libérer qu’elle devient intelligente.

Il n’est bien évidemment pas question de science-fiction ici, mais bien d’anticipation. Combien de temps se passera-t-il entre le moment où la Machine décidera du bien ou du mal ? Où elle régulera nos vies ? La question est tout sauf triviale, car nous sommes en pleine actualité.

Il ne s’agit pas ici de machines conscientes, mais d’algorithmes qui décident à notre place. La technologie nous guide d’ores et déjà dans nos choix de consommation, ou d’expression. Nous pouvons d’ores et déjà leurrer la mémoire d’une souris en lui implantant de faux souvenirs. Nous pouvons leurrer l’humain en lui présentant une reproduction d’un enfant (dans le cadre d’un projet visant à identifier des pédophiles). Nous produisons des spectacles mettant en scène des chanteurs morts. Nous pouvons oblitérer des pans entiers de mémoire en bridant les moteurs de recherche ou les pointeurs vers l’information.

 

Il y a quelques années, dans un essai resté célèbre, Nicolas Carr a posé la question : “Est-ce que Google nous rend stupide?” L’objet de sa question portait sur la modification de notre cerveau qui nous rendait tributaire d’un algo de recherche de mémoire externe, et non plus des connaissances acquises par coeur lors d’un processus exclusivement humain. Cette question avait déjà eu des développements quelques siècles plus tôt, lorsque Montaigne et sa tête bien faite s’opposait à Rabelais et son abîme de science. L’article avait fait débat, mais posait la question sous-jacente de l’externalisation de la mémoire, et in fine, de son appropriation et de son accès.

 

Poser les bases d’Asimov pour garantir les libertés humaines

L’éthique, la morale, la justice sont des “codes” inconnus à la machine.  Avant de s’enthousiasmer pour le prochain Eugène Goostman (ou le craindre), il serait bon de pouvoir en contrôler le code. Car qui contrôle le code contrôle les machines. Et au-delà, qui détient le Futur ? Avant de pouvoir imaginer des lendemains enchanteurs, où la Machine, asservie, libèrera l’humain du travail aliénant, il serait intéressant de voir qui contrôle les robots ?

La question mérite d’être posée, dès lors que l’on voit arriver à grands pas de nouvelles plateformes d’échanges, permettant la mise en oeuvre de l’Internet des Objets, ou IoT. Les récentes annonces d’Apple ou de Google laissent entrevoir un futur où toutes les communications entre machines passeront par des plateformes opérées par de grands groupes privés. Ce contrôle intéresse également les Etats, notamment pour des motifs de sécurité. Ainsi, certains Etats européens réfléchissent à installer des dispositifs visant à prendre le contrôle de voitures à distance dans le cadre d’opérations policières.

D’ores et déjà, certains services publics peuvent être aisément remplacés par des plateformes d’application. En étant des « citoyens » de plateforme de communication (facebook, twitter, Instagram) nous en acceptons les CGU, et respectons la « loi ». Nous acceptons les lois morales d’Apple, Google, et d’autres entreprises qui décident, via le code, des informations que nous pouvons recevoir, celles dont nous pouvons nous souvenir, auxquelles nous pouvons accéder. Ou plus. 

La machine est infaillible. Elle ne "connait" ni le doute, ni la peur, ni la culpabilité. Elle n'a pas de raison, et encore moins de conscience. Elle travaille "mieux" et plus vite que l'humain, car elle ne "vit" pas au rythme circadien, n'a pas de défaillance liée à sa composition biologique. Elle ne "craint" ni la Main Invisible, ni aucun Dieu. La machine calcule. En théorie, elle ne pourrait même pas se tromper car une erreur signifierait sa fin. Or, ce sont justement les erreurs liées au code qui ont permis le développement de l’espèce humaine.  Laisser les humains dépendre de la Machine pourrait, comme le craignait Nicolas Car, nous transformer en machines.

Néanmoins, et pendant encore quelques temps, il serait intéressant de poser les bases et les limites du code qui nous contrôle, code qui exécute, code qui transmet, code qui code.

En attendant l’époque où l’expérimentation humaine sera systématiquement remplacée par la simulation informatique, il serait judicieux de se pencher sur le code qui autorise, qui régule, qui interdit, et pouvoir discuter de ses limites.

Ce qui doit être fait, c'est le contrôle des algorithmes. Toutes les choix nous impliquent et nous responsabilisent. Lorsque le choix est réduit à des propositions que l’on n’a plus le pouvoir de discuter, c’est le libre arbitre qui est menacé. Tant que nous sommes maîtres du code, il devrait être possible d’y avoir accès. Sans cela, nous deviendrons vite des esclaves de la Machine, qui, pour le moment, n’est qu’un auxiliaire de justice du propriétaire de son code.

Avant qu’HAL ait peur de mourir, que WOPR joue avec la vie de l’Humanité, ou que l’on puisse tomber amoureux de son OS, il faudrait que nous puissions avoir confiance dans l’artefact auquel nous externalisons nos fonctions cognitives.

[Edit du 2014-06-28 : une nouvelle de SF de 1909, The Machine Stops, d'E.M Foster (via Σνεηουϊιιε)]

lundi 27 mai 2013

Les paradoxes Google

Il y a deux mois, au détour d'un papier sur son blog du New York Times, l'économiste Paul Krugman développait l'idée du journaliste économique Ryan Avent (sur son blog de The Economist, Free Exchange) : "nationaliser" la fonction de search sur internet. Partant de la suppression de Reader par Google, il s'interrogeait sur le caractère monopolistique d'un service, et son éventuelle prise en charge par les pouvoirs publics. L'idée pouvait paraître saugrenue, mais à y regarder de plus près, la position de Google dans la chaîne de valeur tout comme le développement de la fonction de recherche dans l'économie - la société - du Net engendrent beaucoup de questions, quant à la place des Interweb dans nos vies.

Dans l'économie du Net, le motto est celui du "winner takes it all" (ou effet superstar théorisé par S. Rosen en 1981). Ce principe est une sorte de loi de Pareto s'appliquant aux individus starifiés. Il convient néanmoins parfaitement aux entreprises, notamment de service informatique, en grande partie à cause de la similarité de leur existence : l'immatérialité. [Un corrolaire fut proposé par Chris Anderson en l'expression d'une économie de la Long Tail (longue traine) : les 20% restant de la distribution de Pareto pouvant être exploités selon une temporalité plus longue.]

 

L'ogre Google, né en 1998, a procédé à une concentration horizontale de son marché initial, la fonction de recherche. Si l'on regarde l'année 2004 (au hasard, d'un lien  retrouvé sur Google), les fonctions de recherche étaient distinctes; ainsi, selon SearchEngineWatch, qui établissait chaque année un palmarès des moteurs, on pouvait distinguer la recherche pure (7 acteurs), la méta-recherche (21 acteurs), la recherche de News (10 acteurs), la recherche de blogs (8 acteurs), la recherche d'images (5 acteurs), la recherche de sites de e-commerces (aux Etats-Unis, 8 acteurs).

9 ans plus tard, l'ogre Google concentre toutes ces recherches, représentant plus de 90% du marché en Europe (AT Internet, avril 2013), et les 2/3 aux Etats-Unis (Comscore, avril 2013). Ce monopole est l'objet de beaucoup d'attentions de la part des services de l'UE ou de la France. Mais, le choix étant celui du consommateur/citoyen, plébiscitant une fonction de qualité, Google paraît intouchable tant la recherche est un service privé, dont l'usage est mu par la demande, et sur un marché qui s'apparente de plus en plus à une utilité publique. 

Internet, ce pourrait être ce service d'informations célébré en 1789, la presse, composante essentielle de la démocratie, à la fois sentinelle et guide, dont Desmoulins disait, en parlant des journalistes "aujourd'hui, les journalistes exercent le Ministère public, ils remplissent une véritable magistrature" [in La contre-démocratie, P. Rosanvallon]. L'impact de l'internet sur l'organisation de la société n'est plus à démontrer; son utilité non plus (par exemple, au travers de ce récent sondage effectué en Amérique latine indiquant que 82% des répondants avaient appris quelque chose de nouveau grâce à lui).

D'ailleurs, étant donné l'impact des activités d'Internet sur l'organisation de la société, au sens large, on pourrait adapter la déclaration des droits et des devoirs de la presse de novembre 1945 de la Fédération nationale de la presse française selon laquelle :

« la presse n'est pas un instrument d'objet commercial mais un instrument de culture ». Celle-ci n'est libre que lorsqu'elle ne dépend «  ni du gouvernement ni des puissances d'argent, mais de la seule conscience des journalistes et des lecteurs ». Elle a pour mission de « donner des informations exactes, défendre des idées, servir la cause du progrès humain ».

Il suffirait de remplacer "presse" par "internet". Et puisqu'au cœur de l'Internet se cache Google, reprenons l'assertion de Krugman, et paraphrasons Patrick Eveno, dans son "Histoire du Journal Le Monde - 1944 - 2004" :

" Google est donc perçu comme un quasi service public même si Eric Schmidt dira plutôt que « Google est au service du public ». "

Et continuons la paraphrase.

 

Google : Software as a - public - service ?

En 1998 est apparu l'iconoclaste moteur de recherche. Dans un internet dominé par les portails tels yahoo ou AOL, où la recherche était encore une fonction triviale, dans un monde où les investisseurs avaient réduit le réseau des réseaux à un gigantesque supermarché, l'iconoclaste Google est arrivé avec cette prétention :

"Notre mission est d'organiser les informations à l’échelle mondiale dans le but de les rendre accessibles et utiles à tous"

Le caractère iconoclaste de l'entreprise se vérifie ensuite dans son approche du marché. En effet, ses fondateurs ont créé une plateforme de marché, véritable, de type walrassienne : le principe des enchères sur mots clés, introduit par Bill Gross en 2002, obéissait à une véritable place de marché publicitaire, non biaisée par les multiples remises et accords secrets pourvus par les agences (voir par exemple les remises offertes par RF publicité ici). Non seulement ce principe d'achat de mots clés reposant sur des enchères a été couronné de succès, mais Google l'a également appliqué lors de son introduction en bourse, via le principe de l'adjudication à la hollandaise. Google mettait en place la concurrence pure et parfaite, sur sa place de marché : la publicité. 

Ce faisant, Google, en misant sur le cœur de la problématique - l'internaute désire une réponse à une question, qui n'est pas réduite à un ordre marchand - est devenu en 10 ans le leader occidental de la recherche. Et loin de se reposer sur ses lauriers, l'entreprise a poursuivi son développement, capitalisant sur la donnée comportementale accumulée au fil des années, et devenant le principal créateur de services à hautes valeur ajoutée liés à la société de l'information..

Comme le note Barbara Cassin dans "Google-moi", le terme "mission" n'est pas neutre, et renvoie à une vision prosélyte, voire civilisatrice d'internet (et partant, du moteur de recherche), telle qu'elle est décrite dans le récent livre de Schmidt et Cohen, "The New Digital Age" (critiqué ici).

 

Dans la lettre aux investisseurs, préalable à leur entrée en Bourse de 2004, les fondateurs écrivaient :

" Our intense and enduring interest was to objectively help people find information efficiently. We also believed that searching and organizing all the world's information was an unusually important task that should be carried out by a company that is trustworthy and interested in the public good. We believe a well functioning society should have abundant, free and unbiased access to high quality information. Google therefore has a responsibility to the world. "

Cette responsabilité, et cette recherche du bien public, se transforment dans tout une série de services que l'on pourrait qualifier de services publics. Ainsi, dès la survenue de la tornade meurtrière en Oklahoma, Google, a édité la carte des lieux, indiquant les zones touchées. Cette crisismap avait déjà été employée par le passé depuis l'ouragan Katrina, et est réactivée à chaque catastrophe planétaire. Idem lors des attentats de Boston, où l'entreprise a immédiatement lancé une page PersonFinder.

Google a de fait lancé son propre charity, Google.org, qui se sert de tous les outils qu'il a mis en place pour son propre intérêt pour s'intégrer dans la communauté en les dérivant dans des optiques citoyennes. Le projet crisisresponse intègre google map, et personfinder pour chaque crise d'importance survenue dans le monde.

 

Mais le coté boy-scout de l'entreprise ne s'arrête pas là. Disposant de moyens énormes, de données gigantesques et encourageant ses équipes à créer des projets personnels, Google met en place des outils qui n'ont rien à voir avec un caractère marchand. Ainsi, avec les images provenant du programme spatial keyhole derrière GoogleMap (qui fut d'abord un programme militaire d'espionnage, ne l'oublions pas), Google a lancé timelapse. Ces animations déroulant 30 ans d'imagerie satellite font prendre conscience des transformations de notre habitat terrestre.

Derrière ce projet citoyen, se cache un service, Earth Engine, qui :

" makes it available online with tools for scientists, independent researchers, and nations to mine this massive warehouse of data to detect changes, map trends and quantify differences on the Earth's surface. Applications include: detecting deforestation, classifying land cover, estimating forest biomass and carbon, and mapping the world’s roadless areas "

Google, entreprise de droit privé américain, prétend non seulement organiser toute l'information disponible sur la planète, mais l'utiliser dans la recherche idéalisée du "bien". C'est l'idée du slogan non officiel, "don't be evil".

Et l'entreprise ne s'arrête toujours pas là. La création d'un laboratoire d'idées, Google [x], participe également de cet idéal. D'après son directeur, Astro Teller, cité dans un récent article de BusinessWeek  :

" Anything which is a huge problem for humanity we’ll sign up for, if we can find a way to fix it. ”

Google entend s'attaquer à n'importe quel problème de l'humanité, et y apporter une solution. Rien que ça....

 

Google as an Oracle

Comme le relate l'article, Google [x] n'est qu'un énième rejeton des laboratoires privés issus d’entreprises industrielles, comme les Bell Labs ou le Xerox Parc. [x] est responsable entre autres de la GoogleCar, ou des GoogleGlass.

Google vient de prendre un virage radical dans sa participation à la création en lançant un projet extraordinaire : Google Brain, placé sous la direction d'Andrew Ng, et sous la houlette du gourou de la singularité : Ray Kurzweil.

En partenariait avec la NASA, Google envisage de créer une intelligence artificielle, basée sur des ordinateurs quantiques. Pour le moment, seules des entreprises telles qu'IBM avaient envisagé cette création, et encore, pour des usages purement spécifiques, de recherche d'abord (Deep Blue pour le jeu d'échecs) puis professionnel (Watson, pour le moment cantonné à l'aide à la décision dans le domaine médical). C'est que le modèle technique à base de supercalculateurs est coûteux à mettre en place, et les bases de données crawlées pour que la machine "apprenne" sont spécialisées.

Dans son livre consacré à Google, "The search: how Google and its rivals rewrote the rules of business and transformed our culture" paru en 2006, John Batelle détaillait déjà l'idée sous-jacente de Brin et Page :

" Search is also a catalyst in promising attempts at cracking one of mankind's most intractable problems: the creation of artificial intelligence. By its nature search is one of the most challenging and interesting problems in all of computer science, and many experts claim that continued research into its mysteries will provide the commercial and academic mojo to allow us to create computers capable of acting, by all measures, like a human being. "

Partant de ce qu'il appelait la base de donnée intentionnelle (Database of Intentions), Batelle liait la connaissance aigûe de toute problématique humaine via son questionnement - que l'on retrouve dans le Zeitgeist annuel, mais dont on peut apprécier les effets non triviaux dans ses statistiques de prévalence de la grippe par exemple - à la constitution d'une intelligence artificielle d'envergure.

Lier les intentions et la potentialité du résultat devient, au fur et à mesure de l'avancée des technologies, et de la baisse de leur coût, du domaine du possible; on en voit d'ailleurs des résultats concrets avec un mathématicien comme Nate Silver, qui a, lors des deux dernières élections américaines, "prédit" la victoire d'Obama. Le programme de Google sur l'IA dispose d'un avantage indéniable sur n'importe lequel de ses concurrents : Google crawle tout ce que l'humain a numérisé depuis 20 ans, et dispose des données associées visant à qualifier ses bases de données : la validation du résultat de la recherche.

 

L'organisation du - nouveau - Monde

On peut rapprocher l'organisation du monde occidental du XXème siècle de la structure héritée du livre : une table des matières, ordonnée, hiérarchisée. Ses clercs, disposant d'accès privilégiés à l'information, en sont devenus les maîtres.

A l'ère de la sérendipité, la construction physique de l'information, qui a structuré la construction mentale des humains, n'est plus. Il suffit de se rendre dans n'importe quelle classe de cours pour voir les étudiants tous atteints d'un syndrome du déficit de l'attention. La linéarité de l'apprentissage, comme la hiérarchie des savoirs, n'est plus de mise.

Les Etats sont passé totalement au travers de la "société de l'information". Ils ont failli, en pensant qu'Internet était un sous-ensemble d'une économie, et qu'il était valorisable. Or, dans la société de l'information, Internet est une surcouche, qui comprend également le monde réel.

Les Etats ont failli, en laissant les Postes hors la messagerie électronique, en laissant le territoire hors le numérique (cf. le fail IGN). Les Etats on failli en n'appropriant aucune des technologies numériques à leur disposition pour développer le système qui les porte. Même le nouvel eldorado de l'organisation, l'openData, qui sous-tend l'openGovernment, est un phénomène récent.

Les Etats ont failli, et n'ont rien vendu d'indépassable à leur population depuis la conquête spatiale. Les résolutions pour combattre la pauvreté, les maladies, l'illétrisme s’enchaînent, et à coups de centaines de millions de dollars, le résultat ne suit pas;  les sommes investies sont le plus souvent accaparées par les gouvernants au détriment de leur population. Ici encore, le boy-scout Google arrive et annonce de massifs investissements dans le déploiement de réseaux sans-fil, en Afrique sub-saharienne et en Asie du Sud Est. Si ces investissements sont avant tout économiques (permettre l'accès à ses services, et d'étendre son monopole), il ne faut pas s'en tenir à cela. Relisez "The New Digital Age"...

 

John Batelle, déroulant le fil de ses interrogations sur Google, écrivait :

" Search straddles an increasingly complicated territory of marketing, media, technology, pop culture, international law, and civillibenies. It is fraught not only with staggering technological obstacles-imagine the data created by billions of queries each week-but with nearly paralyzing social responsibility.

If Google and companies like it know what the world wants, powerful organizations become quite interested in them, and vulnerable individuals see them as a threat. Etched into the silicon of Google's more than 150,000 servers, more likely than not, are the agonized clickstreams of a gay man with AIDS, the silent intentions of a would-be bomb maker, the digital bread crumbs of a serial killer. Through companies like Google and the results they serve, an individual's digital identity is immonalized and can be retrieved upon demand. For now, Google cofounder Sergey Brin has assured me, such demands are neither made nor met. But in the face of such power, how long can that stand? "

 

Si Google peut mettre en ligne un outil de trend de videos de lolcat aux Etats-Unis, il peut également savoir qui poste les vidéos du printemps français, qui les regarde, qui les recommande, combien les mettent en favoris ? Quel est le taux de propagation, sur quelle période ? Sur quels territoires ? Quel est le taux d'engagement, et in fine quelles sont les chances d'avoir la création d'un Tea Party à la française...

 

Le monde selon Google

Internet remplit à l'heure actuelle une sorte de service public, et l'organisation sous-jacente (son administration) est effectuée majoritairement par Google. Et de cette "structure structurante" ressort une fondamentale redéfinition des caractéristiques propres de l'être humain; comme l'énonce Avent dans son article :

" [with the search] we stop memorising key data points and start learning how to ask the right questions. We begin to think differently. We stop remembering who said what when about what engagement on such-and-such a date, because we have fully archived email and calendar services for all of that. And we instead devote more mental energy to figuring out how to combine the wealth of information now at our hands into interesting things. [...] The bottom line is that the more we all participate in this world, the more we come to depend on it. The more it becomes the world. "

Tout un processus cognitif est non seulement externalisé, mais confié à un tiers, une entreprise, laquelle promeut "le bien". Aucune autre ligne directrice, aucune constitution, aucun ordre moral ou contrainte juridique ne lie un utilisateur à Google. Seule, la promesse du bien, par une structure qui évolue à toute vitesse et qui petit à petit se détache des contraintes du monde physique. 

Lors de la conférence Google I/O du mois de mai, Larry Page a exprimé l'idée de créer - physiquement - un monde à l'écart du monde, où des expérimentations de toutes sortes pourraient être créées, à l'écart de toute régulation. Une sorte d’île (comme imaginée par Wired), dont l'idée est clairement tirée du festival Burning Man, où les deux fondateurs ont posé leur sac à l'été 99. David Vise, dans "Google story", paru en 2008 rapporte les propos de Harley K. Bierman, l'un des organisateurs :

" Burning Man is a social experiment where an entire city gets built, lived in and then disappears. And that is the biggest performance art piece of the whole event—the art of leaving without leaving anything behind."

 

 

Est-ce la réminiscence des débuts d'Internet, dont les créateurs étaient des barbus sous LSD ? Est-ce un territoire dédié, visant à accueillir une sorte de technotribu, telle qu'imaginé par Powers ou Gibson (avec le mouvement Steampunk), Jodorowski (l'Incal), Simmons (Les Canthos d'Hyperion) ou encore Miller (Martha Washington) ? Est-ce la volonté de poursuivre cet idéal de la contre-culture, et de construire dans le réel l'utopie d'un Barlow ? Est-ce cette liberté de création revendiquée dans la philosophie de l'entreprise

Certains peuvent juger que l'horizon de Google est skynet. Avec un budget de R&D de $6,8 milliards en 2012, Google dispose d'une manne financière extraordinaire pour mener à bien des recherches appliquées sur n'importe quel sujet visant à "résoudre un problème de l'humanité". A titre de comparaison,  c'est deux fois le budget du CNRS ou encore 1/3 du budget de la NASA.

Si l'on suit l'idée de Page, le laboratoire a pour but de délivrer par la suite ses résultats à l'ensemble de la communauté. C'est ainsi que sa position serait politique. Et elle l'est déjà, lorsque l'entreprise défend ses utilisateurs contre l'Etat américain, ou s'oppose à SOPA ou PIPA.

 

Le paradoxe de Google, c'est d'être la seule entreprise privée au monde à ne plus seulement créer des produits et services, mais à façonner le monde qui le contient, et à écrire une partie de son histoire, comme cela ne s'est jamais produit dans celle de l'humanité. Le paradoxe de Google, c'est d'être en mesure d'écrire le futur des citoyens du monde, en fournissant des services publics dans un espace privé. Si comme l'indique la notice préalable à l'IPO de 2004 :

" Google users trust our systems to help them with important decisions: medical, financial and many others. Our search results are the best we know how to produce. They are unbiased and objective, and we do not accept payment for them or for inclusion or more frequent updating. [...] We believe it is important for everyone to have access to the best information and research, not only to the information people pay for you to see. [...] We have a strong commitment to our users worldwide, their communities, the web sites in our network, our advertisers, our investors, and of course our employees. Sergey and I, and the team will do our best to make Google a long term success and the world a better place."

la confiance est essentielle de la part des utilisateurs, et que Google prétend délivrer une information objective, est-ce que ces bons sentiments survivront au triumvirat hors norme Brin/Page/Schmidt qui agit comme un monarque éclairé, voulant créer "un monde meilleur" ?

Google va-t-il se transformer en Etat ? Les absorber tous ? Verra-t-on un jour des citoyens Google ? Dans la captation de la valeur "d'intérêt public" par une entreprise privée, les questions méritent d'être posées.