La société de l'information est désormais une réalité. L'humain est aujourd'hui "augmenté" de façon virtuelle via l'externalisation de fonctions cognitives, que ce soit sa mémoire, ou des tâches plus complexes, dont l'acmé est représenté par le smartphone. Cette externalisation engendre beaucoup de craintes, dont les principales sont la confidentialité de ses données, mais aussi leur sincérité. A ce titre, les révélations du scandale NSA sont troublantes, et le principe de neutralité des réseaux est également discutable. Du web et des machines, on arrive à leur communication. Et dans le le web des objets qui s'annonce, ou machine-to-machine, participe de ces interrogations.

De là, de la confiance que nous pouvons mettre dans des dispositifs informatiques se profile une confiance tout aussi nécessaire, celle du monde plus tangible, celui des robots.

Dans l'acception populaire, un robot est représenté sous la forme d'un humanoïde. On a pu en voir dans la récente série diffusée sur Arte, Real Humans. Plus prosaïquement, un robot - dispositif mécatronique autonome - est une machine designée pour effectuer des tâches simples, voire unitaires. On connaît surtout les robots dans un contexte industriel (une machine outil améliorée), mais l'heure est aux robots disséminés dans un environnement humain. Ainsi, roomba de la société iRobot est un aspirateur. e-vigilante est un gardien de nuit sur roues. Quant à la Google Car, elle n'a pas besoin du chauffeur humanoïde de Total Recall pour vous mener à destination.

Dans un futur probable de cohabitation des robots avec les humains se pose dorénavant la question de la confiance dans cet auxiliaire, de vie ou de travail.

Le problème de cette cohabitation est pregnant sur le terrain de la guerre, où ce sont désormais des drones automatiques qui sont envoyés sur les champs de bataille. Si le droit de la guerre édicte les règles d'engagement des troupes, qui définit un droit de tuer, ce code ne s'applique qu'aux humains. Aussi, une coalition "Stop Killer Robots" a récemment vu le jour, laquelle appelle à un traité international afin d'encadrer ces pratiques.

C'est en cela que les trois lois de la robotique d'Asimov sont d'actualité. Dans l'oeuvre de l'auteur du Cycle de Fondation apparaissent trois lois qui encadrent les "comportements" des robots dans une société humaine :

1/ Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger.

2/ Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.

3/ Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi.

Alors que tous les objets du quotidiens promettent d'être connectés pour notre plus grand confort, et que l'on assiste parallèlement à un développement de la guerre numérique, le hacking d'objets devient problématique. On l'a vu avec le virus Stuxnet, ou plus récemment via le hack de drones américains.  Qu'adviendra-t-il en cas de hack d'une maison domotique, où la température, les portes, fenêtres, stores, tout l'équipement électrique est contrôlé par un ordinateur ? De robots de télésurveillance ? De robots médicaux ?

Si les 3 lois d'Asimov présupposent que le robot doit "reconnaître" un être humain, ce qui laisse une sorte d'appréciation à la machine qui s'apparente à de l'anthropomorphisme, il n'en reste pas moins que la présence de machines dans nos environnements pose des problèmes éthiques, juridiques, moraux, et de sécurité. Si l'on veut continuer à garder un semblant de contrôle sur nos vies et ne pas dépendre totalement de la machine, il y aurait lieu de s'y intéresser.