Industrie 2017, le droit de la robotique en débat

uite à l’examen par le Parlement européen du rapport Delvaux, le droit de la robotique fait débat au sein de l’Union sur fond de compétition technologique internationale mais aussi de tensions sociales et même, de réflexion éthique. Intelligence artificielle et mobilité, assistance et collaboration, sécurité et conformité… quatre experts français ont confronté leurs visions.

 

réunis autour de Guy Fages, rédacteur en chef du trimestriel Smart Industries, l’avocat Alain Bensoussan, Bruno Bonnell, créateur des sociétés Robopolis et Awabot et du fond d’investissement Robolution Capital, Renaud Champion, cofondateur de ce même fond et Jean Tournoux, délégué général du Symop ont partagé leurs visions des enjeux liés à la robotique pour décrypter le marché actuel ainsi que les attentes des industriels. Ils ont également, livré leurs impressions afin d’appréhender les forces et les faiblesses des positions légales et contractuelles existantes.

Peut-on en préambule donner une définition de la robotique ?

Jean Tournoux – Un robot, c’est une machine autonome, généralement articulée dans deux axes ; voilà pour une définition très industrielle qui serait évidement différente dans d’autres univers. J’insiste sur le mot « machine » parce que nous parlons ici, d’industrie et donc de dispositions qui leurs sont précisément reliées.

Bruno Bonnell – Le mot est né en 1920 dans une pièce de théâtre de l’auteur tchécoslovaque Karel Čapek intitulée « Rossum’s Universal Robots » qui avait inventé un homme décérébré appelé « robot » de la racine slave robota . Il était censé remplacer les hommes dans les usines et cette œuvre décrit une utopie où l’homme passerait son temps à lire, danser, chanter et aimer tandis que les robots travailleraient à sa place. Il faut évidemment rappeler le contexte de la révolution de 1917 et bien sûr la notion de lutte des classes très présente à cette époque. Ces machines intelligentes représentaient la solution pour en sortir. D’ailleurs, dans le texte original, on est plus proche de la notion de clones biologiques que de celle du robot tel qu’il existe aujourd’hui.

Bien sûr, le robot actuel, ce n’est pas du tout cela et pourtant, on l’assimile souvent à l’être humain avec lequel il entre en compétition. C’est peut-être ce qui explique que par extension on ait envie de lui donner des droits.

Le robot est une machine savante et non pas intelligente qui a trois caractéristiques : elle possède des capteurs pour comprendre son environnement, elle a des processeurs et des logiciels pour prendre des décisions par rapport aux paramètres qu’elle collecte et elle a enfin des actionneurs qui lui permettent d’agir sur le monde réel. En conséquence, un aspirateur ou un véhicule autonome sont des robots autant par certains aspects qu’une machine-outil sophistiquée…

Alain Bensoussan – J’adhère totalement à la définition de Bruno Bonnell qui parle aussi d’espèce artificielle. Pour moi, un robot, ce n’est pas un objet et ce n’est pas non plus un humain, pourtant il a une capacité à comprendre le réel et il a une capacité d’apprentissage. Ça nous amène à la situation où deux machines munies des mêmes capteurs et s’appuyant sur les mêmes algorithmes réagiront différemment selon les situations. Par exemple, une voiture autonome dotée de capacités d’auto-apprentissage n’aura probablement pas la même conduite selon qu’elle aura toujours accompli des déplacements à Paris ou au Caire. Il s’agit donc pour moi d’une espèce juridique nouvelle qui a besoin qu’on lui reconnaisse des droits que je suis prêt à défendre.

Renaud Champion – Les définitions sur les robots sont évolutives. Par exemple, ce qu’on en disait il y a trente ans n’a rien à voir avec ce qu’on en dit aujourd’hui. On peut parler de machine intelligente, de machine communicante et donc, pas seulement connectée, on peut encore parler de machine apprenante… tout cela évolue avec les technologies.

Aujourd’hui, on s’interroge : un logiciel d’intelligence artificielle capable de prendre des décisions de manière indépendante, est-ce un robot ? Faut-il aussi le réguler et l’encadrer ? Avec l’évolution des technologies, il faut comprendre que donner une définition concise est difficile.

Justement l’image que l’on donne de la robotique au grand public est-elle la bonne ?

Bruno Bonnell – On utilise beaucoup de termes issus de la biologie pour parler de choses qui relèvent de l’électronique et de la mécanique. Deux exemples : on parle d’intelligence artificielle alors qu’on pourrait parler d’algorithmie mais c’est moins vendeur… on parle encore de réseaux neuronaux alors qu’on pourrait tout aussi bien parler de réseaux en étoile ou de réseaux matriciels à multiple dimension. Nous utilisons donc des raccourcis sémantiques qui rapprochent du vivant et dans l’esprit du profane, c’est immédiatement associé à la notion que ce serait presque l’homme. Et c’est en plus anxiogène lorsqu’on explique les performances par exemple, dans le domaine du calcul et qu’on vient les comparer à celles de l’humain dans les mêmes conditions.

Je reviens sur la notion d’espèce pour préciser que j’entends par là qu’il existe une grande diversité de robots : statiques, mobiles à roues ou à chenilles, avec des pieds, avec un ou deux bras voire plus… Mon but est d’attirer l’attention sur ce que j’appelle la « robolution » qui va une fois de plus transformer nos méthodes de production mais aussi, notre vie en général.

La sémantique va jouer un rôle important pour la compréhension. Rappelons que le terme « automobile » contient déjà la notion de mouvement autonome, comment appellerons-nous les voitures autonomes ?

Peut-on décrypter les univers dans lesquels la robotique va se déployer ? La directive machine est-elle encore adaptée ?

Renaud Champion – Il y a un consensus parmi les industriels et ce, à l’échelon européen pour reconnaître que cette directive couvre nombre de problèmes rencontrés. Il y a évidemment une tendance nouvelle qui tend à tout remettre à plat pour redéfinir un nouveau cadre juridique. C’est à mon sens dangereux parce que cela va prendre du temps alors qu’en Asie et aux Etats-Unis, les industriels ne se posent pas tant de questions.

Surtout, je pense que la directive machine est une bonne base pour certaines applications même si elle doit évoluer si on veut être en mesure d’encadrer par exemple, la robotique d’assistance à la personne. Pourtant, déjà aujourd’hui, l’utilisation d’un exosquelette pour le transport de charges lourdes entre dans le cadre de la directive actuelle. Inutile donc de nous précipiter de tout remettre en cause comme voudrait le faire certains experts européens ; partons de la solide base dont nous disposons.

Alain Bensoussan – La directive machine est à mon sens, inadaptée puisque par exemple, elle n’englobe pas l’intelligence artificielle, les algorithmes, la datamasse, les capacités d’auto-apprentissage et de faire des choix autonomes… La directive machine a vieilli.

La question qu’il faut se poser est : est-ce que les machines intégrant les éléments que je viens de citer, relèvent encore de la directive machine ? Dans l’affirmative, l’exploitant est couvert par son contrat d’assurance en cas d’incident ; dans la négative, il ne l’est pas !

Jean Tournoux – En toute bonne logique aujourd’hui, la directive dont nous parlons est l’élément robuste qui permet d’installer des robots dans les cages de protection et même, en dehors des cages lorsqu’on parle de robotique collaborative, c’est-à-dire, de machines qui partagent un même espace de travail avec nous ou qui nous assistent dans nos gestes. Même si les robots deviennent de plus en plus intelligents, la directive machine dit qu’il faut analyser les risques. En cas d’incidents impliquant une machine, et il faut comprendre que chaque cas est différent, c’est soit le fournisseur du robot, soit l’intégrateur, soit l’utilisateur qui est impliqué. C’est l’analyse des causes précises de l’accident qui détermineront les responsabilités.

Bruno Bonnell – La notion de responsabilité est très difficile à aborder parce qu’on accorde un crédit d’infaillibilité à la machine. Imaginons un véhicule autonome avec à son bord une personne qui n’a que quelques mois à vivre, un jeune enfant traverse si soudainement que le véhicule n’a plus le temps de freiner. Il faut donc soit que le véhicule s’écrase dans un mur en s’écartant, soit qu’il renverse l’enfant avec dans l’un et l’autre cas, une issue fatale pour l’une ou l’autre des personnes en présence.

Dans le cas où le véhicule serait conduit par la personne à son bord, si l’enfant est renversé, on parlera d’erreur humaine en acceptant que l’humain ne soit pas infaillible. La machine ne pourra bénéficier d’un tel crédit. N’ayant pas le droit de faillir, elle devra arbitrer par une algorithmie particulière entre la survie de l’un ou de l’autre. Parce que c’est une machine, on recherche la ou les responsabilités en excluant de facto, l’accident. L’accident est un ensemble de circonstances particulières qui sera arbitré par des experts alors que la machine n’aura par défaut, aucun crédit. Je pense que comme il y a des erreurs humaines, il y aura des erreurs robotiques et il faudra les assumer.

Justement comment peut-on tolérer le risque ?

Renaud Champion – Aujourd’hui dans beaucoup d’applications robotiques, on manque de la mesure du niveau de risque comme c’est le cas avec le véhicule autonome. Il est évident que l’on n’a pas assez de recul en termes de nombre de véhicules et de kilomètres parcourus pour extrapoler de la fréquence des accidents. Par exemple, pour le transport aérien, le risque est de un millionième mais il a fallu du temps pour le calculer.

Dans les applications de robotiques avancées, on cherche à anticiper les mesures de risques alors que l’on est dans l’incapacité de valider les technologies qui vont avec. On cherche donc à forcer les usagers à accepter la prise de risque. Or, on ne pourra transformer la perception du risque dans la société du jour au lendemain. Ce processus prendra du temps...

A l’inverse, légiférer aujourd’hui a priori, alors que les technologies ne sont pas encore prêtes et que l’on n’a pas de recul est totalement stérile. Il faut prendre en compte la mesure du risque, l’accompagner, tester les technologies. Dans la robotique collaborative industrielle, dans celle de l’assistance à la personne et sur la route avec le véhicule autonome, créons des situations qui permettent de tester les technologies pour amasser des données permettant de mesurer le seuil d’erreur et ensuite, il sera possible de travailler à son acceptation par les utilisateurs.

Bruno Bonnell – Rappelons que depuis la loi Macron, il est possible d’installer un robot en dehors de la directive machine à des fins d’expérimentation à condition toutefois d’avoir fait une demande d’agrément adaptée. Mais cette possibilité existe bel et bien : l’expérimentation est possible dès lors qu’elle est encadrée. C’est une avancée pour nos industriels de disposer en France d’un cadre d’expérimentation qui permet d’explorer de nouveaux usages et de nouvelles technologies.

Jean Tournoux – Il faut faire attention quand on s’adresse au milieu industriel. S’il existe un usage précis dont l’analyse de risques montre qu’il est hors norme, il faut en passer par l’expérimentation encadrée.

Alain Bensoussan – Il faut créer le droit des robots. Il n’est pas acceptable d’assimiler une personnerobot à une personne humaine. En droit, il existe une différence entre une personne morale et une personne humaine. Donc, si tous les humains sont des personnes, toutes les personnes ne sont pas des humains. Une fois que cette règle est posée, nous sommes en mesure de prendre les technologies dans leur réalité. Je soutiens qu’il est possible de plaider que les robots ont une intelligence et que ce ne sont pas de simples objets.

Que peut-on dire du rapport Delvaux ?

Renaud Champion – C’est un rapport du Parlement européen qui présente des pistes de réflexion et qui n’est pas validé par la Commission européenne. Il s’agit d’un texte purement indicatif en l’état. Ce rapport a certes l’avantage d’ouvrir le débat mais il suggère des axes de réglementation qui risquent de freiner l’innovation en Europe : création d’un fond d’indemnisation, souscription d’une assurance obligatoire, accès systématique au code-source en cas de litige, etc. Cela génère des craintes chez les industriels quant à la faisabilité dans l’application et la validité des clauses ou encore, le risque que cela fait peser sur le déploiement des technologies européennes. Par ailleurs, l’introduction du document est anxiogène quant à ce qu’est la réalité d’un robot alors que la technologie n’est absolument pas arrivée à un tel niveau de développement. Dans le même temps, les Américains et les Chinois ne se posent pas autant de questions en amont pour leurs développements.

Bruno Bonnell – Je suis vent debout contre ce rapport… On ne légifère pas sur des fantasmes et ici, une partie du rapport Delvaux est dans le délire total. Parler de Terminator dans un rapport présenté à la Commission européenne, c’est comme parler de Star Wars dans un rapport consacré à l’avionique. Deuxième remarque, le rôle du législateur c’est d’auditionner les spécialistes et les professionnels du secteur, ce qui ne semble pas avoir été le cas.

Alain Bensoussan – Je pense que l’on est encore dans le temps de l’expérimentation et de l’observation. Il y a une rupture industrielle, une rupture scientifique qui est la fonction d’apprentissage, la fonction d’autonomie. Je défends le rapport de Mady Delvaux parce qu’il pose les valeurs juridiques à venir pour notre industrie. Si nous ne faisons pas cet effort, ce sera les valeurs américaines qui vont s’appliquer chez nous. On peut donc critiquer ce rapport, on peut s’y opposer mais je suis prêt à démontrer trois choses : d’abord que la personnalité électronique est une solution opérationnelle, ensuite qu’il faut expérimenter pour disposer d’éléments concrets et enfin, que les technologies qui aujourd’hui pénètrent dans les usines, dans les hôpitaux et jusque dans les domiciles, ne relèvent plus du droit qui s’appliquait hier et qu’ils ne peuvent rester sans cadre légal adapté.

Renaud Champion – Si on prend l’exemple des drones, c’est en France en avril 2012 que la première législation est apparue dans le monde à la fois pour les catégoriser et pour encadrer leur utilisation. Aujourd’hui cette réglementation sert de base de réflexion aux discussions qui sont menées en Europe alors que dans le même temps, le régulateur américain n’arrive pas à définir un cadre pour les drones évoluant dans son espace aérien. Cela montre que nous ne sommes pas nécessairement condamnés à suivre la législation américaine et que l’Europe est capable de prendre les devants sur ces questions.

Doit-on taxer les robots ou non ?

Jean Tournoux – Taxer les robots, revient à taxer la productivité. Cette proposition n’est là qu’en raison des inquiétudes qui pèsent sur l’emploi.

Bruno Bonnell – Taxer les robots, c’est jeter a priori l’opprobre sur les robots. C’est donc délibérément refuser le progrès technologique. C’est encore plus régressif que dire " il faut sortir de l’Europe ".