Robotique

Industrie 2017, le droit de la robotique en débat

uite à l’examen par le Parlement
européen du rapport Delvaux, le droit de
la robotique fait débat au sein de l’Union
sur fond de compétition technologique
internationale mais aussi de tensions
sociales et même, de réflexion éthique.
Intelligence artificielle et mobilité,
assistance et collaboration, sécurité et
conformité… quatre experts français
ont confronté leurs visions.

 

réunis autour de Guy Fages, rédacteur en chef du trimestriel Smart Industries, l’avocat Alain Bensoussan, Bruno Bonnell, créateur des
sociétés Robopolis et Awabot et du fond
d’investissement Robolution Capital, Renaud
Champion, cofondateur de ce même fond et Jean
Tournoux, délégué général du Symop ont partagé
leurs visions des enjeux liés à la robotique pour
décrypter le marché actuel ainsi que les attentes
des industriels. Ils ont également, livré leurs
impressions afin d’appréhender les forces et les
faiblesses des positions légales et contractuelles
existantes.

Peut-on en préambule donner une
définition de la robotique ?

Jean Tournoux – Un robot, c’est une machine
autonome, généralement articulée dans deux axes ;
voilà pour une définition très industrielle qui serait
évidement différente dans d’autres univers. J’insiste
sur le mot « machine » parce que nous parlons ici,
d’industrie et donc de dispositions qui leurs sont
précisément reliées.

Bruno Bonnell – Le mot est né en 1920 dans une
pièce de théâtre de l’auteur tchécoslovaque Karel
Čapek intitulée « Rossum’s Universal Robots » qui
avait inventé un homme décérébré appelé « robot »
de la racine slave robota . Il était censé remplacer les
hommes dans les usines et cette œuvre décrit une
utopie où l’homme passerait son temps à lire, danser,
chanter et aimer tandis que les robots travailleraient
à sa place. Il faut évidemment rappeler le contexte
de la révolution de 1917 et bien sûr la notion de
lutte des classes très présente à cette époque. Ces
machines intelligentes représentaient la solution
pour en sortir. D’ailleurs, dans le texte original, on est
plus proche de la notion de clones biologiques que
de celle du robot tel qu’il existe aujourd’hui.

Bien sûr, le robot actuel, ce n’est pas du tout
cela et pourtant, on l’assimile souvent à l’être
humain avec lequel il entre en compétition.
C’est peut-être ce qui explique que par
extension on ait envie de lui donner des droits.

Le robot est une machine savante et non pas
intelligente qui a trois caractéristiques : elle
possède des capteurs pour comprendre son
environnement, elle a des processeurs et
des logiciels pour prendre des décisions par
rapport aux paramètres qu’elle collecte et
elle a enfin des actionneurs qui lui permettent
d’agir sur le monde réel. En conséquence, un
aspirateur ou un véhicule autonome sont des
robots autant par certains aspects qu’une
machine-outil sophistiquée…

Alain Bensoussan – J’adhère totalement
à la définition de Bruno Bonnell qui parle
aussi d’espèce artificielle. Pour moi, un
robot, ce n’est pas un objet et ce n’est
pas non plus un humain, pourtant il a une
capacité à comprendre le réel et il a une
capacité d’apprentissage. Ça nous amène
à la situation où deux machines munies
des mêmes capteurs et s’appuyant sur les
mêmes algorithmes réagiront différemment
selon les situations. Par exemple, une
voiture autonome dotée de capacités
d’auto-apprentissage n’aura probablement
pas la même conduite selon qu’elle aura
toujours accompli des déplacements à
Paris ou au Caire. Il s’agit donc pour moi d’une espèce
juridique nouvelle qui a besoin qu’on lui reconnaisse
des droits que je suis prêt à défendre.

Renaud Champion – Les définitions sur les robots
sont évolutives. Par exemple, ce qu’on en disait il
y a trente ans n’a rien à voir avec ce qu’on en dit
aujourd’hui. On peut parler de machine intelligente,
de machine communicante et donc, pas seulement
connectée, on peut encore parler de machine
apprenante… tout cela évolue avec les technologies.

Aujourd’hui, on s’interroge : un logiciel d’intelligence
artificielle capable de prendre des décisions de
manière indépendante, est-ce un robot ? Faut-il
aussi le réguler et l’encadrer ? Avec l’évolution des
technologies, il faut comprendre que donner une
définition concise est difficile.

Justement l’image que l’on donne
de la robotique au grand public
est-elle la bonne ?

Bruno Bonnell – On utilise beaucoup de termes
issus de la biologie pour parler de choses qui
relèvent de l’électronique et de la mécanique. Deux
exemples : on parle d’intelligence artificielle alors
qu’on pourrait parler d’algorithmie mais c’est moins
vendeur… on parle encore de réseaux neuronaux
alors qu’on pourrait tout aussi bien parler de
réseaux en étoile ou de réseaux matriciels à
multiple dimension. Nous utilisons donc des
raccourcis sémantiques qui rapprochent du vivant
et dans l’esprit du profane, c’est immédiatement
associé à la notion que ce serait presque
l’homme. Et c’est en plus anxiogène lorsqu’on
explique les performances par exemple, dans le
domaine du calcul et qu’on vient les comparer à
celles de l’humain dans les mêmes conditions.

Je reviens sur la notion d’espèce pour préciser
que j’entends par là qu’il existe une grande
diversité de robots : statiques, mobiles à
roues ou à chenilles, avec des pieds, avec
un ou deux bras voire plus… Mon but est
d’attirer l’attention sur ce que j’appelle
la « robolution » qui va une fois de plus
transformer nos méthodes de production
mais aussi, notre vie en général.

La sémantique va jouer un rôle important
pour la compréhension. Rappelons que
le terme « automobile » contient déjà
la notion de mouvement autonome,
comment appellerons-nous les voitures
autonomes ?

Peut-on décrypter les univers
dans lesquels la robotique
va se déployer ? La directive
machine est-elle encore
adaptée ?

Renaud Champion – Il y a un
consensus parmi les industriels et ce,
à l’échelon européen pour reconnaître
que cette directive couvre nombre
de problèmes rencontrés. Il y a
évidemment une tendance nouvelle
qui tend à tout remettre à plat pour
redéfinir un nouveau cadre juridique.
C’est à mon sens dangereux parce
que cela va prendre du temps alors
qu’en Asie et aux Etats-Unis, les
industriels ne se posent pas tant de
questions.

Surtout, je pense que la directive
machine est une bonne base pour
certaines applications même
si elle doit évoluer si on veut
être en mesure d’encadrer par
exemple, la robotique d’assistance
à la personne. Pourtant, déjà
aujourd’hui, l’utilisation d’un
exosquelette pour le transport
de charges lourdes entre dans le cadre de la directive
actuelle. Inutile donc
de nous précipiter
de tout remettre en
cause comme voudrait
le faire certains experts
européens ; partons de
la solide base dont nous
disposons.

Alain Bensoussan – La
directive machine est
à mon sens, inadaptée
puisque par exemple, elle
n’englobe pas l’intelligence
artificielle, les algorithmes,
la datamasse, les capacités
d’auto-apprentissage et de
faire des choix autonomes… La
directive machine a vieilli.

La question qu’il faut se poser
est : est-ce que les machines
intégrant les éléments que je
viens de citer, relèvent encore
de la directive machine ?
Dans l’affirmative, l’exploitant
est couvert par son contrat
d’assurance en cas d’incident ; dans
la négative, il ne l’est pas !

Jean Tournoux – En toute bonne
logique aujourd’hui, la directive dont
nous parlons est l’élément robuste
qui permet d’installer des robots dans
les cages de protection et même, en
dehors des cages lorsqu’on parle de
robotique collaborative, c’est-à-dire,
de machines qui partagent un même
espace de travail avec nous ou qui
nous assistent dans nos gestes. Même
si les robots deviennent de plus en
plus intelligents, la directive machine
dit qu’il faut analyser les risques. En cas
d’incidents impliquant une machine,
et il faut comprendre que chaque cas
est différent, c’est soit le fournisseur du
robot, soit l’intégrateur, soit l’utilisateur
qui est impliqué. C’est l’analyse des causes
précises de l’accident qui détermineront les
responsabilités.

Bruno Bonnell – La notion de responsabilité
est très difficile à aborder parce qu’on
accorde un crédit d’infaillibilité à la machine.
Imaginons un véhicule autonome avec à son
bord une personne qui n’a que quelques mois
à vivre, un jeune enfant traverse si soudainement que
le véhicule n’a plus le temps de freiner. Il faut donc
soit que le véhicule s’écrase dans un mur en s’écartant,
soit qu’il renverse l’enfant avec dans l’un et l’autre cas,
une issue fatale pour l’une ou l’autre des personnes en
présence.

Dans le cas où le véhicule serait conduit par la personne
à son bord, si l’enfant est renversé, on parlera d’erreur
humaine en acceptant que l’humain ne soit pas
infaillible. La machine ne pourra bénéficier d’un tel
crédit. N’ayant pas le droit de faillir, elle devra arbitrer
par une algorithmie particulière entre la survie de
l’un ou de l’autre. Parce que c’est une machine, on
recherche la ou les responsabilités en excluant de facto,
l’accident. L’accident est un ensemble de circonstances
particulières qui sera arbitré par des experts alors que la
machine n’aura par défaut, aucun crédit. Je pense que
comme il y a des erreurs humaines, il y aura des erreurs
robotiques et il faudra les assumer.

Justement comment peut-on tolérer le
risque ?

Renaud Champion – Aujourd’hui dans beaucoup
d’applications robotiques, on manque de la mesure du
niveau de risque comme c’est le cas avec le véhicule
autonome. Il est évident que l’on n’a pas assez de recul
en termes de nombre de véhicules et de kilomètres
parcourus pour extrapoler de la fréquence des
accidents. Par exemple, pour le transport aérien, le
risque est de un millionième mais il a fallu du temps
pour le calculer.

Dans les applications de robotiques avancées, on
cherche à anticiper les mesures de risques alors que
l’on est dans l’incapacité de valider les technologies
qui vont avec. On cherche donc à forcer les usagers
à accepter la prise de risque. Or, on ne pourra
transformer la perception du risque dans la société du
jour au lendemain. Ce processus prendra du temps…

A l’inverse, légiférer aujourd’hui a priori, alors que les
technologies ne sont pas encore prêtes et que l’on
n’a pas de recul est totalement stérile. Il faut prendre
en compte la mesure du risque, l’accompagner, tester
les technologies. Dans la robotique collaborative
industrielle, dans celle de l’assistance à la personne
et sur la route avec le véhicule autonome, créons des
situations qui permettent de tester les technologies
pour amasser des données permettant de mesurer le
seuil d’erreur et ensuite, il sera possible de travailler à
son acceptation par les utilisateurs.

Bruno Bonnell – Rappelons que depuis la loi Macron,
il est possible d’installer un robot en dehors de la
directive machine à des fins d’expérimentation
à condition toutefois d’avoir fait une deman
e
d’agrément adaptée. Mais cette possibilité existe bel
et bien : l’expérimentation est possible dès lors qu’elle
est encadrée. C’est une avancée pour nos industriels de disposer en France d’un
cadre d’expérimentation
qui permet d’explorer de
nouveaux usages et de
nouvelles technologies.

Jean Tournoux – Il faut
faire attention quand on
s’adresse au milieu industriel.
S’il existe un usage précis
dont l’analyse de risques
montre qu’il est hors
norme, il faut en passer par
l’expérimentation encadrée.

Alain Bensoussan – Il faut
créer le droit des robots.
Il n’est pas acceptable
d’assimiler une personnerobot à une personne
humaine. En droit, il
existe une différence
entre une personne
morale et une personne
humaine. Donc, si tous
les humains sont des
personnes, toutes les
personnes ne sont pas
des humains. Une fois
que cette règle est
posée, nous sommes
en mesure de prendre
les technologies dans leur réalité. Je soutiens
qu’il est possible de plaider que les robots ont une intelligence et
que ce ne sont pas de simples objets.

Que peut-on dire du rapport Delvaux ?

Renaud Champion – C’est un rapport du Parlement européen
qui présente des pistes de réflexion et qui n’est pas validé par la
Commission européenne. Il s’agit d’un texte purement indicatif en
l’état. Ce rapport a certes l’avantage d’ouvrir le débat mais il suggère
des axes de réglementation qui risquent de freiner l’innovation en
Europe : création d’un fond d’indemnisation, souscription d’une
assurance obligatoire, accès systématique au code-source en cas
de litige, etc. Cela génère des craintes chez les industriels quant à
la faisabilité dans l’application et la validité des clauses ou encore,
le risque que cela fait peser sur le déploiement des technologies
européennes. Par ailleurs, l’introduction du document est anxiogène
quant à ce qu’est la réalité d’un robot alors que la technologie n’est
absolument pas arrivée à un tel niveau de développement. Dans le
même temps, les Américains et les Chinois ne se posent pas autant
de questions en amont pour leurs développements.

Bruno Bonnell – Je suis vent debout contre ce rapport… On ne
légifère pas sur des fantasmes et ici, une partie du rapport Delvaux
est dans le délire total. Parler de Terminator dans un rapport
présenté à la Commission européenne, c’est comme parler de Star
Wars dans un rapport consacré à l’avionique. Deuxième remarque,
le rôle du législateur c’est d’auditionner les spécialistes et les
professionnels du secteur, ce qui ne semble pas avoir été le cas.

Alain Bensoussan – Je pense que l’on est encore dans le temps de
l’expérimentation et de l’observation. Il y a une rupture industrielle,
une rupture scientifique qui est la fonction d’apprentissage, la
fonction d’autonomie. Je défends le rapport de Mady Delvaux
parce qu’il pose les valeurs juridiques à venir pour notre industrie.
Si nous ne faisons pas cet effort, ce sera les valeurs américaines
qui vont s’appliquer chez nous. On peut donc critiquer ce rapport,
on peut s’y opposer mais je suis prêt à démontrer trois choses
: d’abord que la personnalité électronique est une solution
opérationnelle, ensuite qu’il faut expérimenter pour disposer
d’éléments concrets et enfin, que les technologies qui aujourd’hui
pénètrent dans les usines, dans les hôpitaux et jusque dans les
domiciles, ne relèvent plus du droit qui
s’appliquait hier et qu’ils ne peuvent rester
sans cadre légal adapté.

Renaud Champion – Si on prend l’exemple
des drones, c’est en France en avril 2012 que
la première législation est apparue dans le
monde à la fois pour les catégoriser et pour
encadrer leur utilisation. Aujourd’hui cette
réglementation sert de base de réflexion
aux discussions qui sont menées en
Europe alors que dans le même temps, le
régulateur américain n’arrive pas à définir
un cadre pour les drones évoluant dans
son espace aérien. Cela montre que
nous ne sommes pas nécessairement
condamnés à suivre la législation
américaine et que l’Europe est capable
de prendre les devants sur ces
questions.

Doit-on taxer les robots
ou non ?

Jean Tournoux – Taxer les robots,
revient à taxer la productivité.
Cette proposition n’est là qu’en
raison des inquiétudes qui
pèsent sur l’emploi.

Bruno Bonnell – Taxer les
robots, c’est jeter a priori
l’opprobre sur les robots. C’est
donc délibérément refuser
le progrès technologique.
C’est encore plus régressif
que dire " il faut sortir de
l’Europe ".

j112-p32-35-droit-robotique

Ces articles peuvent vous intéresser :