"Dis Siri"… Quelle responsabilité pour l’IA… (fr)
France > France > Droit privé > Responsabilités
Source : La loi des Parties
Auteur : Stéphane Larrière
Juin 2017
Dis Siri, quelle est ta responsabilité ? En pleine démonstration lors d’une intervention relative à l’Intelligence artificielle, Siri si prompte depuis plusieurs mois à dialoguer et à exaucer en quelques secondes mes demandes de trajets optimisés ou de concertos préférés, reste silencieuse ; muette. Décontenancé puis interloqué, devant une audience rendue sceptique, je maudis cette diablesse de Siri qui devant un public non averti, se pique tout à coup d’une résistance digne de Hal 9000… « Dis Siri !?… dis Siri ???!! » : jouant pourtant sur différents registres de ton, insistance et persévérance n’y changèrent rien : la boudeuse resta terrée dans la coque du smartphone, me laissant face à mon destin et à un public incrédule…
En rade, en plant, sans plus de graves conséquences que celles d’un rendez-vous manqué et peut-être, si on voulait m’en faire crédit, d’une perte de crédibilité dommageable à ma réputation ! « Va pour cette fois, Siri… sans rancune… mais sous toute réserve… car souffre que je fasse valoir mes droits devant le tribunal si tu venais une nouvelle fois à me laisser en carafe…!! » Soudain, dans un éclair de lucidité, je me ravise: « faire valoir des droits à l’encontre d’une machine, ne serai-je pas moi-même en train de perdre la tête, mon latin ou tout simplement mon droit ?? » Cette sorte de présence intime dans mon smartphone, qui me souffle avis et conseils, qui joue mes compositeurs favoris à l’évocation de leurs seules œuvres ou qui encore oriente mon chemin dans les embouteillages parisiens, peut-elle être objet ou sujet de droit et engager par son action ou inaction la responsabilité en cas de préjudice ? Et sur quel fondement juridique ? Dis Siri… est-ce que les articles 1241 et 1217 du Code civil pourront s’appliquer à ton endroit ou me faudra-t-il, pour rechercher ta responsabilité civile, recourir à un droit de science-fiction théorisé par Asimov ? Dis Siri…Dis Siri…Siriiii ???!!…
Siri : affaire d’agent
Bien logé dans un smartphone, Siri assiste et facilite la vie de ses utilisateurs. Siri les délivre d’apparentes contraintes, en les dotant de nouvelles capacités d’analyse des situations et d’anticipation. Siri est programmée pour cela. Siri est un assistant personnel et est définie par Wikipédia comme « une application informatique de commande vocale qui comprend les instructions verbales données par les utilisateurs et répond à leurs requêtes ». Cette définition semble cependant en deçà des ambitions affichées par ses concepteurs.
Siri répond en réalité à la définition d’agent artificiel intelligent. Il s’agit d’une entité agissant pour le compte de quelqu’un, réalisant pour lui certaines tâches automatisées à partir de bases de données de connaissances qu’elle emmagasine au fur et à mesure de ses interactions et expériences avec le monde. L’agent intelligent est apparenté à l’intelligence artificielle (IA) puisque selon la Norme ISO, elle constitue cette « capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine telles que le raisonnement et l’apprentissage » (Norme ISO/IEC 2382-28 :1995, Technologies de l’information-Partie 28 : intelligence artificielle).
Siri, comme la plupart des agents intelligents à ce jour en circulation, est une intelligence artificielle qualifiée de « faible ». Elle est programmée pour répondre à des missions spécifiques, en imitant seulement certaines fonctions de l’intelligence humaine, encore éloignée de la conscience. Cependant, à moyenne échéance qu’il est difficile d’évaluer compte tenu des progrès techniques, il est certain que l’Intelligence artificielle des agents va se doter de facultés proches de la conscience humaine, décuplant ainsi les capacités et les possibilités d’assistance. D’ores et déjà, constatant la proximité des spécificités cognitives des agents électroniques avec l’intelligence humaine, le philosophe Eric Sadin parle d’ « organismes conçus pour adapter leur comportement à leur environnement, enrichissant leur « savoir » par le fait de leurs diverses « expériences » successives ». Il précise : « leur « ADN » se compose d’une base d’informations prédéfinies, d’un moteur d’inférence leur permettant de tenir des « raisonnements » plus ou moins complexes, d’un système d’acquisition des connaissances et d’un mécanisme d’apprentissage » (E. Sadin, L’humanité augmentée, Editions l’Echappée, 2013, p. 128). Cet apprentissage repose sur les données. Elles sont, au départ, « injectées » par l’homme par des bases de données et des programmes. Elles sont ensuite enrichies en continu, au fur et à mesure de nouvelles données produites par les interactions et les cas d’applications. Ils, constituent autant d’apprentissage et d’expériences signifiantes pour permettre la déduction de contingences futures s’affinant avec le temps : une « connaissance » dynamique capitalisée se crée ainsi pour les services à rendre par l’agent intelligent. Elle permet à l’agent intelligent d’apprécier les situations et, dans un registre déterminé, d’y réagir, d’agir ou de décider, selon une programmation définie, mais cependant, avec une certaine autonomie par rapport à l’homme, dont l’agent se détache progressivement. C’est le constat que dresse le philosophe Gilbert Simondon, selon lequel le véritable perfectionnement des machines, celui dont on peut dire qu’il élève le degré de technicité, correspond non pas à un accroissement de l’automatisme, mais au contraire au fait que le fonctionnement d’une machine recèle une certaine marge d’indétermination. C’est cette marge qui permet à la machine d’être sensible à une information extérieure » (G. Simondon, Du mode d’existence des objets techniques, Aubier 2005, p.11). On comprend que cette marge d’indétermination réalise un dépassement du programme et donc des processus de mécanisation ou d’automatisation connus. Elle est donc plus que la simple résultante d’un programme fonctionnel ; elle est également soustraite à l’action humaine directe tout en l’impulsant. Et c’est en cela qu’elle questionne les régimes de responsabilité civile mais pour quelle réponse ? Interrogée sur sa propre responsabilité, Siri nous livre un laconique « sans commentaire » qui pourrait laisser croire au vide juridique, et pourtant…
Responsabilité de l’intelligence artificielle : vide juridique ?
L’impression du vide juridique est fondée. Elle repose sur le fait que le droit et son corollaire, la responsabilité, relèvent du champ de l’action humaine auquel n’appartient pas l’intelligence artificielle et dont elle est même, par nature, exclue. C’est une évidence quand le droit et la responsabilité sont causés par le contrat. Il présume une capacité de contracter assise sur un consentement en conscience, donc forcément humain.
De même, la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine, selon un axiome posé par la Loi. Ce droit est fondé sur la liberté de choix de l’individu. Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine. Les choses (Code civil, article 1242 alinéa 1), les animaux (Code civil, article 1243), les propriétés et même dans une moindre mesure les enfants et les préposés (Code civil, article 1242 alinéa 4 et 5) n’entrent dans le champ du droit et de la responsabilité que par le seul jeu de cette directe dépendance avec l’action humaine : par le jeu du fait de l’homme ! On pourrait même prétendre que les différents régimes qui coexistent sont fonction du degré d’intimité et de dépendance entretenu avec cette action humaine impliquée dans l’acte fautif. A bien observer en effet, la notion de garde, permettant de qualifier la responsabilité du fait des choses (Code civil, article 1242 alinéa 1), rattache par le jeu d’une fiction juridique, la responsabilité à l’individu qui est réputé avoir le pouvoir d’usage, de direction et de contrôle sur cette chose impliqué dans le fait dommageable. Cette présomption est d’ailleurs si forte que le titulaire ne peut s’en dégager que s’il prouve qu’il a « abdiqué ses pouvoirs par un acte lui interdisant l’exercice, ou au profit de quelqu’un d’autre » (G. Viney, P. Jourdain, S. Carval, Traité de droit civil : les conditions de la responsabilité, LGDJ, 2013, n°681). Ces trois critères sous-tendent une supposée (ou présumée !) capacité d’influer (le pouvoir !) sur les événements et le cours des choses, par la décision et l’action. Ainsi les dommages causés par le crash d’un drone piloté par un individu qui en perd le contrôle relèvent du champ d’action humaine. L’individu, dans la mesure où il en a l’usage, la direction et le contrôle, demeure responsable de son pilotage ayant conduit au crash, aussi perdu ou éloigné soit-il du lieu de situation, si une mauvaise décision en est la cause.
Dès lors, on comprend le trouble que jette l’intelligence artificielle dans le champ de la responsabilité civile. Comment combiner direction et contrôle avec une intelligence artificielle sans corporalité et dont l’activité opère un détachement de l’activité de l’homme, en marquant, en sus, une marge d’indétermination complètement fugitive à son égard ? La capacité d’auto-détermination de l’intelligence artificielle et sa marge d’indétermination qui en découle vis-à-vis de l’homme, la font échapper purement et simplement au champ de la responsabilité civile, sans qu’il soit même besoin de s’interroger plus avant sur son incorporalité… Si Siri à la question de sa responsabilité civile bloque sur un « sans commentaires », c’est que par un défaut de fondement, elle n’a juridiquement aucune réponse à apporter : sa responsabilité civile est un bogue !
Responsabilité de l’IA : impossible droit ou droit de travers ?
Ce bogue est d’autant plus gênant si on considère l’évolution de la fonction essentielle des agents intelligents : la technologie augmentative prolongeant les facultés physiques ou cognitives humaines, est transformée par les agents de l’intelligence artificielle en une technologie substitutive de ces mêmes facultés humaines qu’ils visent à remplacer (La Loi des Parties, le droit à l’intelligence artificielle, le droit dans le mur ?, Décembre 2016).
L’intelligence artificielle ne se cantonne pas de répondre à un ordre pour obtenir un résultat tiré d’une simple fonction mécanique (dans ce cas, le résultat est un simple produit de l’effet mécanique qui serait attendu par l’homme, connu de lui et appréhendé comme tel). Elle va plus loin ! Elle prend en main le sujet. Elle le prend en main pour fournir, en toute autonomie, une réponse qui ne peut être appréhendée par l’homme, car sa teneur n’est pas à sa portée (à titre de simple exemple, il suffit de se représenter la demande d’un trajet optimisé pour un moment donné et du temps estimé pour l’accomplir à ce même moment, dont l’homme ne peut avoir qu’une perception empirique, guidée par son expérience s’il en a une). Le contenu de la réponse est hors de portée de calcul ou de savoir de l’homme. Il ne dispose pas des éléments suffisants de contextualisation constamment réajustée ; il n’en a pas la maîtrise déductive ni projective pas plus que les connaissances. Dès lors, l’homme laisse la main à l’intelligence artificielle dans l’exercice de ses facultés augmentées par ce complément cognitif : il se réalise alors une sorte de délégation conférée à la machine pour décider et faire à sa place. Implicite, elle constitue une sorte de licence consentie à l’intelligence artificielle, à interpréter,à suggérer, à orienter mais surtout à décider sur une base autonome (La Loi des Parties, Pratique du droit, la technologie à la barre !, Juillet 2016).
Dans ce renoncement de l’homme à l’action, dans cet abandon de l’action à l’intelligence artificielle qui se prononce à sa place, se réalise aussi un amoindrissement de sa capacité d’entendement dans l’engagement de sa personne et l’engagement du risque : suivre une préconisation de Siri ou se ranger à l’avis de Siri peut-il constituer une faute lorsque l’appréciation de ce qu’elle préconise est hors de portée de l’homme ? Cependant, l’homme doit-il, pour autant, être rendu irresponsable des actes et décisions de l’intelligence artificielle ? Devrait-il continuer à demeurer responsable selon un régime de responsabilité sans faute, déterminé en fonction du degré d’autonomie de l’intelligence artificielle ? Mais dans ce cas, quelle qualification de faute est-elle possible dans la mise en doute légitime d’une décision de l’intelligence artificielle, pourtant fatale à un acteur victime de cette hésitation ?
Responsabilité de l’Intelligence artificielle : faute de travers ou droit en travers ?
Ainsi l’intelligence artificielle questionne la responsabilité civile, en ce qu’elle se pose comme un nouvel acteur. Ce nouvel acteur est susceptible, par son autonomie et sa marge d’indétermination de conduire à un acte dommageable ni tout à fait imputable à l’homme ni tout à fait à la chose (en admettant que l’intelligence artificielle puisse être considérée comme telle), mais d’une nature hybride… Il semble d’ailleurs qu’évoquer une faute imputable à l’intelligence artificielle soit à ce stade impropre. Quand la loi assoit la notion de faute, elle ne contraint pas les acteurs, puisque ils restent libres d’une possible transgression : la loi ne fonctionne qu’en présupposant des capacités d’entendement et de volonté et en mesurant la menace de la sanction pour produire un taux d’obéissance nécessaire à la bonne organisation et la bonne marche sociales, dont l’intelligence artificielle est incapable.
La faute présume, en effet, une conscience de la règle et de son non-respect (qu’ils soient de nature contractuels ou délictuels) que la machine n’est pas en mesure d’appréhender autrement que comme une donnée, un paramètre intégré ou pas à son action. Elle s’inscrit dans l’accomplissement d’une tâche orientée sur un objectif qui ne lui appartient pas, dépourvue d’intention propre autre que celle de son concepteur et de son utilisateur. L’intelligence artificielle n’agit pas pour elle-même ni pour son propre compte ; pas plus n’a-t-elle conscience du viol de la règle ou encore du risque de dommage causé par son action, si ces éléments n’ont pas été intégrés à ses paramètres de calcul de solutions. Car, l’intelligence artificielle est seulement consubstantielle à une fonction qu’elle remplit ou qu’elle accomplit : elle répond à problème qu’elle a pour seules mission et finalité fixées à l’avance par ses concepteurs ou ses utilisateurs, de résoudre en adoptant un comportement programmé.
La défaillance qu’elle commet, le défaut qu’elle génère ne lui appartiennent donc pas, ne lui incombent pas, ne peuvent donc lui être imputables. Car même si l’intelligence artificielle interfère dans les affaires humaines en agissant de manière autonome, elle ne peut, dans les faits, répondre de ses actes et des dommages qui en résultent. En un mot, quelle que soit le degré ou la nature de sa propre « faute », elle lui échappe, comme lui échappe sa propre autonomie et sa propre initiative, disqualifiant ainsi toute responsabilité de l’intelligence artificielle'. Si une faute de l’intelligence artificielle est possible, elle ne peut être d’autre nature que programmatique ou de dysfonctionnement par rapport à l’usage ou au résultat attendu, bref celle de ses concepteurs ou de ses utilisateurs.
Si la faute de l’intelligence artificielle est de nature programmatique ou de dysfonctionnement, il faut donc en revenir à ses concepteurs et à ses utilisateurs. Cependant, agir de la sorte reviendrait à dénier le bénéfice d’une partie des facultés substitutives inhérentes à l’intelligence artificielle. Ce serait aussi, plus gravement, ne pas tenir compte de la capacité d’initiative et de réactivité autonome de l’intelligence artificielle, soulignées précédemment qui excédent sa conception initiale. Si l’intelligence artificielle échappe tant à ses concepteurs qu’à ses utilisateurs, tout régime qui viendrait à les rendre responsables permettrait de qualifier une responsabilité sans faute, ou encore pour faute d’autrui afin de guider la recherche d’un responsable du fait de l’intelligence artificielle. On sait que ce type de responsabilité est une responsabilité objective, d’opportunité, permettant d’imputer les frais du dommage à celui qui « était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque » (G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40). Selon cette optique, l’approche peut s’avérer pertinente : « la détermination d’un responsable, ou du moins d’un débiteur d’indemnités par le truchement de l’assurance, peut se faire au sein d’un groupe de responsabilités particulièrement large : propriétaire, utilisateur, développeur de l’IA (ou sans doute plutôt éditeur), fabricant, etc. En pratique, la victime pourra attraire l’ensemble de ces intervenants, lesquels pourront le cas échéant opposer les uns aux autres des clauses limitatives ou exonératoires de responsabilité stipulées dans les contrats qui les lient. En l’état actuel des choses, il nous semble prématuré de vouloir profiler un régime plutôt qu’un autre » (de Synthèse, France Intelligence Artificielle, mars 2017, p. 303).
Cependant par rapport aux débiteurs classiques de responsabilité sans faute, tels que les parents, commettants, ou encore les propriétaires de véhicules, on constate deux difficultés de taille pour appliquer un régime de responsabilité de ce type à l’intelligence artificielle. Le premier réside dans la diversité des acteurs susceptibles d’être impliqués et leur degré de contribution à la mise en œuvre de l’intelligence artificielle : entre le concepteur de l’algorithme, le fournisseur de la base de données des connaissances, le fournisseur de réseaux, ou le titulaire utilisateur de l’intelligence artificielle, il sera difficile, outre l’obstacle probatoire encore à résoudre, de savoir, lequel d’entre eux constituera le débiteur de responsabilité en tant que tel chargé aussi de s’assurer contre le risque. Ce risque constitue une deuxième difficulté. Chez les débiteurs classiques de responsabilité sans faute (parents, commettants etc.), les dommages générés, sans pour autant pouvoir être prédits, peuvent être prévus et circonscrits. Ceci permet une pérennité et une viabilité du modèle fondé sur la mesure du risque. Pour l’intelligence artificielle, ces dommages et ces risques ne le sont pas, puisque la part d’inconnues mathématiques et comportementales qui président à l’indétermination de l’intelligence artificielle la porte dans un au-delà numérique qui n’est pas en soi mesurable…, sauf peut-être par une autre intelligence artificielle…
« Dis Siri…?»,