Les risques de l'intelligence artificielle: le rapport européen du CESE adopté le 31 mai 2017 (fr)

Un article de la Grande Bibliothèque du Droit, le droit partagé.

France >

Fr flag.png

Auteur : Thierry Vallat, avocat au Barreau de Paris
10 juillet 2017



Les technologies d'intelligence artificielle offrent un grand potentiel en matière de création de solutions nouvelles et innovantes pour améliorer la vie des peuples, assurer la croissance de l'économie et relever les défis en termes de santé et de bien-être, de changement climatique et de sécurité.


Cependant, comme toute technologie perturbatrice, l'intelligence artificielle comporte des risques et présente des défis sociétaux complexes dans plusieurs domaines tels que le travail, la sécurité, la vie privée, l'éthique, les compétences, etc.


Une approche globale de l'intelligence artificielle, qui couvre tous les effets bons ou mauvais de cette dernière, sur la société dans son ensemble, s'avère ainsi cruciale, surtout à une époque où les évolutions s'accélèrent.

Le Comité économique et social européen (CESE) vient donc de rendre un avis adopté en assemblée plénière le 31 mai 2017 intitulé Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société.


L’intelligence artificielle (IA) connaît actuellement un certain nombre d’évolutions majeures et trouve à un rythme soutenu des applications dans la société. Le marché de l’IA s’élève à environ 664 millions de dollars américains (USD) et devrait, selon les estimations, atteindre 38,8 milliards d’USD en 2025. Étant donné que l’IA peut influencer la société de manière aussi bien positive que négative, le CESE a entrepris de suivre attentivement les évolutions dans ce domaine, non seulement d’un point de vue technique, mais aussi sur le plan éthique, sociétal et de la sécurité.

Il n’existe pas de définition précise unique de l’IA. Il s’agit d’un concept qui englobe un grand nombre de (sous-)domaines, tels que l’informatique cognitive (cognitive computing: algorithmes qui raisonnent et apprennent à un niveau supérieur, c’est-à-dire plus humain), l’apprentissage automatique (machine learning: algorithmes qui apprennent de manière autonome à réaliser des tâches), l’intelligence augmentée (augmented intelligence: coopération entre l’homme et la machine) et la robotique intelligente (IA intégrée dans des robots). L’objectif principal de la recherche et du développement en matière d’IA est toutefois d’automatiser les comportements intelligents, entre autres la capacité de raisonner, de collecter des informations, de planifier, d’apprendre, de communiquer, de manipuler, de signaler et même de créer, de rêver et de percevoir.


Le large impact de l’IA sur la société ne peut pas encore être pleinement évalué. Tout le monde s’accorde toutefois pour dire que cet impact sera majeur. Aujourd’hui, les avancées en matière d’IA se succèdent rapidement, ce qui rend un contrôle critique et global nécessaire pour pouvoir appréhender de manière adéquate et opportune les évolutions décisives et de rupture, de nature tant technique que sociale, susceptibles de changer la donne dans le développement de l’IA ou autour de celui-ci.

Ces évolutions décisives sur le plan technique peuvent être définies comme des avancées notables ou significatives dans le développement de compétences d’IA, qui pourraient constituer des éléments précurseurs d’une IA générale. Les évolutions décisives sur le plan social peuvent être associées à une perte massive d’emplois sans perspective d’emplois de substitution, à des situations précaires, des défaillances du système, une évolution inattendue sur le plan international, etc.


Le CESE a pointé actuellement onze domaines dans lesquels l’IA soulève des enjeux de société: l’éthique; la sécurité; la vie privée; la transparence et l’obligation de rendre des comptes; le travail; l’éducation et les compétences; l’(in)égalité et l’inclusion; la législation et la réglementation; la gouvernance et la démocratie; la guerre; la superintelligence. Le CESE a donc formulé un certain nombre de recommandations.

Le CESE plaide tout d'abord en faveur d’une approche dite «human-in-command» de l’IA, dont les conditions seraient un développement responsable, sûr et utile de l’IA dans le cadre duquel les machines resteraient les machines, sous le contrôle permanent des humains.

Le CESE préconise ensuite l’instauration d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’IA, afin que les systèmes d’IA demeurent, tout au long de leur processus d’exploitation, compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de respect de la vie privée, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux.

Le CESE plaide pour la mise en place d’un système de normalisation pour la vérification, la validation et le contrôle des systèmes d’IA, fondé sur un large éventail de normes en matière de sécurité, de transparence, d’intelligibilité, d’obligation de rendre des comptes et de valeurs éthiques.

Le CESE recommande également une infrastructure d’IA européenne, composée de cadres d’apprentissage libres (open source) et respectueux de la vie privée, d’environnements d’essai en situation réelle (real life) et de séries de données de haute qualité pour le développement et la formation de systèmes d’IA. Il attire l’attention sur l’avantage (concurrentiel) que peuvent procurer à l’UE, sur le marché mondial, le développement et la promotion de «systèmes d’IA homologués au niveau européen», dans lesquels cette dernière ferait l’objet d’une certification et d’un étiquetage européens.


Sur le point spécifique du travail et des risques causés par l'apport massif d'IA, il est nécessaire d'identifier conjointement quels secteurs du marché du travail seront influencés par l’IA, dans quelle mesure et dans quels délais, et trouver des solutions pour faire face aux conséquences de ce processus sur l’emploi, le contenu du travail, les régimes sociaux et l’(in)égalité. Il convient en outre d’investir dans les secteurs du marché du travail dans lesquels l’IA n’a que peu ou pas d’influence.

Le CESE suggère que ces parties prenantes œuvrent ensemble en faveur de systèmes d’IA complémentaires et de leur mise en place conjointe sur le lieu de travail. L’on peut par exemple penser à des équipes homme-machine au sein desquelles l’IA compléterait et améliorerait les prestations humaines. Elles devraient également investir dans l’apprentissage formel et informel, l’enseignement et la formation pour tous afin de pouvoir travailler avec l’IA, mais également dans le but de développer les compétences qui ne seront pas ou ne pourront pas être assurées par l’IA.

Le développement d’applications d’IA qui bénéficient à la société, favorisent l’inclusion et améliorent la vie des gens doit être activement encouragé et promu, au niveau aussi bien public que privé. La Commission européenne devrait, dans le cadre de ses programmes, financer des travaux de recherche portant sur l’incidence sociale de l’IA ainsi que des innovations en matière d’IA financées par l’UE. Le CESE soutient par ailleurs l’appel à l’interdiction des systèmes d’armes autonomes lancé par Human Rights Watch et d’autres organisations. Il se félicite de la consultation annoncée sur ce sujet dans le cadre des Nations unies, mais estime que celle-ci devrait également porter sur les applications de l’IA dans le domaine de la «cyberguerre».

Les actions et les décisions des systèmes d’IA (résultant d’algorithmes intelligents) ont une influence croissante sur la vie des personnes. C’est par exemple le cas de l’utilisation de l’IA pour les travaux de police fondés sur l’information, pour l’évaluation des demandes de crédit hypothécaire ou pour les procédures d’acceptation de couverture dans le secteur des assurances. À cet égard, l’intelligibilité et la contrôlabilité du processus de prise de décision d’un système d’IA, ainsi que la capacité de rendre compte de ses actions, sont essentielles. Mais, d’ores et déjà, de nombreux systèmes d’IA sont très difficiles à comprendre pour les utilisateurs. C’est aussi de plus en plus souvent le cas pour les concepteurs de ces systèmes. En particulier, les réseaux neuronaux sont souvent des boîtes noires (black boxes) dans lesquelles se déroulent des processus (de prise de décision) qui sont devenus incompréhensibles et pour lesquels aucun manuel explicatif n’est fourni.

Le CESE plaide ainsi pour des systèmes d’IA transparents, compréhensibles et contrôlables dont le fonctionnement puisse également être expliqué a posteriori. Il convient par ailleurs de définir quels sont les processus décisionnels qui peuvent être confiés à des systèmes d’IA et quels sont ceux qui ne peuvent l’être, et quand une intervention humaine devrait être privilégiée ou exigée.

Le respect de la vie privée dans le cadre des systèmes d’IA est un sujet majeur de préoccupation. De nombreux biens (de consommation) disposent déjà d’un système d’IA intégré: appareils électroménagers, jouets, voitures, montres et bracelets intelligents ou encore smartphones. Tous ces produits communiquent des données (souvent personnelles) aux plateformes en nuage des producteurs. Les inquiétudes liées à la question de savoir si la vie privée est suffisamment protégée sont d’autant plus vives que le commerce des données, c’est-à-dire la vente à des tiers des données recueillies par le fabricant, est en plein essor.

De plus, l’IA est en mesure, grâce à l’analyse d’un très grand nombre de données (souvent) personnelles, d’influencer les choix des individus dans de nombreux domaines (des décisions commerciales aux élections et aux référendums). Les enfants constituent un groupe particulièrement vulnérable. Le CESE exprime sa préoccupation face aux applications d’IA qui visent explicitement à influencer le comportement et les souhaits des enfants.

Il convient d’éviter que l’application de l’IA aux données personnelles ne restreigne la liberté réelle ou perçue des individus. Le règlement général de l’UE sur la protection des données prévoit une protection renforcée de la vie privée concernant les données personnelles transmises par voie numérique. Il convient de contrôler attentivement, à la lumière des évolutions dans le domaine de l’IA, si le droit des personnes au consentement éclairé et au libre choix lors de la transmission des données, mais aussi celui d’accéder aux données transmises, de les adapter et de les vérifier, sont suffisamment garantis dans la pratique.


Concernant la règlementation, il est d’ores et déjà nécessaire d’entreprendre une évaluation concrète de la législation et de la réglementation européennes dans les six domaines désignés par la STOA (Scientific Foresight Unit) susceptibles de faire l’objet d’une révision ou d’une adaptation. Le CESE peut et veut jouer un rôle dans ce processus d’évaluation. Il s’oppose en revanche à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA. Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet selon lui vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA.


L’IA ne connaît cependant pas de frontières. Il importe dès lors de se pencher sur la nécessité d’une réglementation mondiale, étant donné qu’une réglementation régionale ne suffira pas et aura même des effets indésirables. Compte tenu de son système éprouvé de normes portant sur les produits et la sécurité, des tentations protectionnistes qui se manifestent sur d’autres continents, du niveau élevé de connaissances en Europe, du système de droits fondamentaux et de valeurs sociales en vigueur en Europe ainsi que du dialogue social, le CESE recommande à l’UE de jouer un rôle moteur dans l’établissement de cadres stratégiques clairs et universels en matière d’IA et de stimuler ce processus au niveau mondial.


Enfin se pose la question des perspectives et des risques liés au développement de la superintelligence. Selon Stephen Hawking, la mise au point de l’IA générale représentera déjà la fin de l’humanité. À ce stade, l’IA continuera selon lui à évoluer à un rythme que les hommes ne pourront pas suivre. Certains spécialistes préconisent dès lors la création d’un disjoncteur (kill-switch) ou bouton de réinitialisation (reset-button), permettant de désactiver ou de réinitialiser un système d’IA superintelligent ou qui s’est emballé.


Les débats autour de l'IA ne font donc que commencer.