Quand l'intelligence artificielle devient un détecteur de mensonges: après Avatar et Borderctrl dans les aéroports, voilà VeriPol qui démasque les faux plaignants ! (fr)

Un article de la Grande Bibliothèque du Droit, le droit partagé.
Monde > Droit privé > Droit du numérique 
Fr flag.png


Thierry Vallat : Avocat au barreau de Paris
Janvier 2019



Les robots ne connaissent pas le mensonge, mais peuvent le débusquer et c'est donc tout naturellement que des projets d'intelligences artificielles se développent.


Le blog a déjà évoqué récemment l'utilisation de l'intelligence artificielle pour traquer les mensonges des passagers aériens lors des contrôles de sécurité, grâce à une analyse de leurs micro-expressions.


Le projet européen "BORDERCTRL" en phase de test dans des aéroports grecs, lettons et hongrois développe un système de contrôle intelligent censé faciliter le travail des douaniers et services de sécurité en repérant les immigrants illégaux et contribuer ainsi à prévenir les crimes et le terrorisme, et destiné à fluidifier le trafic des voyageurs qui ne cesse d'augmenter dans les aéroports du vieux continent


Il s'agit en réalité d'un véritable détecteur de mensonges profilé calqué sur les tests effectués au Canada en 2017 avec une IA surnommée "Avatar" (pour Automated Virtual Agent for Truth Assessments in Real Time) capable de détecter les mensonges à partir des comportements physiologiques dans ses aéroports, pour aider les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à venir


Au passage de la frontière, vous êtes interrogé par une IA intégrant des facteurs de risques personnalisés et devrez répondre à des questions posées par une sorte de détecteur de mensonges profilé en fonction "du genre, de l'appartenance ethnique et de la langue" du voyageur


Le système de détection va alors analyser les micro-expressions du visage pour confondre les personnes qui mentiraient sur les véritables raisons de leur voyage ou leurs bagages (pour en savoir plus lire notre article Le projet européen Iborder control [1])


Et voilà que dans le même ordre d'idée, des chercheurs britanniques de l'Université de Cardiff et espagnols ont développé une intelligence artificielle capable de détecter les mensonges dans les plaintes déposées pour vol !


Le programme est testé depuis plus d’un an par la police espagnole et les développeurs de ce détecteur de mensonges ont publié leur étude dans la revue scientifique Knowledge-Based Systems [2]: VeriPol se montrerait fiable dans 83 % des cas, et aurait réduit le nombre de fausses déclarations de vol.


Cette IA est basée sur une combinaison d’analyse automatique des textes et de deep learning.


Ayant appris à reconnaître les éléments caractéristiques des fausses déclarations de vol, VeriPol va utiliser ses algorithmes pour identifier les différentes caractéristiques d'une déclaration,


En analysant à peu près tout ce qui compose le texte, la nombre de mots, la ponctuation, les verbes et adjectifs utilisés.


Veripol va tente également rechercher également la présence d’indices dans ces déclarations, comme l’absence de contact avec les secours, le manque de détails, l’absence de témoins ou de preuves, ou encore une importance exagérée donnée aux objets volés.


A priori, les plaintes les plus courtes seraient de fausses plaintes, ou encore celles qui se concentrent que sur les objets cher tels que les téléphones, les ordinateurs, et qui ne mentionneraient pas les papiers, les bijoux de famille, seraient également de fausses plaintes pour vol.


Les tests auraient ainsi mis en exergue que le programme VeriPol semblerait être plus efficace que les forces de l’ordre pour repérer les fausses déclarations.


Le polygraphe a été créé en 1921 est ce qui se rapproche le plus aujourd'hui du standard de référence en matière d’évaluation de la vérité.


Ces IA vont-elles détrôner ce vénérable détecteur de mensonge, pas si fiable que cela, encore utilisé notamment aux USA ( il ne peut être imposé au mis en cause mais le refus de s'y soumettre constitue un indice que la personne a quelque chose à se reprocher) ?


A noter encore ce projet danois baptisé Veritaps, un nouvel algorithme d’apprentissage automatique développé par une équipe de l’université de Copenhague capable d’identifier l’honnêteté et son contraire en analysant la manière dont une personne interagit avec l’écran d’un mobile.


Ainsi, les actions malhonnêtes seraient plus longues et impliqueraient davantage de gestes que pour les comportements honnêtes expliquent les chercheurs dans leur article [3].


Votre smartphone serait ainsi transformé en petit détecteur de mensonges par cette application: le programme marque d’une coche verte les déclarations véridiques et d’un point d’interrogation rouge celles qui lui semblent douteuses.


La personne recevant ces évaluations pourra alors demander un complément d’information à son interlocuteur pour les réponses suspectes.


Ce genre d’applis soulève cependant de nombreuses questions éthiques puisqu'exploitant des données personnelles comme la pression sanguine ou le rythme cardiaque.


Tous ces projets sont par ailleurs bien silencieux sur le recueil des données biométriques, la conservation des données, leur durée de conservation, leur accès etc. qui ne semblent guère préoccuper leurs initiateurs.


Alors, véritables détecteurs de mensonges ou plutôt indicateurs sur la nécessité de vérifier une information, la tentation est déjà grande d'utiliser les IA en matière de justice ou de sécurité et l'idée de multiplier les robots dans les commissariats de police et dans les tribunaux fait de plus en plus son chemin, en espérant que ce ne sera pas au détriment de l'humain comme le projet de loi "Justice" de Nicole Belloubet semble le concevoir.


Et pourquoi pas aussi ne pourraient-ils pas servir à déceler les fake news, ce serait bien utile en ces temps d'intox continuelles !