Rencontre avec Maxime Voisin : l’éthique de l’Intelligence Artificielle dans le domaine juridique 

Publié le 20 juin 2024

4 minutes de lecture

Maxime Voisin, juriste d’entreprise chez Juri’Predis, partage son expertise sur l’éthique de l’intelligence artificielle dans le domaine juridique. Découvrez les défis liés à l’intégration de l’IA.

En quoi consiste votre rôle au sein de Juri’Predis ?

Je suis juriste en droit du numérique chez Juri’Predis. Mes missions actuelles se concentrent principalement sur deux axes. Le premier est la conformité au Règlement général sur la Protection des Données (RGPD) de 2016 et autres règlementations applicables en matière de données. Le deuxième consiste à apporter une expertise métier dans la conception et l’amélioration de notre solution. Mon rôle est de veiller à ce que notre produit respecte les réglementations en vigueur et réponde aux besoins spécifiques de nos clients.

Travaillez-vous directement avec les experts et ingénieurs ?

Je travaille directement avec tous les membres de l’équipe technique et métier. En collaboration avec notre product owner, je veille à retranscrire notre vision métier et à garantir que le produit corresponde aux attentes de nos utilisateurs. Je travaille aussi en étroite collaboration avec les autres juristes de l’équipe métier afin d’harmoniser notre approche. Les développeurs sollicitent régulièrement notre expertise pour comprendre la structuration des données, leur importance et leur pertinence. 

Comment Juri’Predis traite-t-elle les questions d’éthique dans son développement et son utilisation ?

Chez Juri’Predis, nous avons mis en place plusieurs garde-fous pour traiter les questions éthiques. D’un point de vue métier, nous avons un comité éthique et scientifique composé de professionnels du droit, comme des enseignants et des avocats. Ces derniers contrôlent la qualité et la conformité de nos algorithmes. Par ailleurs, des spécialistes de l’IA travaillent en collaboration avec nos juristes, ce qui garantit que la conception de notre solution soit bien encadrée.

D’un point de vue technique, nous assurons un chiffrement des données. Nous évitons toute discrimination de ces dernières et n’utilisons pas un moteur de recherche qui apprend sur la base du comportement de l’utilisateur. Ces mesures garantissent que notre solution reste un outil qui n’a pas pour vocation de remplacer les professionnels du droit.

En cas de préjudice causé par une décision prise par une IA, qui est tenu pour responsable ?

C’est une question complexe qui suscite de nombreux débats à l’échelle mondiale. On peut envisager plusieurs pistes basées sur différents fondements de responsabilité :

  • Du producteur et du concepteur : basée sur la responsabilité des produits défectueux
  • Du vendeur : sur la base de la responsabilité contractuelle
  • De l’utilisateur : fondée sur la responsabilité délictuelle

Concernant la responsabilité en cas de préjudice causé par décision prise par une IA, l’article 22 du RGPD offre un premier élément de réponse : « La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l’affectant de manière significative ». Cela garantit ainsi l’intervention d’un humain dans le processus décisionnel. Dès lors la responsabilité peut peser sur le superviseur humain ou sur la structure qui a mis en place le système d’IA (le responsable de traitement).

Plusieurs précédents sont notables aux Etats-Unis :

  • En 2016, le logiciel COMPAS a été impliqué dans l’évaluation des risques de récidive des détenus. Bien que potentiellement biaisé, aucune annulation de condamnation ni responsabilité du développeur n’a été reconnue.
  • En 2018, un véhicule autonome d’Uber a tué une piétonne en Arizona. La responsabilité a été partagée entre la compagnie et la superviseuse humaine. Cette dernière a été condamnée pour homicide involontaire.
  • En 2023, un juge a condamné deux avocats et leur cabinet à une amende pour avoir utilisé Chat GPT. L’IA avait fabriqué de fausses jurisprudences dans un dossier judiciaire.

Si un avocat évoque devant le juge une jurisprudence erronée fournie par Juri’Predis, qui est responsable : Juri’Predis ou l’avocat ?

Actuellement, Juri’Predis ne peut pas être concerné par ce type de problématique car nos jurisprudences sont fournies directement par la Cour de cassation, le Conseil d’Etat et autres juridictions. Notre intelligence artificielle intervient dans le rapprochement et la structuration de décisions mais ne prend pas de décisions autonomes.

Juri’Predis s’engage en faveur de l’innovation technologique tout en respectant les exigences éthiques et juridiques. Grâce à une collaboration entre juristes et développeurs, nous nous assurons que notre solution offre une aide précieuse sans remplacer les professionnels du droit. Les débats sur la responsabilité de l’IA sont encore en cours, mais Juri’Predis se positionne comme un acteur prudent et conscient de ces enjeux.

L’équipe Juri’Predis