8 minutes de lecture
« L’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine« ,
Pierre Lévy
En toute honnêteté, rarement une Charte éthique de la Commission européenne m’aura apporté autant de plaisir de lecture. Souvent insufflé d’un fort idéalisme, les chartes éthiques s’effacent en même temps que l’utopisme qui la porte.
La Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement est au contraire doté d’un réalisme impressionnant. Le sujet est parfaitement maîtrisé. Rares sont les publications mêlant la science du Droit et la science de l’informatique avec autant de clarté et de maîtrise. A partir d’un état de l’art de l’application de l’IA dans les systèmes judiciaires européennes, la CEPEJ a établi 5 principes directeurs pour l’IA et la justice :
Ne se limitant pas à simplement énoncer ces 5 principes directeurs, la Charte, en annexe, aborde une multitude de problématiques liées à l’application de l’IA dans le Droit ; le défi de l’Open Data, la protection des données, la valeur de la norme juridique, la capacité de l’IA à reproduire un raisonnement juridique, l’évaluation des décisions des juges, le fonctionnement de l’IA, le data shopping, la justice prédictive. les ODR (Online Dispute Resolutions) … .
J’invite tous les intéressés à se prendre le temps de lire ces 59 pages qui valent un détour sans regrets.
Mon commentaire
- Consciente que le mouvement de l’intelligence artificielle est principalement mené par des entités privées, la Charte s’impose le rappel de l’exigence du respect des principes fondamentaux de la justice européenne. Pour la CEPEJ, il faut avant tout favoriser l’élaboration d’outils issue d’études pluridisciplinaires qui respectent les principes éthiques tout au long de leur conception. (ethical by design).
- Il faut dire qu’on sent une certaine réticence de la CEPEJ de laisser la conception des outils d’IA pour le Droit exclusivement à la sphère privée. Et effectivement, on peut se questionner sur un modèle économique qui se fonde sur la revente de jurisprudences mis à disposition gratuitement par des autorités ayant fait l’effort de les rendre lisibles et exploitables.[1] Les projets sans but lucratif ne seraient-ils pas les mieux placés pour créer des outils fiables ou est-ce que la cupidité des start-ups peut-être bridée par le respect de principes fondamentaux de la justice ?
- Alors que la Charte ne remet pas en cause les vertus en terme d’amélioration de performance et d’efficacité de l’application de l’IA dans les systèmes judiciaires, elle veut se poser comme garant contre tout retour à une doctrine déterministe du droit. Paradoxalement, l’IA peut être une source ou un frein à la discrimination au sein des systèmes judiciaires. C’est la raison pour laquelle la Charte tend « à favoriser l’utilisation de l’apprentissage automatique et la conduite scientifiques pluridisciplinaires visant à lutter contre de telles discriminations devraient être encouragées. »[2] Elle adopte ainsi une vision très pragmatique de l’avènement de l’IA dans les systèmes juridiques.
- En matière de déterminisme juridique, la Charte accorde une attention particulière au système pénal. L’utilisation d’algorithmes dans le système pénal est d’ailleurs fortement répandue, que ce soit dans le but de prévenir la commission de délits ou de crimes ou pour évaluer le risque de récidive. Ces algorithmes, pour certains, justifient d’une efficacité impressionnante. Cette efficacité n’est toutefois pas le but recherché lors du procès pénal où le principe de l’individualisation de la peine devra primer. Alors que pour les juridictions civiles et administratives, l’IA peut avoir un rôle désencombrant, la Charte énonce clairement des risques sérieux et graves quant à l’utilisation de l’IA tout au long de la procédure pénale.
- La Science du Droit vit peut être un tournant avec l’avènement de l’intelligence artificielle ; elle passe d’une science essentiellement fondé sur du texte à une science qui cherche à exploiter des données. Ce qui est aujourd’hui recherché au sein des textes juridiques ne sont plus des catégories, des concepts ou des définitions juridiques, mais des paramètres qui influencent la décision finale. L’analyse d’une jurisprudence n’est plus une interprétation des textes mais elle repose sur une mise en corrélation des différents paramètres identifiés pour comprendre voire reproduire une décision.
- La Charte met merveilleusement en évidence qu’en l’occurrence l’intelligence artificielle ne cherche pas à reproduire le raisonnement juridique mais qu’elle se limite à l’étude de la pondération de l’association des différents paramètres contenus dans les décisions. L’algorithme ne peut donc pas être neutre ; ce sont les concepteurs qui choisissent arbitrairement les paramètres que doivent être pris en compte et ceux qui doivent par conséquent être ignorés. La Charte rappelle bien que la neutralité d’un algorithme est un mythe auquel il ne faut pas se fier.
- La donnée prend donc une place centrale dans les systèmes juridiques. Il faut pouvoir s’assurer que les données traitées par l’algorithme sont fiables. L’utilisateur doit pouvoir vérifier quelles données ont été utilisées pour arriver à la conclusion qu’on lui présente. La Charte exige que les utilisateurs des outils d’IA soient des utilisateurs éclairés et qu’ils restent maître de leur choix. Cette exigence est d’autant plus importante pour les juges qui peuvent désormais être confrontés à devoir justifier pourquoi ils prennent une décision contraire à celle d’un algorithme.
- Savoir comment fonctionne l’algorithme en rendant son fonctionnement totalement transparent ou en open source se heurte à la propriété intellectuelle. Cette propriété intellectuelle est le pouvoir économique des legaltechs qui ne veulent certainement pas sacrifier leur espoir de faire du chiffre d’affaires pour se voir attribuer un label. Dévoiler tout les secrets industriels des projets d’IA et Droit n’est toutefois pas le but recherché par la Charte. Les concepteurs doivent être amenés à expliquer vulgairement le fonctionnement de leurs algorithmes et à vouloir démonter une conception dans l’intérêt de la justice.
- Entre discours commerciale et la réalité, nous savons tous que des différences existent. La CEPEJ parle plusieurs fois dans leur Charte de la mise en place d’un audit pour les algorithmes employés dans les systèmes judiciaires. Toutefois, un flou demeure sur la mise en œuvre d’un tel audit et sur son caractère obligatoire. Aujourd’hui le seul moyen de surveillance demeure le contrôle par le RGPD.
- La Charte veut par sa philosophie préserver les principes fondamentaux des systèmes judiciaires. La CEPEJ est averti du fait que le bouleversement des nouvelles technologies va remettre en cause les piliers sur lesquels le système judiciaire repose aujourd’hui. Ce qui compte avant tout, c’est la protection du justiciable. Sans pousser l’utilisation de l’intelligence artificielle dans le cadre supra legem qui régit les systèmes judiciaires européens, la porte aux dérives restera grande ouverte.
Djamel Belhaouci, Doctorant au Laboratoire de Théorie du Droit (Aix-Marseille Université) en Droit & Intelligence Artificielle.
[1] https://rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b
[2] https://rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b