La RAG, une IA parfaitement adaptée aux attentes des professions juridiques

Publié le 27 novembre 2024

6 minutes de lecture


La Retrieval Augmented Generation (RAG), en français « génération augmentée de récupération » bouscule les codes de l’intelligence artificielle (IA) pour les professions juridiques. A quelques jours de sa présentation aux prochains Rendez-vous des Transformations du droit, focus sur une innovation plus flexible, plus efficace et plus sûre pour le monde juridique. Maxime Voisin, juriste chez Juri’Predis fait le point sur cette technologie novatrice et ouvre une liste d’inscription pour ceux qui souhaiteraient devenir bêta-testeur.

Qu’est-ce que la Retrieval Augmented Generation (RAG) ? En quoi se distingue-t-elle des IA génératives traditionnelles, dites LLM (Largue Language Model) ?

La RAG est un processus visant à optimiser les performances d’un grand modèle de langage (LLM), en lui fournissant des informations supplémentaires auxquelles il n’a pas eu accès durant son entrainement. Il s’agit, pour être précis, d’une chaîne. Autrement dit, une séquence de fonctions et d’appels à un ou plusieurs LLMs agissant à la suite.

Cette chaîne permet une flexibilité plus importante qu’une simple séquence d’instructions ou algorithmes. Elle s’appuie sur les grands modèles de langage (LLM). La RAG permet d’augmenter les performances de ces derniers, en proposant une utilisation différente. Elle fournisse des informations externes aux LLMS, des informations sur lesquelles ils n’ont pas été entrainés.

L’utilisation de ces informations complémentaires débouche ainsi sur des résultats plus pertinents vis-à-vis de la requête de l’utilisateur.

Quelles sont les étapes dans le processus de la RAG ?

Pour parvenir à ce résultat, le processus de la RAG comprend deux étapes clefs. Il y a tout d’abord une nécessaire phase de récupération des documents. Ces derniers sont classés selon le type de recherche choisie (en général la vectorisation). Cela permet de les ordonner selon leur pertinence, par rapport à la requête initiale.

Une fois ce travail réalisé, la seconde étape est la génération de la réponse. Cette réponse va s’appuyer sur les documents les plus pertinents remontés lors de l’étape de récupération.

En somme, ce nouveau système génère une réponse plus précise, mais aussi plus complète, grâce aux documents supplémentaires fournis. Il intègre et hiérarchise l’ensemble des éléments à sa disposition. 

Quels sont les nouveaux avantages que procure l’utilisation de la RAG ?

Lorsqu’on utilise un process RAG, on fournit aux LLMs une base spécifique de documents qu’il exploitera directement. On va donc obtenir des réponses plus précises, plus contextuelles et plus récentes selon les données fournies. Le fait de fournir ces documents complémentaires permet de contrôler plus simplement la véracité des informations générées par les LLMs.

En ce sens, cette technologie s’appuiera sur une base documentaire plus restreinte que la base nécessaire à l’entrainement d’un grand modèle de langage. Mais une base documentaire dont la nature, la source, la fiabilité et la qualité auront été vérifiés en amont. Son analyse va ainsi s’adapter au contexte de cette base de données.

Par exemple, pour une question juridique, il appuiera sa réponse par des décisions jurisprudentielles, des articles de code ou de loi directement consultables par l’utilisateur, via des liens hypertexte. Un avantage par rapport à un LLM classique qui peut inventer des décisions ou des textes de lois. Ces hallucinations liées à la nature des LLM seront ici beaucoup plus restreintes.

Dans notre cas, la RAG répondra si, et seulement si, les informations sont disponibles. Si elle n’a pas les informations pertinentes pour répondre, elle ne répondra pas. La RAG offre de nouvelles capacités d’analyses. Elle pourra interroger les LLMs sur des documents récents ou non indexés par les moteurs de recherche, comme certains documents internes d’une organisation.  

A noter, d’un point de vue économique, construire un modèle RAG est moins coûteux que construire un modèle complet de LLM dédié à l’activité.

Enfin, son dernier avantage, et non des moindres, est son système de sécurité. Externe aux LLMs, la base de données des documents interrogés n’est pas accessible aux différents fournisseurs. Une nécessité au vu des documents sensibles auxquels cette technologie peut être confrontée.

Comment Juri’Predis utilise-t-il la RAG ?

Pour le moment, l’utilisation principale que nous faisons de la RAG se base sur la génération de réponses juridiques à partir de décisions de justice, de textes législatifs ou réglementaires. Cela représente un gain de temps remarquable pour les professionnels du droit.

Cela permet aux professionnels d’adresser de nouveaux sujets. Par exemple, un avocat spécialisé en droit social pourra ainsi répondre à des questions de droit de la famille. Il suffit de poser une question à la RAG.  Elle lui fournira alors une réponse argumentée. L’avocat obtiendra ainsi des premiers éléments de réponses, agrémentés de décisions jurisprudentielles ou d’articles juridiques.

Toutes les sources citées seront directement consultables. Un gain de temps sur la recherche juridique, la réalisation de conclusions d’avocats, d’assignations ou de notes juridiques…

Quelles sont les applications concrètes de la RAG dans le domaine juridique ?

La RAG n’est pas seulement utile en matière de recherche juridique. Elle peut aussi s’élargir à d’autres domaines, notamment la rédaction de contrat.

Dans le processus de rédaction d’actes, un juriste pourrait lui demander de s’appuyer sur une clause déjà rédigée par le passé. L’utilisation de la RAG est également pertinente dans la gestion et le suivi de dossiers. Pour retrouver facilement les dossiers déjà traités, on peut interroger directement l’IA : “quelles étaient les règles de droit mentionnées dans tel dossier ?” par exemple.

Existe-t-il d’autres facteurs qui ont poussé Juri’Predis à développer ce modèle de RAG ?

Nous avons des exigences déontologiques assez fortes dans nos développements. C’était important pour nous de participer à la souveraineté numérique française en choisissant un de ses acteurs majeurs. Un choix qui nous permet aussi d’avoir des garanties en termes de sécurité et de réutilisation des données !

Notre solution s’appuie donc sur un LLM français : Mistral. Conformément à notre politique, nous avons désactivé l’apprentissage du modèle à partir de nos requêtes. Il n’y a donc aucun apprentissage du modèle de Mistral par rapport à ce que l’on peut faire, ou par rapport à ce que nos utilisateurs pourront faire.

Juri’Predis étant la solution des professionnels du droit, via la Conférence des bâtonniers, elle adhère à des principes déontologiques et éthiques strictes. Le modèle RAG permet une mise à jour aisée de la documentation accessible aux LLMs. Elle va ainsi dans le sens d’un meilleur contrôle humain. Dans cette optique et conformément aux exigences européennes, ce système se fond parfaitement avec nos valeurs.

Notre modèle est notre force : Juri’Predis est pensé par des professionnels du droit, pour des professionnels du droit. Nos ingénieurs internes côtoient quotidiennement des juristes et des avocats pour répondre aux attentes des professionnels.

Nous voulons être sûr d’apporter une réelle plus-value. Dans le développement du prototype, nous allons toujours nous demander : « Est-ce que c’est ce qu’un juriste ou un avocat va attendre quand il utilise la RAG ? »

Je pense que c’est ça qui peut faire la différence, chez Juri’Predis, l’exigence de qualité et la primauté de l’éthique !

Un article de Marika Fournier et Gabriel Moser
Etudiants du Magistère Droit Journalisme Communication d’Aix-Marseille Université

Vous souhaitez rejoindre notre équipe de bêta-testeur sur cette nouvelle fonctionnalité ? Inscrivez vous ici.