Le blog Droit administratif

Aller à l'accueil | Aller à la table des matières |
23 10 2025

Enseigner le droit à l’ère des IA génératives
Pour une réflexion sur l’enseignement et la formation universitaire dans le champ juridique à l’aune des IA

Résumé : À l’ère des IA génératives, l’enseignement en général, et l’enseignement universitaire du droit en particulier, sont confrontés à une crise d’identité. Les changements engendrés par ces nouveaux outils sont tels qu’il semble devenir nécessaire, à plus ou moins court terme, de réfléchir à l’évolution générale que prendront les études de droit. Si les différents exercices juridiques ne peuvent pas encore être parfaitement maîtrisés par les IA, l’évolution technologique est telle que d’ici peu de temps ils seront parfaitement maîtrisés. Au-delà, la question des compétences que doivent acquérir les étudiants se pose également, à une époque où le droit, en tant qu’objet, est largement accessible, tout comme les connaissances fondamentales sur le droit. Il faut alors revoir ce que l’on souhaite transmettre aux étudiants, afin de les former au mieux à ces nouveaux outils.

Comment peut-on encore enseigner le droit alors qu’une intelligence artificielle (IA) est capable de formuler des textes qui peuvent présenter des connaissances juridiques mais aussi qui pourraient recevoir des notes suffisantes pour valider les examens universitaires ? Voilà, en essence, la question à laquelle nous souhaitons ici proposer une piste de réflexion. Il ne s’agira évidemment pas de proposer une réponse, car il n’y a pas de réponse spécifique. Bien au contraire, la réflexion doit être collective et doit associer le corps enseignant, les professionnels du droit mais également les étudiants.

La question de l’enseignement du droit n’est pas nouvelle[1], mais le contexte technique contemporain est sans commune mesure avec les questions de massification des études supérieures ou de disponibilité facilitée des sources et des discours juridiques. La doctrine s’est d’ailleurs plusieurs fois fait l’écho de ces changements[2], tant sur l’enseignement[3] et la recherche[4], avec plus ou moins d’alarmisme[5]. Ce contexte technique a également des incidences drastiques sur le droit positif, tant sur la gestion des données que sur leur utilisation pour le droit, mais c’est ici sur les questions liées à l’enseignement qu’on se concentrera.

Que faire, donc, face à l’arrivée des différentes IA génératives[6], qu’il s’agisse de ChatGPTClaudeMistral,DeepSeek, Perplexity ou GenIAL de Dalloz, ou d’autres à venir ? Tout dépend, en réalité, de ce que l’on considère comme devant être l’enseignement du droit (I). À partir de ces éléments, plusieurs utilisations des AI sont envisageables pour l’enseignant (III), après qu’il a pris le temps de se former à ces outils (II).

I. Controverses autour de l’enseignement du droit

Tous les juristes seront sans doute d’accord, de prime abord au moins, avec la remarque générale de Rivero, qui voit dans la formation en droit l’objectif de mettre « en mesure de comprendre et d’appliquer les règles qui se succéderont au fil des quatre ou cinq décades de sa vie[7] » ainsi que de transmettre « les catégories de base, les notions fondamentales[8] ». Et de critiquer la nécessité d’apprendre par cœur les énoncés, dont la « justification a disparu[9] ».

Pourtant, si l’on regarde de plus près nos pratiques pédagogiques, nous sommes encore à l’ère du « par cœur ». Cela n’est pas nécessairement un problème, il faut nécessairement apprendre la « grammaire » du droit, et ces éléments ne peuvent qu’être appris. Il faut aussi connaître les catégories fondamentales plus ou moins par cœur, mais sans oublier que ces catégories fondamentales sont nécessairement contingentes. Elles résultent soit du droit positif (par exemple les définitions de « contrat », de « personne » ou de « président de la République ») ou de la doctrine (par exemple « Constitution », « bien » ou la « théorie de la justice apparente »).

On exige également une connaissance de l’existence et des compétences au moins générales des plus grandes juridictions de notre système juridictionnel, par exemple la Cour de cassation, le Conseil d’État et le Conseil constitutionnel ; pourtant ces institutions n’existent que par le truchement de normes juridiques.

On exige encore la connaissance d’évènements, de décisions ou de textes fondamentaux pour la connaissance et la compréhension de notre système juridique. Que penser d’un étudiant de L3 qui ne maîtriserait pas l’arrêt Blanco ou les décisions Liberté d’association ou IVG. Pourtant, là encore, il s’agit fondamentalement d’éléments contingents. La différence est donc bien une différence de degré, et il est certain que nous ne partageons pas exactement la même conception de ce qui est fondamental à transmettre à un moment t, même en prenant en compte les disciplines et les spécialisations. Plus d’apprentissage par cœur du code civil, mais toujours un minimum de choses à connaître.

Si un accord relatif peut réussir à se former sur ces différents éléments, ils ne constituent que les linéaments de l’enseignement du droit. En effet, enseigner le droit, c’est aussi transmettre des méthodes, des manières de penser, et c’est ici quelque chose de très probablement bien moins partagé par la communauté des chercheurs en droit. Le droit souffre chroniquement d’une absence de définition, les numéros 10 et 11 de la revue Droits en sont une parfaite illustration[10], et l’enseignement du droit en souffre nécessairement. Comment, en effet, se mettre d’accord sur ce que l’on enseigne si l’on ne sait pas ce que l’on enseigne ?

Une première division existe déjà dans les exercices proposés aux étudiants. Si l’enseignement du droit privé semble aujourd’hui parfois rejeter l’exercice du commentaire d’arrêt en raison de la nouvelle rédaction des décisions de la Cour de cassation[11], il n’en est rien en droit public. Au-delà de cet aspect très ponctuel, c’est également ce que l’on attend des étudiants qui n’est pas nécessairement partagé, tant en fonction des matières passées – entre les épreuves de travaux dirigés et les épreuves plus courtes – et les enseignants eux-mêmes. Attend-on une réflexion sur le droit, ou bien une réflexion en droit ? Pour le dire autrement, faut-il formuler la réflexion de lege lata ou de lege ferenda ? C’est là une question fondamentale, liée à l’approche positiviste du droit, ou à une approche plus large qui inclut des réflexions politiques.

Tout ça pour dire, finalement, que nos exigences sont variables. Cela signifie que, vis-à-vis des IA génératives, toutes les exigences n’auront pas la même incidence, et il est essentiel d’avoir en tête ces éléments. Si l’on se rend compte qu’une tâche que l’on exige pourtant de nos étudiants non comme un préalable mais comme une finalité, c’est peut-être qu’il faut remettre en cause cette tâche. Pour le dire autrement, et de manière provocante, « si les étudiants peuvent produire des réponses satisfaisantes à vos questions en utilisant une IA de génération de texte, alors vous posez des questions superficielles[12] ». Il faut alors accepter la mutabilité de nos exigences, et sans doute en revoir certaines à plus ou moins court terme.

II. L’IA comme outil et les nécessités de se former

L’IA générative est là, et elle est là pour rester. À l’arrivée de ChatGPT, en novembre 2022, il était encore possible d’imaginer qu’il ne s’agirait que d’un phénomène éphémère ; il est aujourd’hui certain que ce n’est pas le cas. Il semble donc nécessaire, pour le juriste, de connaître le fonctionnement de ces outils (A) afin de ne pas en faire ce qu’ils ne sont pas (B), mais aussi de se former à leur usage et à leur évolution certaine (C).

A. Connaître le fonctionnement des IA génératives[13]

Afin de comprendre ce que les IA génératives peuvent faire, il est impératif de comprendre les fondements de leur fonctionnement. C’est également nécessaire pour transmettre cela à nos étudiants, tout comme nous avons dû nous familiariser avec les bases de données juridiques.

Les IA génératives ont évolué, mais leur fonctionnement général demeure identique. Il faut déjà préciser que ces IA sont spécifiques, et se distinguent par exemple d’une IA de jeu d’échecs. Elles sont en revanche relativement proches des IA les plus récentes et fondées sur les « réseaux de neurones ». L’idée est relativement simple si l’on ne rentre pas dans les éléments trop techniques[14] : le programme informatique est constitué d’unités organisées en couches, que l’on appelle des « neurones », en référence aux neurones du vivant. Chaque neurone va avoir un rôle spécifique, et s’activera en fonction des informations d’entrée, pour produire (ou non) des données en sortie. De manière imagée, on pourrait dire qu’un neurone (ou un groupe de neurones) pourra reconnaître l’expression « article 1240 » en entrée, et sortir la valeur « responsabilité civile ». Tous les neurones sont donc organisés en couches, et les valeurs de sortie de la première couche sont les valeurs d’entrée de la deuxième, jusqu’à arriver à la couche finale.

Les IA génératives dont il est question ici sont des LLM (large langage models). Elles fonctionnent avec les réseaux de neurones mentionnés précédemment, et ces réseaux sont entraînés (souvent appelé deep learning). Le but de l’apprentissage est de permettre aux réseaux de neurones d’apprendre les tâches qu’on veut leur faire accomplir. Concernant le texte – mais il est également possible de procéder de manière identique avec des images ou de la musique – on va d’abord entraîner ces neurones sur une très large quantité de données textuelles, dans plusieurs langues. Cet entraînement consiste à faire deviner la suite d’un texte, en comparaison avec le corpus, avec supervision par un autre algorithme. C’est ce qui explique le côté probabiliste de ces IA, qui génèrent du texte en fonction de la probabilité des termes dans une langue déterminée. Plus largement, l’entraînement consiste à présenter des exemples d’entrée, et à mesurer la distance globale des sorties du réseau par rapport à la solution attendue. On va alors modifier le réseau jusqu’à minimiser le delta entre les sorties réelles et les sorties attendues. Pour simplifier à outrance, le réseau de neurones est une énorme fonction mathématique, avec beaucoup de paramètres, et dont l’entraînement vise à altérer les paramètres afin d’aboutir aux réponses souhaitées.

Il est possible, après entraînement, de faire des réglages plus fins, nécessairement supervisés, pour la complétion de certaines tâches très spécifiques. C’est parce que ces réseaux de neurones sont entraînés sur de larges quantités de données qu’ils sont appelés LLM.

On ajoute ensuite par-dessus des processus et des interfaces utilisateurs qui vont faire le lien entre le modèle d’IA et l’utilisateur. C’est pour cela qu’il faut distinguer les modèles d’IA en général et le programme d’IA présenté aux utilisateurs. Par exemple pour ChatGPT, il faut distinguer l’interface utilisateur ChatGPT et le modèle utilisé par le programme (GPT-4oo3 ou o4-mini par exemple). ChatGPT n’est pas un LLM, mais c’est un programme qui va utiliser les LLM pour produire des réponses en fonction des prompts, des demandes, des utilisateurs. Une deuxième IA est généralement ajoutée pour effectuer une certaine censure, en prenant en compte que l’entraînement lui-même ajoutera une couche de censure. Il va ainsi interdire les réponses racistes, par exemple, ou les réponses qui fourniraient des aides au suicide. Le modèle de langage est parfaitement capable de fournir de tels textes, mais le programme proposé à l’utilisateur se place en filtre. C’est le même mécanisme qui permet à DeepSeek, l’IA chinoise fondée sur DeepSeek LLM, de filtrer certains termes, par exemple ceux liés aux évènements de la place Tian’anmen de 1989[15].

Les réponses fournies, en tant que telles, n’ont rien de spécifiquement vraies ou fausses. Le but de ces IA est de générer du texte vraisemblable par rapport à ce qui est demandé par l’utilisateur. Puisque les données d’entraînement sont généralement plutôt vraies, les réponses auront également tendance à l’être, mais ce n’est pas une certitude ni quelque chose d’automatique. Le texte est en effet globalement généré de manière probabiliste. L’IA va générer des termes en fonction du contexte, et des éléments fournis par l’utilisateur, mais en se fondant sur la probabilité qu’un terme en suive un autre, bien que d’autres mécanismes entrent en jeu. Notamment, l’IA ne choisit pas le terme le plus probable, mais choisit de manière plus ou moins aléatoire, ce qui insère de la variabilité, tout en permettant une unité de sens plus qu’une unité de mots. C’est pour cela que ces IA génèrent des textes très corrects sur le plan syntaxique, mais largement perfectible sur le fond, notamment quand sont attendus des éléments précis, par exemple en droit. C’est également la raison qui fait qu’avec le même prompt d’entrée, les IA ne génèrent pas exactement les mêmes réponses.

Nous avons tous participé à certains des processus d’apprentissage de ces réseaux de neurones, plus ou moins directement, plus ou moins consciemment et plus ou moins volontairement. Nous avons tous rencontré sur internet certaines boîtes de dialogue utilisées pour vérifier que l’utilisateur est humain, des captchas (Completely Automated Public Turing test to tell Computers and Humans Apart). Lorsqu’il s’agit de reconnaître des mots ou de reconnaître des objets sur des images, une partie des données produite est utilisée ensuite comme base de travail pour l’apprentissage de réseaux de neurones, liés ou non aux IA génératives.

B. Ce que les IA génératives ne sont pas (encore)

Ces IA génératives ne sont pas conscientes au sens où l’on peut l’entendre classiquement, ni même intelligentes dans le sens humain du terme. Ainsi, elles pouvaient encore commettre de grossières erreurs de calcul, parce qu’il n’y a pas de vérifications faites par l’IA à ce niveau. Elles s’approchent davantage de la « pièce chinoise » de l’expérience de pensée de John Searle[16], elles répondent des choses vraisemblables en fonction du contexte. Cela ne signifie pour autant pas qu’il est impossible que de telles IA, un jour, arrivent à un niveau de conscience, mais ce n’est pour l’instant pas le cas.

Elles ne sont pas non plus des bases de données. Les textes sur lesquels les IA génératives sont entraînées ne sont pas stockés dans le programme informatique, et elles ne s’y réfèrent pas. Ainsi, même en demandant à un programme d’IA de reproduire une phrase en particulier d’une œuvre littéraire sur laquelle il aurait été entraîné, il en sera incapable. En revanche, il formulera sans doute une réponse vraisemblable en fonction du prompt de l’utilisateur. L’exception serait ici celle des incipit célèbres. ChatGPT, sur GPT-4o, peut ainsi très facilement retrouver la première phrase de À la recherche du temps perdu, certainement parce que cette phrase est reprise dans ses données d’entraînement à de nombreuses reprises. Il est en revanche incapable de donner correctement sa dernière phrase, puisque cette phrase n’a pas dû apparaître de manière répétée. Il faudrait plutôt comprendre ces IA comme des lecteurs, incapables de restituer ce qui a été lu puisque cela n’a pas été stocké au sens propre. L’IA reconstruit à partir d’inférences construites selon ces différentes lectures d’entraînement.

Ces IA ne sont pas non plus des moteurs de recherche. Elles peuvent être connectées à internet, et faire des recherches afin de nourrir leurs réponses. Pourtant, il ne faut pas les voir, en tant que telle, comme des moteurs de recherche. Les recherches internet ne fonctionnent pas avec tous les modèles, et ne sont pas non plus dénuées d’erreurs puisque c’est l’IA elle-même qui procède à la recherche via les moteurs de recherche. En effet, le modèle général préexiste à la recherche internet, et cette recherche ne va pas modifier sa capacité ni sa manière de générer les résultats, elle va simplement fournir des données d’analyse spécifique pour rédiger sa réponse. Ces données ne seront pas vraies par principe, puisque la navigation ne s’effectue que sur les sites accessibles librement, ce qui exclut les bases de données juridiques. Ainsi, une demande sur l’arrêt Blanco donnera probablement des résultats probants, surtout avec recherche internet, mais une requête plus complexe sera moins fructueuse en fonction de sa rédaction, et en gardant à l’esprit que les outils évoluent suffisamment vite pour qu’il soit impossible de tracer une ligne définitive : les erreurs d’aujourd’hui devenir des succès au fil des versions, ou même de la rédaction des prompts. 

Certains modèles d’IA vont ajouter une couche supplémentaire dans leur traitement : plutôt que de faire des recherches sur internet, ils vont faire une recherche sur la base de données d’un éditeur. C’est ainsi le cas de l’IA de Dalloz GenIA-L : les réponses sont générées uniquement en fonction des éléments présents sur la base. La base est destinée aux professionnels du droit pour leur fournir des réponses, ce qui exclut donc plus ou moins la capacité à faire des travaux généraux. Pourtant, puisque les bases ne remontent qu’à 1990 pour les revues les plus anciennes, les réponses de l’IA peuvent être extrêmement pauvres lorsqu’il s’agit de décisions antérieures à cette date. Par exemple, GenIA-L est incapable de parler correctement de l’arrêt Rajewski du Conseil d’État de 1988. Trop ancien, il n’apparaît pas ou pas assez pour que l’IA puisse se fonder sur les données qu’elles trouveraient.

C. Se former aux IA génératives

On le voit, le fonctionnement de ces IA nécessite de se former à leur utilisation. Il faut comprendre le fonctionnement, mais aussi comprendre comment poser les questions. C’est ce qu’on a appelé le prompt engineering, le prompt étant le nom donné à la requête de l’utilisateur. En effet, il est important de bien formuler son prompt, même si l’importance a baissé avec les plus gros modèles d’IA, ceux utilisés par le grand public, les enseignants-chercheurs et les étudiants en droit. Par exemple, spécifier le but de la requête, le registre de langage, ou encore le type de réponse attendue pourra donner une réponse bien plus pertinente ; pertinente mais certainement pas vraie ni correcte. On pourrait comparer l’idée du prompt avec une question préjudicielle. Elle doit être rédigée de la bonne manière afin que le juge fournisse une réponse pertinente au problème juridique rencontré par la juridiction qui pose la question.

Il faut particulièrement prendre garde aux « hallucinations », c’est-à-dire aux erreurs affirmées par les IA de manière péremptoire. Par exemple, à ses débuts, à la question « qui fut la première femme présidente de la République française ? », ChatGPT pouvait répondre Simone Veil de manière affirmative – ce n’est plus le cas aujourd’hui. La raison est relativement simple : parmi les textes d’entraînement, Simone Veil était souvent associée aux termes de « président ». L’outil étant conçu pour apporter une réponse allant dans le sens de la requête, il répondait « Simone Veil ». Toujours aujourd’hui, demander à ChatGPT d’expliquer l’arrêt Rajewski du Conseil d’État de 1988, si le prompt n’est pas associé à une demande de recherche internet, abouti à une hallucination, souvent d’ailleurs en considérant que l’arrêt est en lien avec le droit des étrangers.

Les IA sont aussi largement victimes de divers biais, en raison même de leurs bases d’apprentissage. Les modèles peuvent être paramétrés pour corriger une partie de ces biais, et les modèles de langage plus récents sont réglés autant que possible pour corriger les biais identifiés, mais l’utilisateur doit garder l’existence de ces biais en considération lors de ses requêtes.

Ces différents éléments sont impératifs à prendre en compte pour l’utilisation de ces outils d’IA. Il est donc nécessaire, pour les utilisateurs, de se former à ces outils. Nous devons, en tant qu’universitaires, en tant que chercheurs, en tant qu’enseignants, nous familiariser avec ces outils, afin de les comprendre, d’en connaître les limites techniques et éthiques, mais aussi afin de bien transmettre à nos étudiants ces usages. Si l’utilisation des bases de données est largement intuitive, l’utilisation des IA génératives paraît demander davantage de connaissances. Une telle formation à ces outils doit en outre être renouvelée avec les évolutions technologiques, et une partie de ces développements sera certainement obsolète d’ici une durée plus ou moins courte.

III. L’usage des IA dans l’enseignement du droit : un outil auxiliaire

Si l’IA est un outil limité, c’est aujourd’hui un outil commun, de telle sorte qu’il peut devenir un auxiliaire tant des étudiants (A) que des enseignants-chercheurs (B).

A. Un outil auxiliaire de l’étudiant

Pour l’étudiant, la tentation est grande d’utiliser les IA génératives pour directement générer un travail à rendre, mais les sanctions auxquelles il s’expose sont importantes, puisque c’est généralement considéré comme de la fraude aux examens. Cela ne doit pourtant pas dire qu’il est impossible d’utiliser l’IA pour travailler, mais il est nécessaire de le faire comme une aide, et non comme un rédacteur de première main. L’outil peut servir pour alimenter la réflexion, mais pas pour faire la réflexion, pour au moins deux raisons. La première est qu’aujourd’hui, ces modèles d’IA ne donnent pas des résultats satisfaisants pour faire les exercices juridiques. La deuxième est que le but des exercices juridiques n’est pas tant de donner une « bonne réponse », mais bien d’apprendre à formuler une réponse pour apprendre à raisonner en droit. Pour le dire autrement, ce n’est pas parce que les abécédaires existent qu’il n’est pas nécessaire de connaître l’alphabet.

Il est également possible, dans une certaine mesure au moins, de demander aux outils d’IA de reformuler certains aspects des cours, mais également de fournir des exemples concrets d’illustration des notions mises en œuvre. L’IA peut encore aider à l’apprentissage en fournissant des questions d’entraînement, éventuellement sous la forme de QCM. Il est alors possible de s’entraîner seul pour acquérir les notions et la maîtrise de leur mobilisation.

B. Un outil auxiliaire de l’enseignant-chercheur

Parmi les usages possibles de l’IA, et en écartant les usages non éthiques qui consisteraient à faire corriger des copies par ChatGPT et autres, plusieurs se dégagent. Certains sont liés à l’enseignement (1), d’autres à la recherche (2), d’autres encore aux aspects de gestion administrative (3).

1. Un outil auxiliaire pour l’enseignant

L’enseignant est peut-être confronté aux IA génératives de la pire des manières : à travers la triche qu’elles peuvent engendrer lors des travaux évalués. Comme le gendarme de Saint-Tropez traque le nudiste, l’enseignant se met à traquer les textes rédigés par IA, et en vient parfois à un rejet épidermique de ces outils. Pourtant, comme tout outil nouveau, il faut savoir en tirer parti à sa juste valeur, en comptant que comme ces IA évoluent très rapidement, certains usages insoupçonnés pourraient apparaître.

Écartons d’emblée l’usage le plus tentant et le moins éthique, qui est celui de faire corriger des copies par les IA. C’est aujourd’hui possible, même pour des copies manuscrites, mais cela pose un évident problème moral quant à l’évaluation, surtout en droit. Le deuxième usage assez discutable sur le plan éthique serait de faire générer nos cours par ces outils. Indéniablement, ils peuvent permettre d’avoir des pistes, mais le choix de ce qui doit être transmis en cours magistraux, et de comment le transmettre, doit revenir aux enseignants eux-mêmes, sous peine d’omettre les mises à jour nécessaires des connaissances.

En revanche, l’IA peut constituer un outil d’aide à l’amélioration de certaines séquences pédagogiques, sur plusieurs niveaux. Elle peut ainsi permettre de générer automatiquement des diapositives, ou le contenu de diapositives, comme support du cours, ce qui constitue un certain gain de temps. Cela ne signifie évidemment pas qu’il faut reprendre in extenso le contenu généré, mais il est largement possible de s’en inspirer, de le reprendre et de le compléter. Elle peut également permettre de fournir des questions d’entraînement pour vérifier la compréhension des étudiants, à poster par exemple sur les plateformes de cours en ligne, et avec une réponse type vérifiée par l’enseignant. On peut faire de même avec la génération de questions de QCM pour tester les étudiants en début de séance sur les séances précédentes. Il est impératif de contrôler ce qui est produit, mais cela demeure un gain de temps considérable. Concernant l’évaluation enfin, il est possible d’utiliser les IA pour générer des questions de cours ou de QCM. À l’évidence, tout ce qui est proposé ne sera pas nécessairement pertinent. C’est en revanche, a minima, une source d’inspiration intéressante.

Puisque nous savons que les étudiants utilisent les IA, et que ces IA peuvent proposer des réponses pertinentes à certains exercices juridiques, il nous faut probablement réinterroger nos attentes et nos modes d’évaluation. À plus ou moins court termes, les exercices standard de TD sont condamnés, sauf à courir le risque de l’usage non éthique des IA. Certes, il est déjà possible d’acheter des copies sur internet, ou de prendre des cours de soutien pour faire faire ces travaux, mais l’échelle n’est pas la même. Bien que les IA génératives peinent encore à fournir des réponses satisfaisantes dans toutes les matières, elles risquent de réussir d’ici quelques mois ou quelques années. C’est alors une modification d’ampleur de notre conception des études de droit qui doit prendre place, en revoyant le modèle des travaux dirigés ou, du moins, des exercices à faire à la maison pour le contrôle continue. Cela peut également être l’occasion d’une réflexion plus poussée sur la pertinence des exercices juridiques classiques que sont le commentaire d’arrêt, la dissertation et le cas pratique. S’il est difficile de demander aux étudiants de faire des dissertations sans y avoir été formés et sans avoir expérimenté eux-mêmes l’exercice, il est bien plus aisé de procéder de la sorte par des cas pratiques. On peut aussi admettre que les TD sont l’occasion d’avoir un retour non noté sur un travail, ce qui diminue l’intérêt d’utiliser l’IA.

Pour autant, il serait insensé de former des juristes ne sachant pas se servir des IA, mais il faut transmettre un usage critique de cet outil. La formation doit être générale et spécifique. Générale, en ce qu’il est nécessaire que les étudiants sachent comment fonctionne grosso modo ces outils, afin de comprendre ce qu’ils sont et ce qu’ils ne sont pas. De la même manière qu’il existe des formations aux bases de données juridiques, ou éventuellement à Zotero, il semble nécessaire de mettre ne place des formations générales et ouvertes, jusqu’à ce que l’enseignement secondaire prennent cette charge. Ce n’est évidemment pas aux juristes de s’occuper de ces formations, mais c’est aux juristes de facilité leur mise en place dans nos cursus. La formation doit aussi être spécifique, afin de montrer la manière spécifique d’utiliser ou de ne pas utiliser les IA dans le domaine juridique. Cela inclut évidemment les question « juridico-juridique » du droit de l’IA, mais cela inclut aussi, et surtout, une application spécifique de ces outils dans la rédaction ou dans la recherche documentaire, voire dans la manière de médiatiser une jurisprudence ou un article pour passer du texte à la norme. De telles formations ne doivent évidemment pas se faire au détriment du fond de nos enseignements. Elles peuvent se faire de manière collectives dans les BU. Elles doivent également inclure des éléments sur les coûts en ressource de l’entraînement et de l’utilisation de ces outils, notamment par rapport à la consommation d’une recherche internet « classique ». On peut également intégrer l’IA à nos évaluations, par exemple en demandant aux étudiants l’analyse d’une réponse faite par IA. Il est également possible de modifier nos attentes, notamment en privilégiant les compétences d’analyse des énoncés normatifs pour déterminer les normes, par exemple en posant des questions sur des dispositions fictives, afin de bien réfléchir à la manière dont elles pourraientfonctionner, notamment par rapport aux dispositions effectivement en vigueur. Les formats oraux sont aussi peut-être les plus à même de minimiser les influences des IA, mais encore faut-il que de tels exercices soient matériellement possibles à mettre en œuvre, on voit mal comment faire passer 350 étudiants à l’oral en étant seul.

2. Un outil auxiliaire pour le chercheur

L’IA est également un outil pour le chercheur. Ce n’est pas l’objet des présents développements, mais il est possible de les évoquer rapidement. Si le chercheur a besoin de faire des entretiens, l’IA peut être utilisée pour les transcrire, voire les analyser. Elle peut également être utilisée comme une aide rédactionnelle, éventuellement pour des corrections de forme ou de fond. Sur la forme, l’IA peut-être utilisée comme un outil de vérification orthographique, grammaticale et syntaxique. Toutefois, son rôle ne s’arrête pas là puisqu’elle peut être utilisée pour le fond, tant en termes de structure argumentative qu’en termes de connaissance du droit. Sur la connaissance du droit, l’IA n’est évidemment pas supérieure à l’humain, mais elle peut être utile comme outil de vérification ou de suggestion, afin de mettre à l’épreuve certains arguments. Plus largement, ces outils vont aussi pouvoir analyser l’agencement du texte et ses enchaînements logiques, afin de proposer d’éventuelles modifications.

L’IA peut également être utilisée pour agréger des sources bibliographiques si elle a accès à internet ou à certaines bases de données. Évidemment, tant que les bases de Dalloz, LexisNexis ou Lextenso ne sont pas accessibles à la même IA, la recherche ne sera pas exhaustive. Il demeure toutefois possible de chercher les bases librement accessibles, bien que certaines limitations techniques puissent exister. Par exemple, la plateforme HAL ne permet pas les outils d’IA de faire de recherches avec elle.

En ce qui concerne le cœur du travail du juriste, c’est-à-dire l’interprétation, les IA ne se montrent que de peu d’aide. En effet, elles ne sont pas spécialement entraînées sur ces tâches, et il faut reconnaître que la doctrine juridique elle-même n’a que peu tendance à mettre ces éléments en avant dans ces travaux. Il en résulte que les IA ne peuvent pas réellement permettre de déterminer si une norme est bien, ou n’est pas, la signification d’un énoncé déterminé. Elles peuvent pourtant servir de pistes de réflexion, à charge pour le chercheur de vérifier si la proposition de l’IA est correcte ou incorrecte.

Plus utile seront les IA génératives si le chercheur se lance dans un travail empirique, sur le droit ou la doctrine. En effet, une partie des tâches fastidieuses et répétitives de ce type d’étude peut être assisté par l’IA. Ainsi, Julien Bétaille a utilisé ChatGPT afin d’extraire les notes de bas de pages d’articles dont il a mesuré les citations pour son mémoire de HDR[17]. Il serait possible de procéder de même pour une analyse empirique du droit positif, et qui chercherait à comparer des argumentations entre des requêtes et des motivations de décisions, ou à aider à procéder à une analyse thématique de certaines décisions ou de certains énoncés juridiques.

Enfin, l’IA peut servir comme aide à la traduction. Certains modèles vont ainsi permettre de traduire, et de choisir différents termes en fonction du contexte. La traduction peut ainsi être faite dans les deux sens : soit pour comprendre un texte en langue étrangère, soit pour traduire un de ses textes dans une langue étrangère. Dans les deux cas, la traduction doit être vérifiée par un humain, et il apparaît délicat de se fonder sur une traduction IA pour comprendre – ou penser comprendre – un texte. Pour le dire autrement, utiliser l’IA pour comprendre un texte en allemand de Kelsen sans maîtriser l’allemand ne pourra pour l’instant que fournir des pistes de réflexion. Il n’en demeure pas moins que cela permet de faire un point sur un texte afin de voir, le cas échéant, s’il est pertinent d’investiguer davantage.

3. Un outil auxiliaire pour les tâches administratives

De plus en plus, l’enseignant-chercheur est aussi administrateur. Difficile de quantifier exactement ces tâches, de les dénombrer, mais force est de constater qu’elles viennent prendre une part plus ou moins importante de notre activité. Nous exerçons en effet des fonctions de coordination pédagogique, de responsabilité de diplômes ou de participation à des instances de gouvernance. L’IA n’est pas une solution miracle pour simplifier ces tâches, mais elle peut avoir quelques utilisations.

Puisque les IA sont avant tout des outils rédactionnels, c’est dans ce domaine que leur usage se retrouve. Il est ainsi possible de rédiger différents courriels, en facilitant les premiers jets – on considérera peu éthiques les réponses rédigées entièrement par IA. Certains outils vont également pouvoir retranscrire des réunions, et en fournir une analyse synthétique pour faire un compte rendu, avec une reconnaissance des différents intervenants. Il est également possible d’utiliser les IA pour traduire certains documents. Enfin, un prompt bien rédigé peut permettre de générer des formulaires ou des questionnaires pour des évaluations internes ou des inscriptions.

Concernant la rédaction toujours, les IA génératives peuvent rédiger ou améliorer les documents officiels, notamment – mais pas uniquement – par une correction orthographique et des suggestions d’améliorations de fond ou de forme. Il peut aussi aider à structurer des dossiers, ou bien réécrire ou simplifier certains documents, notamment à destination des étudiants.

Les IA génératives sont aussi des outils largement axés sur l’analyse de données. Il est ainsi possible de leur demander l’analyse de différents jeux de données, chiffrées ou écrites. Par exemple, si je demande un retour écrit à mes étudiants sur mes cours, une IA générative pourra traiter très rapidement de telles données, et m’en fournir les points saillants.

Il faut toutefois garder à l’esprit que les données envoyées à ces outils transitent généralement sur des serveurs étrangers – mais pas nécessairement puisqu’il est possible de faire tourner des LLM de manière locale. Il faut donc être vigilant à propos des données utilisées dans les prompts, notamment les données personnelles qui pourraient être incluses, puisque ces données peuvent en plus être utilisées comme base d’apprentissage pour le modèle, notamment en ce qui concerne ChatGPT.

On le voit, l’IA est un outil, au même titre que l’imprimerie, le stylo bille ou internet. Ce n’est pas intrinsèquement un bon ou un mauvais outil, mais c’est indéniablement un outil révolutionnaire. Il ne faut pas rater le train de l’utilisation de l’IA, mais il ne faut pas non plus se méprendre et penser que l’outil bouleverse l’intégralité de nos manières de procéder ; comme en tout, les modifications seront graduelles, et plus ou moins rapides. Il est impératif que nous ayons connaissance de ces outils, afin de pouvoir les utiliser correctement, sans rester à l’écart, mais aussi afin de transmettre à nos étudiants le meilleur moyen de les utiliser.


[1]     Par ex. J. Rivero, « Réflexions sur l’enseignement du droit », in Mélanges offerts à M. le Doyen Louis Trotabas, LGDJ, 1970, pp. 447‑458.

[2]     S. Sydoryk, « ChatGPT a la faculté de droit : le spectre conjure d’une triche massive », Le Blog Droit Administratif [en ligne], 22 février 2023, et en réponse Fr. Curan, « Discussion sur Chat GPT à l’Université », Le Blog Droit Administratif, [en ligne], 28 février 2023.

[3]     S. Damarey, « L’intelligence artificielle au sein des facultés de droit… Libre propos », AJDA, 2025, p. 681.

[4]     N. Molfessis, « ChatGPT peut-il me remplacer ? », JCPG, 2023, no 3, act. 81, p. 133.

[5]     P. Adam, « La chute », Droit social, 2025, p. 473.

[6]     Cette traduction de l’anglais generative AI est en fait impropre, il faudrait plutôt parler d’IA génératrices, mais l’usage s’est déjà imposé.

[7]     J. Rivero, op. cit., p. 450.

[8]     Idem, p. 451.

[9]     Idem, p. 450.

[10]    « Définir le droit – 1 », Droits, 1989, no 10, 187 pages et « Définir le droit – 2 », Droits, 1990, no 11, 183 pages. Dans ces deux numéros de la revue, il a été demandé à plusieurs professeurs agrégés de droit de définir le droit. Les réponses étaient divergentes, certains refusant même la possibilité d’une définition.

[11]    B. Dondero, « Pour un droit plus systématique : vers la fin des notes de jurisprudence ? », D., 2020, pp. 292-298, et en réponse, Fr. Rouvière, « La fin du commentaire d’arrêt », RDT civ., 2020, pp. 489-491.

[12]    « If students can provide satisfactory answers to your questions by using an AI text generator, then you are asking superficial questions. » : B. L. Frye, « Should Using an AI Text Generator to Produce Academic Writing Be Plagiarism? », Fordham Intellectual Property, Media & Entertainment Law Journal, 2023, no 33, pp. 947-969. Disponible sur <https://ssrn.com/abstract=4292283>. À noter que la citation n’apparaît que dans l’abstract en ligne, et non pas dans l’abstract de la version publiée.

[13]    Les développements suivants sont le fait d’un juriste non spécialiste de ces questions, qui plus est écrits dans un domaine en évolution permanente et très rapide. Malgré les relectures éclairantes de « Ben », que je remercie, ils demeurent quelques approximations nécessaires à l’exposition de ce domaines à des profanes.

[14]    Pour une explication plus détaillée, et des réflexions sur les implications juridiques, voir C. Bordère, La justice algorithmique : Analyse comparée (France/Québec) d’un phénomène doctrinal, Dalloz, 2025, 1176 pages, spéc. pp. 22-23.

[15]    Le mécanisme précis est incertain, il peut s’agir de l’entraînement principal, d’une deuxième IA filtrant les réponses du modèle, ou plus simplement à une dernière couche qui filtre une liste de mots, dont « Tian’anmen ».

[16]    J. Searle, « Minds, Brains and Programs », Behavioral and Brain Sciences, 1980, no 3pp. 417–457.

[17]    J. Bétaille, Réflexions épistémologiques sur la connaissance du droit de l’environnement. De la dogmatique juridique à l’empirisme méthodologique, Toulouse, soutenu le 31 décembre 2025, p. 204.

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.