Comment l’IA entre dans les cabinets d’avocats : "Elle retire aux profils juniors toute pensée critique"
C'est une première alerte sur les dérives des outils automatisés que Me Koum Dissake, aujourd’hui avocate, n’a jamais oubliée. Surtout à l'heure de l'intelligence artificielle. "Alors que j'attendais une date de soutenance, j'ai reçu le 7 octobre 2015 un message de mon université m'indiquant que je ne pouvais soutenir ma thèse au motif que celle-ci présentait de nombreuses similitudes avec d'autres travaux... Un logiciel de détection de plagiat indiquait, dans un rapport d'analyse automatisé, que mon travail n'était pas le mien. En une fraction de seconde, j'ai eu l'impression que le ciel s'était effondré sur ma tête". Le taux de "similitude" avec d’autres travaux s’élevait à 59 %. Le doute ne profite pas à Vanessa Koum Dissake qui vise alors le titre de docteur en droit privé et sciences criminelles. Sa directrice de thèse, qui croit en ses capacités, la rattrape au moment où, humiliée, elle s’apprête à renoncer. Deux années passent. Elle réécrit trois fois sa thèse de 435 pages et le taux de "similitude" continue d'augmenter. "Ce rapport, soumis à mon école doctorale, n'avait malheureusement pas été analysé par un être humain. Si tel avait été le cas, il aurait compris que les similitudes dont il était question portaient sur mes propres travaux - lesquels avaient été précédemment publiés", raconte cette docteure en droit, aujourd'hui enseignante à l’université de Paris-VIII, avocate au barreau de Paris, qui a mis dix ans à digérer son histoire.
Pas rancunière mais désormais vigilante, Me Koum Dissake a depuis lancé son propre site, Legalsup. La plateforme combine une première phase de structuration numérique des données, suivie d’une analyse menée par des professionnels du droit (avocats, notaires ou commissaires de justice) afin de "remettre de l’humain derrière l’algorithme". "Dans une affaire qui ne nécessite pas la saisine d'une juridiction, l'IA est principalement utilisée pour la rédaction de contrats, et accessoirement pour la rédaction de consultations juridiques", indique-t-elle.
"L’IA nous permet d'aller plus vite sur des tâches rébarbatives comme une rédaction de transaction ou de contrat de travail", explique Justine Godey, avocate associée au cabinet La Garanderie Avocats, familière des outils de recherche automatisée depuis 2001. De son côté, Stéphanie Poussou, avocate of Counsel chez Capstan Avocats, souligne : "Nous avons développé une IA interne qui travaille directement avec notre base de données, mais dont l’accès est entièrement fermé pour des raisons de confidentialité et de sécurité. Cet outil nous fait clairement gagner du temps."
Reste des limites partagées par ces avocates : "dès qu’un mail quitte notre messagerie, il engage notre responsabilité, ce dont nous avons pleinement conscience", résume Me Poussou. Le contrôle des écrits – et de leur véracité – reste leur obsession. Ces avocates n'ont pas oublié les déboires de leur confrère américain Steven Schwartz. Ce dernier avait utilisé ChatGPT pour rédiger ses conclusions, lesquelles lui avaient indiqué des jurisprudences... qui n'existaient pas. Résultat : une condamnation et une carrière ruinée. Pourtant, "il est fréquent que l’IA produise des jurisprudences qui sont fausses", alerte Me Justine Godey. Me Stéphanie Poussou abonde : "il arrive qu’un confrère ou un ancien salarié attribue à une jurisprudence des propos qui ne sont pas les siens, ou que l’IA 'hallucine'. Nous devons alors déconstruire tout le raisonnement, ce qui nous fait perdre du temps pour corriger une erreur générée par l’IA elle-même !". Pour elle, une seule solution : "toute jurisprudence est systématiquement vérifiée, toute rédaction produite par un avocat du cabinet est relue et validée, et les dossiers sont contrôlés plusieurs fois avant d’être exploités ou communiqués".
"L'apprentissage passe par des tâches répétitives"
Il arrive aussi que certains clients plébiscitent l’usage de l’IA pour prédire l’issue d’un contentieux. Un danger pour Me Godey, car "les avocats connaissent les arguments qui portent leurs fruits devant telle ou telle juridiction, pas l’IA". Aussi performante soit-elle sur le plan technique, "l’IA n’a ni la culture juridique, ni l’intuition du contentieux, ni l’expérience humaine accumulée au contact de multiples clients et dossiers", complète Me Poussou. La finesse s’acquiert avec l’expérience. Qualifier juridiquement les demandes d’un client est leur métier. Tout un art.
Et les collaborateurs juniors ? Pour Me Godey, l’apprentissage passe d’abord par des tâches répétitives, "comme se plonger dans un contrat de travail pour voir ce qu’il engendre". "Malheureusement, quand l’IA est mal utilisée, elle retire aux étudiants toute pensée critique", prévient Me Koum Dissake. Plus optimiste, Me Poussou a peut-être la solution : "notre rôle est de les 'sénioriser' plus rapidement, en leur transmettant notre expérience des dossiers, en les accompagnant dans le développement de leur esprit critique". Transmettre. Apprendre. Retour aux fondamentaux.
