Le mois dernier, un lundi après-midi, je me retrouvais en train de faire une démonstration de Juro (notre logiciel de gestion de contrats). Notre équipe de vente étant occupée, je pensais que ce serait amusant. Nous vendons à des juristes et il y avait cette personne qui était avocate générale adjointe dans une moyenne entreprise. Je passais en revue les messages importants que nous utilisons habituellement pour encadrer ces réunions, puis, avant de me lancer rapidement dans le vif du sujet, je demandais s’ils avaient des questions.

« Ouais, merci Richard. Pourriez-vous me dire, est-ce que ça inclut l’IA ? »

Déroutant. Je ne suis pas sûr que l’IA soit quelque chose que l’on « inclut », mais peu importe : « Oui, nous avons des modèles d’apprentissage automatique dans le produit, mais est-ce que je peux vous demander pourquoi ? Qu’essayez-vous de faire ? »

« Je n’en suis pas certain, j’ai juste besoin de savoir si ça inclut l’IA. OK, c’est le cas. Est-ce que cela inclut la blockchain ? »

Inutile de dire que c’est une façon assez horrible de s’attaquer aux processus juridiques : faire passer la technologie en premier et les personnes en dernier. Cette approche, avec le battage médiatique à propos d’une technologie complètement déconnectée de ce dont les gens ont réellement besoin, est aussi inutile qu’elle est courante.

La vérité est que pour la plupart des gens, aborder le droit et les procédures judiciaires est stressant. Les particuliers et les entreprises font face à des problèmes juridiques à des moments clés : l’achat d’une maison, le dépôt d’une plainte devant un tribunal, l’embauche d’un nouvel employé, trouver de nouveaux clients. Mais au lieu d’être agréables, conviviaux et humains, ces processus sont souvent stressants, déroutants et effrayants.

Tout le monde déteste les juristes

Les juristes ne bénéficient pas toujours de la confiance de leurs clients ; je le dis en tant qu’ancien juriste. Une étude de Princeton a révélé qu’un citoyen moyen les note très bien pour leur compétence, mais médiocrement pour la confiance qu’ils inspirent et leur chaleur humaine. Les questions juridiques restent absconses et difficiles pour la plupart des gens. Et si la technologie est en train de transformer le secteur juridique à tous les niveaux (en particulier en ce qui concerne les applications de l’IA), elle n’a pas encore démontré une réelle capacité à donner aux gens une meilleure expérience du droit, au lieu de simplement rendre le travail plus efficace et plus rentable pour les grands cabinets juridiques.

Le secteur juridique a au moins commencé son parcours avec l’IA, avec des applications d’apprentissage automatique qui surgissent dans presque tout le flux de travail au sein des cabinets juridiques. L’examen des contrats a été la première catégorie à prendre de l’ampleur : les cabinets juridiques ont eu recours à la reconnaissance d’entité nommée ainsi qu’à la reconnaissance optique de caractères pour informer les clients du contenu de leurs contrats. D’autres applications d’IA traitent des tâches juridiques telles que la facturation, la gestion du temps, l’investigation numérique et la recherche juridique. Tout cela est encourageant, mais cela n’aide pas beaucoup les utilisateurs finaux.

Comment l’IA va façonner l’expérience du droit pour les gens

La bonne nouvelle est que l’IA, lorsqu’elle est intelligemment déployée, a le potentiel de modifier profondément l’expérience du droit pour les individus, en rendant les processus obscurs et impénétrables plus accessibles et plus humains pour tous.

Voici quatre facteurs à prendre en compte pour concrétiser cela.

1. Faites intervenir les chatbots

Joshua Browder a créé DoNotPay il y a quatre ans ; à l’origine, c’était une application permettant de contester les contraventions de stationnement. L’application s’est depuis développée pour inclure plus de 1 000 chatbots, attirant au passage l’investissement d’Andreesen Horowitz. DoNotPay utilise l’IA (qui repose sur les algorithmes de Watson, développés par IBM) pour générer automatiquement des documents contestant diverses infractions et amendes, permettant ainsi aux utilisateurs finaux de naviguer dans des processus juridiques stressants sur leur téléphone.

Mais alors que certains milieux encensaient DoNotPay, l’application se heurta à l’hostilité, voire même à des poursuites judiciaires de la part de certains. Les professions dans le secteur du droit sont réglementées, les juristes ayant besoin de qualifications reconnues pour entreprendre certaines « activités protégées », activités qui ne sont pas accessibles aux profanes, ne parlons même pas des algorithmes. Certains juristes ne veulent pas que les logiciels prennent le pas sur leurs royaumes secrets, ni sur leurs heures facturables.

Si l’IA doit réellement rendre l’expérience du droit plus humaine, cette attitude ne peut pas durer. Si un chatbot peut reproduire ce que vous faites de façon plus rapide, à moindre coût et en fournissant une meilleure expérience à l’utilisateur final, votre activité mérite-t-elle d’être « protégée » ? En tant que juriste, ne préféreriez-vous pas plutôt passer votre temps à ajouter de la valeur réelle ? Les chatbots aident déjà les gens pour ce qui concerne leurs opérations bancaires, leurs prêts, leurs achats et leurs services publics. Il n’y a aucune raison qu’il n’en aille pas de même pour le droit, avec l’IA offrant aux individus une expérience accessible, au moment où ils en ont besoin. Des innovateurs des universités de Stanford et Suffolk ont relevé ce défi ; ce n’est qu’une question de temps avant que les organismes de réglementation ne s’y mettent.

2. Des contrats que les machines peuvent lire

Fondamentalement, un contrat juridique n’est que l’expression écrite d’une relation : une série de promesses régissant la manière dont les deux parties se traitent. Les contrats devraient être une chose à saluer ; malheureusement, la plupart des gens les détestent. Les recherches de l’ IACCM ont montré que 83 % des personnes sont mécontentes des processus liés aux contrats. La signature, la numérisation, la publication et finalement la perte de documents rendent la conclusion de contrats fondamentalement peu conviviale et peu collaborative, nuisant d’emblée aux relations entre les personnes et les entreprises.

Ceci est en partie dû au format par défaut des contrats : des fichiers statiques sous forme de documents Word ou PDF. Ils sont constitués de données non structurées difficiles à rechercher ; des pistes d’audit d’activités sont perdues, ainsi que des historiques de négociation. Ce processus archaïque explique pourquoi un couple qui achète une maison peut obtenir un prêt en ligne via une fenêtre de discussion avec un courtier en ligne, mais lorsqu’il s’agit du contrat de vente lui-même, il est vraisemblable que ce couple recevra un document papier numérisé, sur trois colonnes, quasiment illisible et difficile à déchiffrer. Les logiciels de gestion des contrats ont encore du mal à surmonter ce problème, malgré les progrès de la technologie.

Mais si les contrats sont lisibles par les machines, ils peuvent être d’emblée collaboratifs et dynamiques. Les entreprises n’auraient pas à payer des cabinets juridiques pour connaître le contenu de leurs contrats, car ils seraient consultables. Si notre couple accédant à la propriété ne comprend pas les modifications apportées à l’acte de vente, il peut faire défiler l’historique des versions et faire des commentaires pour que ses juristes y répondent.

Mieux encore, les modèles d’apprentissage automatique peuvent commencer à comprendre les clauses problématiques qui déconcertent les lecteurs et les signaler lors de la rédaction, suggérant des alternatives en langage clair. Si la formulation d’une clause risque de plonger les lecteurs dans la plus profonde perplexité et de les obliger à dépenser plus d’argent pour que des juristes leur en expliquent les détails, l’IA peut identifier le problème au moment de la rédaction et le signaler aux auteurs. Si l’IA peut soutenir la résurgence d’un langage clair dans la rédaction, cela ne peut que contribuer à rendre le droit plus humain.

3. Prévoir (et décider de) l’avenir

Les capacités de prédiction de l’IA, en ce qui concerne les mégadonnées, pourraient être transformatrices à tous les niveaux du système juridique. Si elles peuvent aider les particuliers et les entreprises à détecter les risques pouvant découler d’un plan d’action donné, elles pourraient éviter de coûteux litiges avant même leur survenue. Si une question juridique est inévitable, l’analyse prédictive pourrait indiquer combien de temps cela va prendre et combien cela va coûter. Si l’on peut permettre aux gens de mieux comprendre les conséquences de leurs stratégies juridiques, cela pourrait les aider à éviter des résultats difficiles et stressants.

Certaines entreprises ont déjà commencé à utiliser des ensembles de données publics pour y parvenir. À New York, Premonition a compilé toutes les données accessibles au public qu’elle a pu trouver, et les a utilisées pour prévoir les taux de réussite pour un problème juridique donné devant chaque tribunal et juge. L’objectif est de guider les plaignants potentiels vers le tribunal où ils auront le plus de chances d’obtenir le meilleur résultat possible. Si l’on pouvait déterminer qu’un plaignant obtiendra gain de cause devant un tribunal donné, pourrait-on déterminer s’il pourrait obtenir gain de cause partout, et ce faisant, ne rendrait-on pas finalement un verdict prédictif via l’IA ?

Que ceci soit possible ou souhaitable est une question totalement différente, ce qui m’amène au point suivant.

4. Ne pas reproduire les préjugés du passé

Le recours à l’IA pour améliorer l’expérience du système judiciaire pour les personnes est également l’occasion de supprimer les préjugés de la justice. En théorie, les décisions algorithmiques devraient être exemptes des préjugés historiques qui affectent les minorités dans leurs interactions avec le système judiciaire ; l’IA devrait être totalement neutre en ce qui concerne des facteurs tels que l’origine ethnique, le sexe et l’orientation sexuelle. Mais les résultats obtenus jusqu’à présent brossent un tableau différent.

Les pouvoirs publics américains ont déjà commencé à utiliser l’IA pour faire le gros du travail dans les processus juridiques qui impliquent de grands volumes de calculs ; par exemple, attribuer des scores de risque aux personnes arrêtées, en termes de probabilité de récidive. Cependant, dans une étude de ProPublica, les chercheurs ont découvert que les scores générés par l’IA assignés à plus de 7 000 personnes en Floride étaient « remarquablement peu fiables » ; pour l’ensemble des personnes dont on pensait que leur récidive était probable, l’exactitude des prédictions était légèrement plus efficace qu’un pile ou face, à seulement 61%. Lorsque la vie et la liberté sont en jeu, cela ne suffit pas.

Pire encore, le système a exacerbé les disparités raciales au lieu de les supprimer : il attribuait environ deux fois plus de risques de récidive aux accusés noirs qu’aux accusés blancs. Ce biais est un risque majeur dans le développement du rôle de l’IA dans le domaine du droit. Les préjugés peuvent être surmontés, mais cela prendra beaucoup de travail ; ce serait un immense pas en arrière si nous introduisions les biais et les inégalités de processus juridiques obsolètes dans notre nouveau monde basé sur l’IA.

Le manque de visibilité dans la prise de décision est également un problème. Dans l’étude de ProPublica, il était impossible aux accusés de comprendre le raisonnement ayant mené à la décision : les algorithmes d’apprentissage automatique ne montrent pas leur fonctionnement, ce qui rend leurs décisions difficiles à contester. Un système judiciaire sain qui respecte l’État de droit est un système où la justice ne doit pas seulement être dite, elle doit également donner le sentiment qu’elle a été bien rendue ; les protagonistes doivent être capables de comprendre pourquoi une décision particulière a été rendue dans le cadre d’une procédure judiciaire donnée, sinon ils n’auront aucun repère pour les aider à éviter le conflit la prochaine fois. Si les modèles d’apprentissage automatique doivent devenir des protagonistes actifs dans les processus juridiques, leur raisonnement doit être transparent. Sinon, les risques juridiques deviennent encore moins conviviaux, au lieu d’être plus humains.

Moins d’artifice, plus d’intelligence

L’empiétement de l’IA dans toutes les procédures judiciaires (des accords commerciaux de grande valeur aux éléments courants du système judiciaire) semble impossible à arrêter. Bien qu’il soit possible d’utiliser le pouvoir transformateur de l’IA pour aboutir à un système juridique plus humain, cela n’est pas inévitable. Les entreprises de technologie, les distributeurs, les organismes de réglementation, les institutions publiques et les pédagogues devront déployer des efforts conscients et intelligents pour que les utilisateurs finaux restent au centre de nos préoccupations. L’IA peut certes rendre le droit plus humain, mais seulement si les humains l’y forcent.