El mes pasado, un lunes por la tarde, me tocó hacer una demostración de Juro (nuestro producto de software de gestión de contratos). Nuestro equipo de ventas estaba ocupado y pensé que sería divertido. Vendemos a abogados, y esta persona era un asesor jurídico general adjunto de una empresa de tamaño medio. Repasé los mensajes importantes que normalmente utilizamos para estructurar este tipo de reuniones, y después, antes de pasar al producto, pregunté si tenían alguna pregunta.

«Sí, gracias, Richard. ¿Puedes decirme si esto hace IA?».

¿Cómo? No estoy seguro de que la IA sea algo que se «haga», pero bueno: «Sí, tenemos modelos de aprendizaje automático en el producto, pero ¿puedo preguntarte por qué lo quieres saber? ¿Qué quieres hacer?».

«No estoy seguro. Solo quiero saber si hace IA. Vale, la hace. ¿Hace cadena de bloques?».

No hace falta decir que poner la tecnología por encima de las personas es una forma pésima de abordar los procesos jurídicos. Este enfoque, que hace mucho énfasis en la tecnología pero sin tener en cuenta lo que la gente realmente necesita, es tan inútil como común.

La realidad es que, para la mayoría de las personas, enfrentarse a todo lo que tiene ver con la legislación y los procesos jurídicos es estresante. Las personas y las empresas deben ocuparse de cuestiones jurídicas en momentos clave, como cuando compran una casa, presentan una reclamación ante un tribunal, contratan a un nuevo empleado o firman un contrato con un nuevo cliente. Pero estos procesos, en lugar de ser gratos, agradables y humanos, suelen ser estresantes, confusos y aterradores.

Todo el mundo odia a los abogados

Los abogados no siempre disfrutan de la confianza de sus clientes, y lo digo como exabogado. Según un estudio de Princeton , la mayor parte de la gente los valora mucho por su competencia, pero poco por su cercanía o la confianza que les merecen. Los asuntos jurídicos siguen siendo desconocidos y complicados para la mayoría de las personas. Y aunque es evidente que la tecnología está transformando el sector de los servicios jurídicos a todos los niveles (particularmente en lo que se refiere a las aplicaciones de la IA), aún no ha alcanzado su máximo potencial en cuanto a ofrecer a la gente una mejor experiencia, ya que por el momento solo hace que el trabajo de los grandes despachos de abogados sea más eficiente y rentable.

El sector de los servicios jurídicos ha comenzado a utilizar la IA, y el aprendizaje automático se ha aplicado a casi todo el flujo de trabajo de los despachos de abogados. La revisión de contratos, que consiste en utilizar el reconocimiento de entidades nombradas y el reconocimiento óptico de caracteres para explicar a los clientes el contenido de los contratos, fue la primera aplicación que comenzó a utilizarse con éxito por los despachos de abogados. Otras aplicaciones de la IA se han empleado para encargarse de tareas como la facturación, la gestión del tiempo, el descubrimiento electrónico y la investigación jurídica. Todo esto es prometedor, pero no resulta útil realmente para los usuarios finales.

Cómo influirá la IA en la experiencia de la gente a la hora de enfrentarse a asuntos jurídicos

La buena noticia es que la IA, cuando se aplica de forma meditada, tiene la capacidad de cambiar de una forma profunda la experiencia que tienen las personas reales cuando se enfrentan a cuestiones de índole legal al hacer que los procesos complejos y desconocidos sean más accesibles y humanos para todos.

Para poder lograr esto, debemos tener en cuenta estos cuatro factores.

1. Utilizar chatbots

Joshua Browder creó DoNotPay hace cuatro años, una aplicación diseñada originalmente para recurrir multas de aparcamiento. Desde entonces, se ha expandido hasta llegar a disponer de más de 1000 chatbots, y ha atraído la inversión de Andreesen Horowitz. DoNotPay utiliza IA (con el apoyo de Watson de IBM) para generar documentos de forma automática que permitan recurrir diversas multas e infracciones, lo cual permite a los usuarios finales gestionar procesos jurídicos estresantes desde sus teléfonos.

Pero aunque DoNotPay tuvo muy buena acogida en algunos círculos, en otros, se encontró con hostilidad e incluso con demandas judiciales. La abogacía es una profesión regulada, y los abogados necesitan una titulaciones homologadas para poder llevar a cabo ciertas «actividades protegidas», y esas actividades no las puede realizar cualquier otra persona, no digamos ya un algoritmo. Algunos abogados no quieren que el software se apodere de sus «reinos secretos» ni de sus horas facturables.

Si queremos que la IA haga más humana la experiencia a la hora de enfrentarnos a asuntos jurídicos, hay que dejar atrás esa actitud. Si un chatbot es capaz de reproducir lo que haces de una forma más rápida y barata y proporcionar una mejor experiencia al usuario final, ¿merece entonces la pena que tu actividad esté «protegida»? Como abogado, ¿no preferirías dedicar tu tiempo a añadir valor real? Los chatbots ya ayudan a la gente con sus hipotecas y compras, así como con actividades bancarias y de servicios públicos, así que no existe ningún motivo para que no puedan hacerlo con las cuestiones jurídicas. La IA puede ofrecer a la gente una experiencia accesible y adaptada a sus necesidades. Los pioneros de Stanford y Suffolk han aceptado este reto, así que solo es cuestión de tiempo que los reguladores también lo hagan.

2. Contratos que las máquinas puedan leer

En esencia, un contrato legal es solo la expresión escrita de una relación, una serie de promesas que rigen la forma en la que deben tratarse las dos partes. Los contratos deberían celebrarse, pero, por desgracia, la mayor parte de la gente los odia. Según una investigación del IACCM , el 83 % de las personas no están satisfechas con los procesos contractuales. La firma, el escaneo, el envío por correo y, en última instancia, la pérdida de documentos, hacen que el proceso sea poco colaborativo y no muy agradable, y que las relaciones entre las personas y las empresas se vean deterioradas desde el principio.

En parte, esto se debe al formato predeterminado de los contratos, que consiste en archivos estáticos en forma de documentos de Word o PDF. Están compuestos por datos no estructurados que resultan difíciles de buscar, lo cual conduce a la pérdida tanto de pistas de auditoría de actividad como de historiales de negociación. Este proceso arcaico es la razón por la cual una pareja que compra una casa puede gestionar la hipoteca a través de internet, mediante una conversación de chat con un agente digital, mientras que el contrato de venta real es probable que consista en un documento físico escaneado de tres columnas que resulte casi ilegible y sea muy difícil de descifrar. A pesar de todos los avances tecnológicos que se han producido, los software de gestión de contratos aún tratan de solucionar este problema.

Pero si los contratos se pueden leer mediante máquinas, pueden ser colaborativos y dinámicos desde el principio. Las empresas no tendrán que contratar los servicios de un despacho de abogados para averiguar lo que pone en los contratos, ya que podrán realizar búsquedas en los mismos. Si la pareja de compradores de vivienda que mencionamos anteriormente no entiende los cambios que se han hecho en los documentos de transmisión, pueden consultar el historial de versiones y hacer comentarios para que los abogados respondan.

Y lo que es aún mejor, los modelos de aprendizaje automático pueden comenzar a comprender las cláusulas problemáticas que desconciertan a los lectores, marcarlas durante la redacción y sugerir alternativas en un lenguaje sencillo. Si es probable que la redacción de una cláusula haga que los lectores se rasquen la cabeza y se gasten dinero en abogados para tratar de comprenderla, la IA puede detectar el problema en el borrador y marcarlo con los autores. El que la IA sea capaz de lograr que se utilice un lenguaje más sencillo en los borradores contribuirá a que los asuntos jurídicos se humanicen.

3. Predecir (y decidir) el futuro

La capacidad de predicción de la IA con respecto a los macrodatos podría tener un efecto positivo en todos los niveles del sistema jurídico. Si esto puede ayudar a las personas y a las empresas a detectar posibles riesgos que pueden derivarse de una determinada forma de actuar, podrían evitarse costosos litigios antes de que estos surgiesen. Si un asunto jurídico fuese inevitable, el análisis predictivo podría decirnos cuánto tiempo se emplearía en solucionarlo y cuánto dinero costaría. Si pudiésemos lograr que la gente entendiese mejor las consecuencias de sus estrategias jurídicas, podríamos evitar situaciones difíciles y estresantes a los usuarios finales.

Algunas empresas ya han comenzado a utilizar conjuntos de datos públicos para conseguirlo. En Nueva York, Premonition ha recopilado todos los datos públicos disponibles que ha podido encontrar y los ha utilizado para predecir el porcentaje de victorias con respecto a una determinada cuestión jurídica ante cada tribunal y juez. El objetivo es indicar a los posibles demandantes en qué lugar es más probable que logren el mejor resultado posible para su caso. Si fuésemos capaces de determinar si una demanda tiene una gran probabilidad de prosperar en una tribunal determinado, ¿podríamos también determinar la probabilidad que esta tendría de prosperar en cualquier lugar? Y al hacer esto, ¿no estaríamos emitiendo un veredicto predictivo mediante la IA?

Si esto es posible o deseable es otra cuestión totalmente diferente. Lo que me lleva al siguiente punto.

4. No reproducir los prejuicios del pasado

El uso de la IA para mejorar la experiencia de las personas en los procedimientos jurídicos también representa una oportunidad para eliminar los prejuicios de la justicia. En teoría, las decisiones algorítmicas no deberían incluir prejuicios históricos que afectasen a las minorías en sus interacciones con el sistema judicial. La IA debería ser agnóstica en lo que respecta a factores como el origen étnico, el género y la orientación sexual. Pero hasta ahora, los resultados ofrecen una imagen diferente.

Las autoridades públicas de Estados Unidos ya han comenzado a utilizar IA para llevar a cabo las tareas más pesadas de los procesos jurídicos, aquellas que implican que se hagan una gran cantidad de cálculos, como por ejemplo, la asignación de puntuaciones de riesgo a las personas arrestadas en términos de probabilidad de reincidencia. Sin embargo, en un estudio llevado a cabo por ProPublica, los investigadores constataron que las puntuaciones generadas por IA y asignadas a más de 7000 personas de Florida eran «muy poco fiables». En todo el rango de posibles delitos, las predicciones eran solo un poco más fiables que las que se obtendrían al lanzar una moneda al aire, ya que solo acertaban en el 61 % de los casos. Cuando la vida y la libertad están en juego, esto no es suficiente en absoluto.

Y lo que es peor aún, el sistema exacerbaba las desigualdades raciales en lugar de eliminarlas, ya que era el doble de probable que etiquetara a los acusados negros como criminales que a los blancos. Este sesgo representa un riesgo importante que acompaña a la expansión de las atribuciones de la IA en el ámbito jurídico. Los prejuicios pueden superarse, pero es necesario trabajar en ello. Daríamos un gran paso hacia atrás si introdujésemos los prejuicios y las desigualdades de procesos legales obsoletos en nuestro nuevo mundo, regido por la IA.

La falta de visibilidad en la toma de decisiones también supone un problema. En el estudio de ProPublica, era imposible para los acusados entender el razonamiento que sustentaba la puntuación, ya que los algoritmos de aprendizaje automático no muestran su funcionamiento, lo que hace que sus fallos sean difíciles de apelar. Un sistema de justicia saludable que respete el estado de derecho es aquel en el que no solo se hace justicia, sino en el que también se ve cómo se hace. Los participantes deben ser capaces de entender por qué se ha tomado una determinada decisión en un proceso jurídico específico, ya que, si no es así, no sabrán cómo evitar el litigio la próxima vez. Para que los modelos de aprendizaje automático puedan convertirse en participantes activos en los procesos jurídicos, debe haber transparencia en sus razonamientos. Si no es así, los riesgos jurídicos se vuelven aún más desagradables, en lugar de más humanos.

Menos artificio, más inteligencia

La introducción de la IA en todos los procesos jurídicos, desde acuerdos comerciales de alto valor hasta elementos cotidianos del sistema jurídico, parece imparable. Pero la traducción del poder transformador de la IA en un sistema jurídico más humano, aunque sea posible, no es inevitable. Será necesario que las empresas de tecnología, los proveedores, los reguladores, las instituciones públicas y los educadores hagan esfuerzos conscientes y meditados para garantizar que sigamos situando a los usuarios finales en el centro de nuestra estrategia. La IA es capaz de humanizar las cuestiones jurídicas, pero solo si la forzamos a ello.