No mês passado, dei por mim a fazer uma demonstração do Juro – o nosso produto para software de gestão de contratos – numa tarde de segunda-feira. A nossa equipa de vendas estava super ocupada e achei que iria ser divertido. Fazemos vendas para advogados, e esta pessoa era consultora geral assistente numa empresa de média dimensão. Falei de todas as coisas importantes que normalmente são referidas durante estas reuniões e, antes de começar a falar sobre o produto, perguntei se tinham alguma dúvida até ao momento.

“Sim, obrigado, Richard – podes dizer-se, isto faz IA?”

Fiquei confuso. Não sei se a IA é algo que se “faz,” mas independentemente disso: “Sim, temos modelos de aprendizagem automática no produto – mas posso perguntar porquê? O que está a tentar fazer?”

“Não tenho a certeza – só preciso de saber se faz IA. OK, sim. Faz blockchain? ”

Escusado será dizer que esta é uma maneira terrível de lidar com processos legais: colocar a tecnologia em primeiro lugar, e as pessoas em último. Esta abordagem, com a excitação em redor da tecnologia completamente desligada do que as pessoas realmente precisam, é tão inútil quanto comum.

A verdade é que, para a maioria das pessoas, lidar com a lei, e com processos legais, é um motivo de stress. Pessoas e empresas lidam com questões legais em momentos-chave: comprar casa, fazer uma reclamação em tribunal, contratar um novo funcionário, assinar com um novo cliente. Mas, em vez de serem atenciosos, amigáveis e humanos, estes processos costumam ser cheios de stress, confusos e assustadores.

Toda a gente odeia advogados

Os advogados nem sempre têm a confiança dos seus clientes – e digo isso como ex-advogado. Um estudo de Princeton descobriu que uma pessoa comum dá uma classificação alta à competência dos advogados, mas avalia de forma desfavorável a confiança e cordialidade. Assuntos legais permanecem obscuros e difíceis para a maioria das pessoas. E, embora a tecnologia certamente esteja a transformar o setor jurídico a todos os níveis – principalmente quando se trata de aplicações de IA – não atingiu o seu potencial de proporcionar às pessoas uma melhor experiência em direito. Em vez disso, tem-se limitado a tornar o trabalho mais eficiente e lucrativo para grandes empresas de advocacia.

O setor jurídico começou a sua jornada com a IA, com aplicações de aprendizagem automática a surgirem em quase todo o fluxo de trabalho dentro dos escritórios de advocacia. A revisão de contratos foi a primeira categoria a realmente avançar, com escritórios de advocacia a utilizar o reconhecimento por nome de entidade e caráter ótico para informar aos clientes sobre os seus contratos. Outras aplicações de IA abordaram tarefas legais como cobrança, gestão de tempo, e-discovery e pesquisa jurídica. Tudo isto é encorajador, mas não ajuda os utilizadores finais por ai além.

Como a IA irá moldar a experiência jurídica das pessoas

A boa notícia é que a IA, implementada com cuidado, tem o potencial de mudar profundamente a experiência de direito de pessoas reais, tornando os processos misteriosos e impenetráveis mais acessíveis e mais humanos para todos.

Aqui estão quatro fatores que devemos considerar para tornar isso uma realidade.

1. A chegada dos chatbots

Joshua Browder criou o DoNotPay há quatro anos, originalmente como uma aplicação para contestar multas de estacionamento. Desde então, foi expandida para incorporar mais de 1.000 chatbots, atraindo investimentos de Andreesen Horowitz ao longo do caminho. O DoNotPay utiliza a IA (suportada pelo Watson da IBM) para gerar automaticamente documentos para contestar várias infrações e multas, capacitando os utilizadores finais a navegar por processos legais stressantes a partir dos seus telefones.

Mas, enquanto o DoNotPay era comemorado em alguns círculos, noutros era recebido com hostilidade – até com ações judiciais. A lei é uma profissão regulamentada, com advogados que precisam de qualificações reconhecidas para realizar certas “atividades protegidas” – e essas atividades não são abertas a leigos, quanto mais a algoritmos. Alguns advogados não querem que o software tome conta dos seus reinos secretos, nem das suas horas faturáveis.

Se a IA for tornar a experiência do direito mais humana, esta atitude tem de desaparecer. Se um chatbot pode reproduzir o que fazemos de maneira mais rápida, barata e com uma experiência melhor para o utilizador final, a nossa atividade merece ser “protegida”? Como advogado, não preferias gastar o teu tempo agregando valor real? Os chatbots já ajudam as pessoas com os seus serviços bancários, hipotecas, compras e serviços públicos – não há razão para ser diferente com assuntos legais, com a IA a oferecer às pessoas uma experiência acessível, sempre que necessário. Os pioneiros em Stanford e Suffolk abraçaram esse desafio – é apenas uma questão de tempo até que os reguladores sigam este exemplo.

2. As máquinas de contratos conseguem ler

Na essência, um contrato legal é apenas a expressão escrita de um relacionamento: uma série de promessas para regular como duas partes se relacionam. Os contratos deviam ser algo para comemorar; infelizmente, a maioria das pessoas odeia-os. Pesquisas do IACCM mostraram que 83% das pessoas estão insatisfeitas com o processo do contrato. Assinar, digitalizar, pôr no correio e, finalmente, perder documentos, torna a contratação fundamentalmente hostil e pouco colaborativa, com o relacionamento entre pessoas e empresas a ser prejudicado desde o início.

Isto deve-se em parte ao formato padrão dos contratos – arquivos estáticos em documentos Word ou PDFs. São feitos de dados não estruturados e difíceis de pesquisar; o registo de auditoria da atividade é perdido, juntamente com os históricos de negociação. Este processo arcaico é o motivo pelo qual um casal que compra uma casa, pode organizar a hipoteca online numa janela de chat com um corretor digital, mas quando se trata do contrato de venda real, é provável que obtenham uma cópia de um documento digitalizado, com três colunas, quase ilegível para tentarem decifrar. O software de gestão de contratos ainda luta para superar este problema, apesar do quanto a tecnologia avançou.

Mas se os contratos são legíveis por uma máquina, eles podem ser colaborativos e dinâmicos desde o início. As empresas não terão de pagar a escritórios de advocacia para descobrir o que está nos seus contratos, porque estes serão pesquisáveis. Se o nosso casal de compradores de casas não entender as alterações nos seus documentos de transferência, eles podem voltar atrás ao histórico de versões e fazer comentários para que os seus advogados respondam.

Melhor ainda, em modelos de aprendizagem automática há a possibilidade de começar a identificar as cláusulas problemáticas que confundem os leitores, e de as sinalizar durante o processo de redação, sugerindo alternativas em linguagem corrente. Se é provável que a redação de uma cláusula faça com que os leitores cocem a cabeça e gastem mais dinheiro em advogados para explicá-la, a IA pode identificar o problema no rascunho e sinalizá-lo aos autores. Se a IA pode apoiar o ressurgimento da linguagem simples na redação, isto só pode ajudar a tornar o direito mais humano.

3. Prever (e decidir) o futuro

A capacidade preditiva da IA, em relação aos dados, pode ser transformadora em todos os níveis do sistema jurídico. Se puder ajudar pessoas e empresas a identificar riscos que possam surgir de uma determinada ação, poderão evitar litígios dispendiosos antes que surjam. Se um assunto jurídico for inevitável, a análise preditiva pode dizer quanto tempo levará e quanto custará. Se conseguirmos entender melhor as consequências das estratégias legais, isso pode ajudar a evitar resultados difíceis e que causem stress aos utilizadores finais.

Algumas empresas já começaram a utilizar conjuntos de dados públicos para fazer isto acontecer. Em Nova Iorque, a Premonition compilou todos os dados publicamente disponíveis e utilizou-os para prever taxas de vitórias para uma determinada questão legal perante cada tribunal e juiz. O objetivo é guiar os possíveis requerentes até ao local do evento, onde é provável que obtenham o melhor resultado. Se pudermos determinar se é provável que uma reclamação seja bem-sucedida num determinado tribunal, poderemos determinar se é bem-sucedida nalgum lugar – e, ao fazê-lo, não estamos efetivamente a dar um veredicto preditivo através da IA?

Se isto é possível ou desejável, é uma questão totalmente diferente – o que me leva ao próximo ponto.

4. Sem reproduzir os preconceitos do passado

O uso da IA para melhorar as experiências do sistema legal das pessoas também representa uma oportunidade para remover o preconceito da justiça. Em teoria, as decisões algorítmicas devem estar livres de preconceitos históricos que afetam as minorias nas suas interações com o sistema de justiça. A IA deve ser agnóstica quando se trata de fatores como a etnia, género e orientação sexual. Mas os resultados até agora mostram uma imagem diferente.

As autoridades públicas nos EUA já começaram a utilizar a IA para realizar trabalhos pesados em processos legais que envolvem grandes volumes de cálculos; por exemplo, atribuir pontuações de risco às pessoas presas, em termos da probabilidade de reincidência. No entanto, num estudo da ProPublica, os investigadores descobriram que as pontuações geradas pela IA atribuídas a mais de 7000 pessoas na Flórida eram “notavelmente não confiáveis,” em toda a gama de potenciais crimes, as previsões eram um pouco mais precisas do que o lançamento de uma moeda, com apenas 61%. Quando a vida e a liberdade estão em jogo, isso simplesmente não é bom o suficiente.

Pior, o sistema exacerbou as disparidades raciais, em vez de as remover: era duas vezes mais provável rotular os réus negros de criminosos do que os réus brancos. Esse preconceito é um risco-chave que acompanha a expansão do mandato da IA na área jurídica. O preconceito pode ser superado, mas será preciso trabalho; seria um grande retrocesso se trouxéssemos os preconceitos e as desigualdades dos processos legais antiquados para o novo mundo da IA.

A falta de visibilidade na tomada de decisões também é um problema. No estudo da ProPublica, era impossível para os réus entenderem o raciocínio por trás da pontuação: os algoritmos de aprendizagem automática não mostram o seu raciocino, o que dificulta o recurso das decisões. Um sistema de justiça saudável que respeite o estado de direito é aquele em que a justiça não é apenas feita, mas é vista enquanto é feita – os participantes devem ser capazes de entender por que uma decisão específica foi proferida num determinado processo legal, ou não têm orientação que os ajude a evitar a disputa da próxima vez. Para que os modelos de aprendizagem automática se tornem participantes ativos em processos legais, terá de haver transparência no seu raciocínio. Caso contrário, os riscos legais tornam-se ainda menos amigáveis, e não mais humanos.

Menos artifício, mais inteligência

A invasão da IA em todos os processos legais – desde acordos comerciais de alto valor até partes quotidianas do sistema judiciário – parece ser imparável. Mas a tradução do poder transformador da IA num sistema jurídico mais humano, embora possível, não é inevitável. Serão necessários esforços conscientes e inteligentes por parte de empresas de tecnologia, fornecedores, reguladores, instituições públicas e educadores para garantir que os utilizadores finais permanecem centrais no nosso foco. A IA certamente pode tornar o direito mais humano – mas apenas se os humanos realmente a forçarem a fazê-lo.