O uso de IA nos contratos comerciais
Autores
Durante algum tempo, a inteligência artificial (“IA”) foi tratada apenas como um acelerador de produtividade.
A IA generativa ajudava a redigir e-mails, revisar documentos, automatizar tarefas repetitivas e reduzir tempo de resposta. Atualmente, essa visão já ficou pequena e ultrapassada. A IA avançou rapidamente e tornou-se um componente operacional e decisório relevante nos fluxos internos das empresas.
No âmbito dos contratos comerciais, a IA deixou de ser mero instrumento e passou a atuar como elemento de regulação do contrato, influenciando a formação e/ou governando a execução da relação contratual.
O paradoxo é que, enquanto a IA se tornou uma ferramenta de decisões para as empresas, muitos contratos comerciais ainda são negociados como se a IA tivesse um uso periférico, sem impacto real sobre o desenho de responsabilidades no contrato.
O contrato é o meio pelo qual as partes regulam efeitos patrimoniais, alocam riscos e constroem previsibilidade. E a literatura sobre tecnologia tem insistido em um ponto: a era digital não alterou apenas a forma do contrato, que passou a ser assinado eletronicamente, mas a própria estrutura dos riscos envolvidos.
Focando na segunda dimensão mencionada, quando falamos sobre o uso de IA para formação e execução dos contratos comerciais, é possível distinguir duas frentes de utilização mais comuns. Por um lado, ela é ferramenta de apoio para redigir, revisar, negociar e mapear riscos contratuais. Por outro, ela é componente da própria execução, influenciando a performance e a tomada de decisão, desde recomendações automatizadas em plataformas até análises preditivas que direcionam rotas, estoques, preços e riscos.
Essa duplicidade, aliás, também é um modo útil de organizar o debate é distinguir duas situações. Na primeira, a IA atua durante a negociação, auxiliando ou conduzindo etapas funcionais à formação do contrato ou à determinação do objeto, o que pode ser chamado de negociação algorítmica. Na segunda, o algoritmo é desenhado para governar a execução e a gestão da relação contratual, automatizando cumprimento, monitoramento e gatilhos de performance, o que corresponde, em sentido mais estrito, aos comumente denominados smart contracts.
Em ambos os casos, o que está em jogo não é apenas eficiência: é a forma como os riscos são distribuídos e geram a falsa impressão de neutralidade.
A IA generativa, em particular, traz uma combinação de traços que pressiona o modelo tradicional do direito contratual: sistemas mais vulneráveis e abertos a interferências externas, frequentemente opacos, dotados de autonomia operacional, altamente complexos e, sobretudo, imprevisíveis nos resultados em escala.
Há um ponto técnico que ajuda a entender por que contratos que utilizam IA exigem uma governança diferente:
IA não é apenas automação.
Enquanto a automação tradicional é construída com alternativas previstas previamente (o clássico “se A, então B”), a IA rompe a previsibilidade entre programação inicial e resultados, porque aprende e toma decisões em ambientes complexos, com variáveis que mudam no tempo. A literatura que compara sistemas automatizados tradicionais e sistemas de IA é categórica: os primeiros são previsíveis; os segundos, quando inseridos em ambientes reais e complexos, não permitem antecipar com precisão todos os resultados.
Esse detalhe tem impacto direto na formação do contrato. Em contratações mediadas por IA, a declaração de vontade do titular do sistema não se resume ao momento em que uma proposta ou aceitação é emitida. A vontade se forma em dois momentos: primeiro, quando se decide usar o sistema e se definem objetivos e parâmetros; e depois, quando o sistema atua de forma automatizada em situações em constante mudança e gera propostas/aceitações que não guardam identidade perfeita com todos os planos iniciais do titular.
Daí surge a ideia de “declaração de vontade eletrônica”: uma forma de atribuir efeitos jurídicos à conduta do agente automatizado e de compreender em que medida essa atuação é imputável ao seu titular. O ponto não é reconhecer “vontade própria” da máquina, mas compreender como o direito lida com decisões delegadas e com a ruptura da linearidade entre intenção humana e resultado do processamento automatizado.
Esse enquadramento ajuda a explicar por que os limites da automação contratual não são meramente tecnológicos: são jurídicos. A IA consegue automatizar certas obrigações objetivas e repetitivas, mas tende a falhar justamente onde o direito exige julgamento: interpretação, contexto, boa-fé, circunstâncias supervenientes e equilíbrio do pacto. E é justamente aí que a IA generativa acelera o movimento de automação, mas também amplia a incerteza e o potencial de erro em escala.
Daí a conclusão prática que é extremamente útil contemporaneamente: contratos devem prever mecanismos técnicos de suspensão e reversão. Se o ordenamento preserva defesas inderrogáveis, uma cláusula automatizada que bloqueie a suspensão em hipóteses essenciais pode ser considerada nula -e, portanto, a tecnologia deve se adaptar às regras do Direito, e não o contrário.
Para contratos comerciais, isso se traduz em cláusulas e desenhos operacionais que estabeleçam:
Outro ponto essencial, especialmente em contratos empresariais complexos: automação e algoritmos não tornam o contrato “neutro”. Um equívoco recorrente alimentado por discursos mais tecnológicos é imaginar que o uso de IA reduzem assimetrias. Na prática, a IA pode na verdade consolidar modelos unilaterais, reduzir negociação real e converter a autonomia em formalidade, instalando uma peculiar “assimetria tecnológica”, com repercussões diretas na avaliação de justiça contratual e na integridade da autonomia privada. A proteção da vontade e a integridade da autonomia privada são relevantes justamente para evitar que o exercício da autonomia se reduza a uma simulação.
A popularização da IA generativa trouxe um risco específico: a sensação de que a tecnologia pode substituir o julgamento profissional. A IA produz textos plausíveis e sugere redações rapidamente. Mas ela não assume dever de diligência, não responde por decisões estratégicas e não compreende, por si, contexto comercial e regulatório. Um contrato não é apenas forma; é gestão de risco.
E existe um risco ainda mais sutil: a IA não apenas “cria textos”, ela replica padrões. Ao aprender com modelos contratuais e linguagem recorrente, tende a reproduzir cláusulas de prateleira que carregam vícios ocultos: limites de responsabilidade desproporcionais, renúncias silenciosas, lacunas de governança, conceitos importados de outros sistemas e inconsistências internas. Faz isso com aparência formal elevada e linguagem elegante em segundos. A IA pode “fazer parecer adequado” um texto que contém desequilíbrios ou fragilidades estratégicas, com linguagem sofisticada e aparência de padrão de mercado. Quando o jurídico diminui o nível de revisão por confiar na fluidez do resultado, a IA pode amplificar riscos e não mitigá-los. Muitos problemas contratuais são menos “erros textuais” e mais escolhas estratégicas: alocação de responsabilidade, governança de dados, auditoria, remediação e previsibilidade econômica.
E há um ponto final importante: não se trata de demonizar o uso de IA nos contratos. O uso de IA pode ser positivo quando amplia capacidade de cumprimento exato e pontual, reduz custos e melhora previsibilidade.
Mas isso só funciona quando o contrato preserva flexibilidade humana onde a lei exige e onde o próprio mercado exige: para corrigir injustiças, reagir a eventos críticos e proteger confiança.
Em resumo, o contrato comercial na era da IA precisa fazer três coisas ao mesmo tempo: habilitar inovação, proteger autonomia e governar opacidade.
Toda esta discussão pode parecer, à primeira vista, mais complexidade jurídica. Na prática, é o contrário. Contratos bem desenhados geram menos incidentes, menos litígios e mais previsibilidade e protegem dados estratégicos, preservam margem de negociação e reduzem custos ocultos decorrentes de disputas e falhas.
O objetivo não é eliminar incertezas. IA continuará probabilística. O objetivo é tornar o uso governável: risco alocado com transparência, controles compatíveis com a tecnologia e mecanismos de correção.