Veículos Autônomos: uma reflexão sobre riscos e responsabilidade
Autores
A chegada dos veículos autônomos está transformando a mobilidade, mas também levanta uma questão essencial: quem é o responsável em caso de acidente? O passageiro/consumidor, o sistema ou o fabricante?
A transição para veículos autônomos apresenta enorme potencial para segurança, eficiência e mobilidade no trânsito, um ambiente embora regulado, essencialmente humano e permeado de riscos e situações imprevisíveis e incontroláveis. No entanto, a questão da culpa em acidentes envolvendo esses veículos é profunda e multifacetada: pode recair sobre o passageiro/consumidor, sobre o sistema da máquina, sobre o fabricante e/ou desenvolvedor.
Os veículos autônomos utilizam sensores, algoritmos e inteligência artificial para dirigir com pouca ou nenhuma intervenção humana (esta, inclusive, é uma das marcas que diferenciam os níveis de automação propostos pela SAE International de 0 a 5). Apesar da velocidade e dinamismo do desenvolvimento tecnológico, a experiência legal e regulatória brasileira caminha a passos lentos.
Atualmente, não temos no Brasil qualquer parâmetro legal ou regulatório que oriente, por exemplo, as fases de testes, ou seja, se, como e quando poderão ser realizados testes em vias públicas. Imagine um acidente fatal durante os testes de um veículo autônomo, que contava com um condutor de segurança e controlador a distância, como determinar e delimitar a responsabilidade civil e penal dos envolvidos? O sistema legal vigente é suficiente para dar respostas satisfatórias?
Tanto o PL 2338/2023, que trata do uso da inteligência artificial no Brasil, quanto o PL 1317/2023, que regulamenta a utilização de veículos autônomos no Brasil, propõem regras de segurança, transparência e responsabilidade, mas nenhuma legislação definitiva foi ainda aprovada. O fato de não estarem aprovadas, contudo, nos oferece a oportunidade de debatê-las e aprimorá-las, especialmente no que toca a pouca maturidade com que os problemas de responsabilidade que envolvem a tecnologia são tratados no âmbito do PL1317/2023.
No plano do PL 2338/2023, os veículos autônomos se enquadram, de forma bastante natural, na categoria de sistemas de inteligência artificial de alto risco, conforme os parâmetros estabelecidos no texto. O projeto define que sistemas capazes de gerar impacto significativo sobre direitos fundamentais, especialmente aqueles que podem afetar a vida, a integridade física ou a segurança das pessoas, exigem um regime mais rigoroso de governança.
O art. 17, inciso VIII, do PL 2338/2023 reforça essa lógica ao prever medidas de controle e transparência para sistemas que operem em contextos sensíveis, sujeitos a riscos relevantes ou que realizem decisões críticas. O sistema toma decisões autônomas, ou seja, sem intervenção humana, em frações de segundo sobre aceleração, frenagem, mudança de faixa e respostas a emergências. Isso significa que, por exemplo, uma falha de programação ou um erro de leitura dos sensores pode resultar diretamente em danos graves e até mesmo fatais.
Ainda nesse contexto, contudo, nenhum dos PLs é capaz de dar respostas sobre o que define e como identificar um erro de programação, especialmente quando diante de problemas denominados Black Box, quando é impossível retroceder e interpretar o processo decisório do sistema. Seria o Black Box Problem um risco inerente? Ou seria ele o resultado de um defeito?
Problemas ainda mais delicados, nos parece, são as conhecidas situações dilemáticas, ou moral dilemas, que consistem em acidentes iminentes e inevitáveis em que qualquer decisão do sistema imporá a lesão de algum dos envolvidos. Ou seja, não se trata de um erro de programação ou defeito de funcionamento, mas uma decisão “consciente” do sistema em impor um dano a um dos envolvidos, ainda que para salvar o outro. Deve o sistema proteger sempre o passageiro/consumidor ainda que as custas da vida de um pedestre? Deve o sistema proteger sempre a comunidade ainda que as custas da vida do passageiro/consumidor? Quem responde por essa escolha? Esse resultado é imputável a algum agente humano? Qual?
Por essa razão, os carros autônomos são um dos exemplos mais emblemáticos de sistemas que devem ser tratados como alto risco. Entretanto, o que fundamenta a culpa dos envolvidos? Quem são os envolvidos passíveis de serem responsabilizados? Como se delimita a culpa de cada um? Como responsabilizar agentes humanos por decisões autônomas tomadas por algoritmos? Como garantir transparência e segurança sem parar a inovação?
A atribuição de responsabilidade, seja civil ou penal, devem considerar, entre outros critérios, o nível de automação, o funcionamento do sistema, condições de uso do veículo, a adequação da infraestrutura, os registros de telemetria e os contratos de uso. Ainda que o cenário legal e regulatório brasileiro ande a passos lentos, certo que o fabricante deve adotar as medidas ao seu alcance para que o veículo seja o mais seguro possível, adotando transparência, governança robusta, documentação clara, manutenção/monitoramento constante e diligente; os reguladores devem definir com clareza regras de teste, operação, seguro e responsabilidade; os passageiros (quando existirem) devem entender seus deveres e responsabilidades, além de serem suficientemente informados dos riscos a que estão submetidos.
Estes são alguns dos pontos fundamentais que possibilitam conciliar inovação e segurança, incentivando a adoção de veículos autônomos de forma responsável.
Para as montadoras, os veículos autônomos representam uma oportunidade tecnológica e comercial, capaz de mudar a sistemática do trânsito e torná-lo mais seguro, dado que retira da equação o fator humano, principal causa de acidentes. Por outro lado, também representa uma série de novos riscos jurídicos, reputacionais e financeiros significativos.
Como os algoritmos de direção automatizada tomam decisões críticas em tempo real, qualquer falha - seja de software, de sensores ou de integração entre sistemas - pode resultar em acidentes graves, colocando fabricantes sob possível responsabilidade. Por outro lado, acidentes ainda podem ser inevitáveis e resultado de decisões “conscientes” do sistema, algo totalmente novo para fabricantes, consumidores e operadores do Direito. Em um cenário em que a tecnologia ainda está amadurecendo, o risco regulatório e jurídico é, hoje, um dos maiores desafios estratégicos para a indústria automobilística.
Em resumo, os carros autônomos prometem reduzir acidentes e revolucionar o trânsito, mas também exigem um novo olhar jurídico. No Brasil, ainda falta clareza sobre quem responde por falhas e decisões autônomas da máquina. A tendência é que a responsabilidade seja compartilhada até que a tecnologia e a legislação amadureçam. O desafio é equilibrar inovação e segurança, construindo confiança pública nesse novo modelo de mobilidade inteligente.