No dia 5, a Comissão Temporária sobre Inteligência Artificial do Senado Federal aprovou o Substitutivo 199 ao PL, que, dentre outras alterações, excluiu da classificação como sistemas de IA de alto risco aqueles utilizados para "curadoria, difusão, recomendação e distribuição, em grande escala e de forma significativamente automatizada, de conteúdo" — direcionados às plataformas digitais.
Essa mudança foi justificada pela percepção de que a classificação anterior era excessivamente genérica, dificultando sua aplicação prática e comprometendo o equilíbrio regulatório proposto.
Durante a sessão deliberativa que aprovou o PL no Senado, o Relator Senador Eduardo Gomes rejeitou todas as novas emendas apresentadas. A única alteração no texto em relação ao Substitutivo 199 foi a revisão do artigo 45, proposta pelo Senador Esperidião Amim, que passou a conferir caráter autorizativo ao Poder Executivo para a criação do Sistema de Governança e Regulação sobre Inteligência Artificial (“SIA”), o qual será coordenado pela ANPD, para promover a cooperação entre autoridades setoriais e reguladores, sem hierarquia entre os órgãos envolvidos.
O PL possui abordagem baseada em risco (risk-based approach), a qual categoriza os sistemas de IA de acordo com o potencial de impacto que podem causar. Tal categorização é utilizada para determinar as obrigações e restrições aplicáveis a cada tipo de sistema.
Segundo a proposta, alguns usos de sistemas de IA podem ser classificados como de risco excessivo e, portanto, proibidos. Exemplos de sistemas de IA de risco excessivo são aqueles que explorem vulnerabilidades de indivíduos ou induzam comportamentos que causem danos à saúde e que possibilitem a produção, disseminação ou facilitem a criação de material que represente abuso ou exploração sexual de crianças e adolescentes.
Para os sistemas de alto risco, como, por exemplo, sistemas que sejam aplicados a dispositivos de segurança e gestão de infraestruturas críticas, além de sistemas de IA para recrutamento de candidatos para vagas de emprego, o PL visa mitigar os possíveis riscos, garantindo a transparência no funcionamento desses sistemas, a rastreabilidade das decisões automatizadas e a implementação de medidas de mitigação de impacto discriminatório.
O projeto de lei também reforça a proteção de direitos das pessoas afetadas pelos sistemas de IA, alinhado ao que já prevê a Lei Geral de Proteção de Dados – LGPD, propondo mecanismos como o direito à explicação sobre decisões automatizadas, o direito de contestar essas decisões e o direito à reparação em caso de danos causados pelo uso inadequado das tecnologias, prevendo penalidades que incluem multas de até R$ 50 milhões para agentes de IA infratores.