O Projeto de Lei n. 2.338/2023 (“PL de IA”), de autoria do Senador Eduardo Gomes (PL-TO), visa regular o uso e o desenvolvimento da Inteligência Artificial no Brasil. A Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA) elaborou a primeira versão do texto, que passou por diversas alterações no Senado durante 2024. Aprovado em 10 de dezembro, o projeto segue agora para análise na Câmara dos Deputados.
A nova versão do PL possui mudanças em relação ao texto anterior, conforme destacado a seguir. O texto será novamente votado na Câmara dos Deputados.
- Necessidade de avaliação preliminar: a avaliação preliminar de sistema de IA (na qual o agente realiza uma autoavaliação para determinar o nível de risco) tornou-se opcional antes do lançamento no mercado, permanecendo obrigatória apenas para sistemas generativos e de propósito geral. No entanto, realizar a autoavaliação pode beneficiar a empresa caso ela enfrente futuras sanções administrativas relacionadas à IA.
- Direitos autorais: os desenvolvedores de IA deverão divulgar os conteúdos protegidos por direitos autorais utilizados no desenvolvimento de seus sistemas. Além disso, o treinamento de sistemas de IA com obras protegidas por direitos autorais requer autorização prévia. E, quando obras forem utilizadas, o titular do conteúdo deverá ser remunerado. Ele também tem o direito de solicitar “opt-out”, impedindo que sua obra seja utilizada para treinamento de determinada base de IA.
- Risco excessivo: certos sistemas de IA são expressamente proibidos, como aqueles que empregam técnicas subliminares ou exploram vulnerabilidades de pessoas e grupos para induzir comportamentos prejudiciais à saúde e à segurança. O uso de câmeras para identificação de pessoas em tempo real em espaços públicos também é considerado de risco excessivo, sendo permitido somente em situações específicas.
- Alto risco: o texto apresenta uma lista não taxativa de IAs classificadas como de alto risco, às quais se aplica a maioria das obrigações previstas no PL. Entre os exemplos estão: veículos autônomos, seleção de estudantes para acesso à educação e progressão acadêmica, tomada de decisões sobre recrutamento, avaliação, promoção e demissão de trabalhadores, diagnósticos médicos e reconhecimento de emoções por identificação biométrica.
- Avaliação de impacto algorítmico: para sistemas de IA considerados de alto risco, será exigida uma avaliação que analise diversos aspectos, como os riscos aos direitos fundamentais, as medidas de transparência e mitigação, entre outros fatores. Os resultados dessas avaliações serão armazenados em um banco de dados público sob a gestão da autoridade competente.
- Identificador: conteúdos sintéticos — incluindo textos, imagens, vídeos e áudios gerados ou alterados por IA — deverão apresentar um identificador, passível de ser disponibilizado como metadados, a fim de permitir a verificação de sua autenticidade e origem. Os critérios para identificação e rotulagem desses materiais será objeto de regulamentação.
- Responsabilidade: a responsabilidade civil por danos causados por IA será regida pelo Código Civil ou pelo Código de Defesa do Consumidor, dependendo do caso. As penalidades incluem multa de até R$ 50 milhões ou 2% do faturamento bruto do grupo ou conglomerado por infração.