A Comissão Temporária de Inteligência Artificial do Senado aprovou, nesta quinta-feira (5), o projeto de lei que regulamenta o uso de inteligência artificial (IA) no Brasil. Os parlamentares devem aprovar um requerimento de urgência, mas o texto deve ser votado na próxima terça-feira (10) no plenário da Casa.
O projeto é de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), que tem como prioridade concluir a votação ainda este ano, enquanto estiver na presidência da Casa. O relator, Eduardo Gomes (PL-TO), apresentou sete versões do parecer e modificou o texto de forma significativa.
O relatório prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), para supervisionar o uso da IA no país. Com ele, a Autoridade Nacional de Proteção de Dados (ANPD) coordenará a atuação das agências reguladoras em cada setor.
Uma das principais alterações foi a retirada da classificação de alto risco dos sistemas de IA utilizados pelas chamadas big techs para a produção, análise, recomendação e distribuição de conteúdo. O texto determina que a regulação de aspectos associados à circulação de conteúdo on-line e que possam afetar a liberdade de expressão, inclusive o uso de IA para moderação e recomendação de conteúdo, somente poderá ser feita por meio de legislação específica.
O relator acatou uma demanda da oposição para a retirada do risco à integridade da informação, liberdade de expressão, processo democrático e pluralismo político como critério para regulamentação.
Diferente do que previa o projeto de Pacheco, Gomes deu um caráter facultativo para as avaliações preliminares, antes de ir para o mercado, para novos sistemas de IA. Passa, então, a ser opcional essa análise, feita pelas próprias empresas com o objetivo de determinar o grau de risco dessas novas tecnologias. No parecer final, a obrigatoriedade se mantém apenas para os sistemas generativos.
Fica sob responsabilidade do SIA, regulamentar as inteligências artificiais de alto risco, mas foi retirado o trecho que previa a classificação por risco à integridade da informação, liberdade de expressão, processo democrático e pluralismo político, o que ainda poderia enquadrar as plataformas digitais.
– instigar ou induzir o comportamento da pessoa natural ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
– explorar quaisquer vulnerabilidades de pessoa natural ou de grupos com o objetivo ou o efeito de induzir o seu comportamento de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
– avaliar os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência;
– possibilitar a produção, disseminação ou facilitação da criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes;
– em sistemas de armas autônomas (SAA);
– em sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público.
A utilização da biometria fica permitida apenas para a captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Também há possibilidade, mediante decisão judicial, do uso para coletar provas em inquéritos policiais.
O texto ainda admite a possibilidade de as empresas desenvolvedoras de IA criarem uma associação autorreguladora privada.
– estabelecer critérios técnicos dos sistemas de IA aplicada, inclusive de padronização, prudenciais e de atuação concertada dos entes associados, desde que não impeçam o desenvolvimento tecnológico e em conformidade com esta Lei e as normas vinculantes do SIA;
– compartilhamento de experiências sobre o uso de IA, sendo vedado o compartilhamento de informações concorrencialmente sensíveis, nos termos da legislação pertinente;
– definição contextual de estruturas de governança previstas nesta Lei;
– critérios para provocar da autoridade competente e demais autoridades integrantes do SIA para o emprego de medida cautelar e canal de recebimento de informações relevantes sobre riscos do uso de IA por seus associados ou qualquer interessado;
– a adoção de padrões, melhores práticas e modelos de certificação reconhecidos internacionalmente.
Gomes manteve as sanções previstas no texto original de Pacheco. Caso as empresas não cumpram as normas, o projeto prevê suspensão parcial ou total das atividades, multa de até R$ 50 milhões ou 2% do faturamento, proibição de tratamento de determinadas bases de dados e proibição ou restrição para participar de sandbox regulatório por até cinco anos.
O projeto prevê a cobrança de direitos autorais por conteúdos utilizados para abastecer bancos de dados de sistemas de inteligência artificial. Segundo o projeto, as desenvolvedoras de IA terão que remunerar os autores pelo uso de suas obras.