A Transparência Brasil, enquanto integrante da Coalizão Direitos na Rede, assinou uma nota pública que alerta para os retrocessos e indica caminhos para o aprimoramento do Projeto de Lei 2338/23, que pretende regular os sistemas de Inteligência Artificial (IA) no país. O texto será votado nesta terça-feira (3.dez.2024), na Comissão Temporária de Inteligência Artificial do Senado Federal.
Na nota, as mais de 50 organizações signatárias defendem que a aprovação do PL de IA é urgente, mas que retrocessos e novas ameaças ao texto podem tornar a lei inócua e limitada a poucos tipos de sistemas de IA.
Leia a íntegra da nota:
29 de novembro de 2024
Nota de posição de organizações da sociedade civil
A aprovação do Projeto de Lei nº 2338/23 (PL 2338/23) na Comissão Temporária sobre Inteligência Artificial (CTIA) e no Plenário do Senado Federal é urgente. Mas retrocessos e novas ameaças ao texto podem tornar a lei inócua e limitada a poucos tipos de sistemas de IA.
Foi apresentado na CTIA, no dia 28 de novembro, um novo relatório para o PL 2338/23, com a expectativa de que o projeto seja votado na Comissão no próximo dia 03 e no Plenário do Senado ainda em dezembro. Diante deste cenário, os signatários abaixo listados vêm pontuar que o texto do dia 28 é o mínimo necessário e, ainda, alertar para os riscos de retrocessos, ameaças e insuficiências no texto, indicando caminhos para seu aprimoramento.
É essencial que os sistemas de inteligência artificial sejam regulados para promover uma IA responsável, que proteja direitos e mitigue riscos à sociedade e a grupos minorizados. O PL 2338/23 traz dispositivos muito importantes que nos colocam em diálogo internacional do ponto de vista regulatório e tecnológico, como o estabelecimento de uma regulação baseada em riscos (com hipóteses exemplificativas de risco excessivo e alto) e correspondentes obrigações e medidas de governança; a instituição de direitos a pessoas afetadas pela tecnologia; a garantia de compromisso de tolerância zero contra IAs que criem ou disseminem conteúdo de abuso e exploração sexual infantojuvenil; a responsabilização dos agentes da cadeia; e a criação de uma estrutura fiscalizatória.
Todavia, os avanços podem ser seriamente comprometidos diante de recuos e ameaças ao texto. Entre os retrocessos, a última versão do relator Eduardo Gomes (PL-TO) abre exceções e flexibilizações à aplicação da Lei que podem fazer com que esta se torne inócua ou extremamente limitada, podendo ser aplicada apenas a um pequeno grupo de sistemas de IA. O novo relatório, em seu art. 1°, §1°, usa redações genéricas dos sistemas que não estariam sujeitos às obrigações da Lei, reduzindo significativamente o alcance das medidas listadas no projeto de lei.
Outra involução estrutural no novo texto (art. 12) foi tornar opcionais e não mais obrigatórias as avaliações preliminares para atribuição do grau de risco antes de um sistema entrar no mercado ou ser disponibilizado como serviço. As medidas de governança de sistemas de alto risco também foram flexibilizadas, como a adoção de medidas de mitigação e prevenção de vieses discriminatórios somente quando o risco à discriminação decorrer da aplicação do sistema de IA. Medidas de governança precisam ser obrigatórias, de acordo com o grau de risco.
A versão de 28 de novembro também trouxe retrocessos significativos em relação à participação social, tanto nos processos de prestação de contas dos agentes de IA como nas avaliações de impacto (art. 25, §8º) e no próprio funcionamento do Sistema Nacional de Governança e Regulação de IA (SIA). Para garantir sistemas de IA responsáveis e protetivos de direitos, é essencial o escrutínio público dos regulados e dos reguladores, por meio de participação pública.
Um retrocesso grave também foi notado no artigo sobre proteção aos trabalhadores. Foram retirados quatro incisos que tratam de temas fundamentais. Especialmente, foram excluídas regras que garantiam a “supervisão humana em decisões automatizadas de punições disciplinares e dispensa” e coibiam a “demissão em massa ou substituição extensiva da força de trabalho”. As mudanças acabam com mecanismos fundamentais para proteger trabalhadores dos efeitos negativos da introdução de sistemas de IA.
Um ponto central mantido pelo relatório do Senador Eduardo Gomes, mas que vem sendo objeto de ameaças diante dos fortes questionamentos por parte de empresas de tecnologia, plataformas digitais e de associações da indústria, é a possibilidade de atualização dos sistemas de alto risco, atualmente prevista, acertadamente, em hipóteses exemplificativas (art. 14 e 15). Esta possibilidade é fundamental para que a lei não nasça desatualizada, considerando o dinamismo do setor de IA. A explosão da IA generativa em menos de dois anos é apenas um dos exemplos de como este setor evolui rapidamente. Se a lista de sistemas de alto risco for taxativa e restrita àquela elencada hoje no texto, a sociedade brasileira ficará refém de riscos postos por quaisquer novos sistemas de IA não contemplados ali. A legislação precisa ser viva.
Outra ameaça diz respeito às regras sobre sistemas de IA utilizados por plataformas digitais para curadoria, difusão, recomendação e distribuição de conteúdos. Atualmente, estes modelos algorítmicos estão classificados como de alto risco, justamente pelo reconhecido impacto que podem ter sobre o comportamento humano, sobre o debate público e para a democracia, o que é importante para que as plataformas sejam obrigadas a adotar medidas de governança mais rígidas, especialmente ligadas à transparência e mitigação de riscos de violação de direitos. O inciso XIII do art. 14 precisa ser mantido.
Na mira do lobby empresarial estão também as regras para assegurar a proteção e compensação de titulares de direitos autorais cujos conteúdos são utilizados no treinamento de sistemas de IA. É fundamental manter os artigos que tratam dos conteúdos protegidos por direitos autorais e conexos, garantindo que os titulares desses direitos tenham conhecimento dos usos de suas obras para o treinamento de sistemas de inteligência artificial, por meio da transparência dos conteúdos utilizados, e também possam restringir este uso e tenham direito à expressa remuneração adequada por eventuais usos de suas obras.
Ainda, há uma vontade de flexibilização do compromisso irrestrito contra IAs que facilitem a circulação e produção de material de abuso e exploração sexual de crianças e adolescentes, atualmente consideradas como de risco excessivo (art. 13, inciso IV), buscando retroceder no texto e proibir, apenas, as ferramentas criadas com este propósito. A alteração significaria grande retrocesso, pois quaisquer ferramentas de geração de imagens por IA, para estarem disponíveis no mercado, devem contar com salvaguardas para impedir a produção de material abusivo por quaisquer usuários.
Para que o Projeto de Lei 2338/23 garanta a proteção de direitos e o estímulo à uma inovação de IA responsável, as organizações signatárias desta nota defendem os seguintes pontos:
Manutenções necessárias:
- Rol de alto risco e risco excessivo como exemplificativos com a definição de critérios e procedimentos de atualização (art. 15)
- Rol de direitos (Capítulo II)
- Sistemas de curadoria e recomendação de conteúdo no rol de alto risco (Art. 14, inciso XIII)
- Remuneração por uso de conteúdos protegidos por direitos autorais (Capítulo X, Seção IV)
- Medidas de governança obrigatórias (Capítulo IV)
Pontos de melhoria:
- Redução das exceções ao escopo de aplicação (art. 1º, §1º).
- Direito à revisão como aplicável a todo sistema de IA (art. 6º, III)
- Avaliação preliminar como obrigatória (art. 12)
- Desvinculação das alíneas do inciso I do art. 13 a um propósito (art. 13, I)
- Definir contornos precisos quanto ao risco relevante à integridade das pessoas (art. 14, VIII) e em relação ao conjunto de dados que podem ser acessados para identificação de padrões e perfis comportamentais (art. 14, IX)
- Garantia de participação social nas avaliações de impacto e no SIA (arts. 25, §8º) e de consulta pública prévia a normas infralegais (art. 49, versão anterior)
- Aumento das garantias trabalhistas (art. 58)
- Retomada dos direitos de informação prévia e de determinação e participação humana (art. 5º, incisos I e III).