Na última segunda-feira (08.jul.2024), uma emenda ao PL 2338/2023 sugerida pela Transparência Brasil foi protocolada para análise na Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado. A proposta, apresentada pelo senador Alessandro Vieira (MDB-SE), busca garantir transparência sobre o uso de inteligência artificial no país. A CTIA adiou a votação do projeto que regulamenta a IA no Brasil pela terceira vez ontem (09.jul.2024).
A sugestão de emenda da TB visa incluir a criação e manutenção de uma base de informações de amplo acesso que contenha alguns tipos de dados sobre todos os sistemas de IA em uso pelo poder público, sem exceção. Para a organização, a divulgação de um rol mínimo de informações (como os dados usados para treinar cada ferramenta, o quanto a tecnologia interfere na tomada de decisões, as avaliações de risco realizadas etc.) é imprescindível para que haja fiscalização sobre o impacto das ferramentas na sociedade.
Em carta aberta publicada também em 08.jul, a TB e outras 47 organizações da sociedade civil defenderam a aprovação do texto básico atual do PL 2.338/2023. O documento encabeçado pela Coalizão Direitos na Rede afirma que o projeto está centrado na garantia de proteção aos direitos humanos em relação aos riscos do uso de IA, embora ainda precise de melhorias.
A carta das entidades também aponta que “a regulação dos sistemas de IA baseada em riscos/direitos permite a promoção da inovação responsável”, não havendo conflito entre os dispositivos do projeto de lei e o fomento do desenvolvimento econômico e tecnológico, como apontado por agentes opositores à aprovação da legislação.
Em 02.jul, a analista sênior de transparência da TB Bianca Berti representou a organização em audiência pública da CTIA, que debateu os usos de IA no país e os direitos dos cidadãos. Na audiência, Berti ressaltou que o projeto de lei avançou com as contribuições da sociedade civil e da Academia no sentido de defender direitos fundamentais frente ao avanço irrestrito das tecnologias. “É preciso garantir sempre, em primeiro lugar, a proteção das pessoas afetadas por decisões baseadas em algoritmos”, declarou Berti.