Levantamento inédito da Transparência Brasil mostra que a maioria das ferramentas de Inteligência Artificial usadas atualmente por órgãos públicos federais envolve tomadas de decisões – ou seja, têm potencial de interferir diretamente em direitos fundamentais. Dos 44 programas catalogados pela ONG, 64% produzem uma decisão de forma autônoma ou oferecem informações que servem de apoio para uma tomada de decisão.
Segundo o estudo lançado durante webinar no último 10.fev.2021, esse tipo de ferramenta pode reproduzir ou mesmo aprofundar desigualdades. Segundo Juliana Sakai, diretora de operações da Transparência Brasil, é uma possibilidade inclusive em soluções que parecem simples: “chatbots para atendimento a cidadãos, por exemplo, podem excluir pessoas que não usem linguagem formal ao escrever, ou que não tenham domínio da tecnologia e comprometer o acesso a direitos como a saúde”.
O risco do uso de Inteligência Artificial em segurança pública é destacado na pesquisa como uma questão central. De acordo com o documento, algumas ferramentas usadas por órgãos públicos brasileiros no apoio a investigações têm alta probabilidade de gerar falsas identificações positivas entre pessoas negras e indígenas. “Sabe-se que ferramentas de reconhecimento facial apresentam sérios resultados de discriminação algorítmica, já que são treinados em menor quantidade em populações negras e indígenas, e consequentemente erram em maior proporção junto a esses grupos que justamente já são alvos de racismo”, explica Sakai.
A pesquisa da Transparência Brasil apresenta recomendações para o uso responsável de ferramentas de Inteligência Artificial pelo poder público. Uma delas é justamente o uso de bases de dados representativas e adequadas para o contexto em que a tecnologia será usada: “Durante a coleta é importante verificar se os dados escolhidos para o conjunto de treinamento do modelo representam bem todos os grupos e populações que serão afetadas por ele ou ainda, se contêm alguma discriminação na sua criação que pode vir a reproduzir e intensificar algum tratamento ou padrão discriminatório”.
Outra recomendação é que os órgãos públicos devem dar transparência ao uso de algoritmos e de ferramentas, especialmente quando têm potencial de impactar direitos. “É preciso garantir acesso a informações públicas relativas aos algoritmos usados pelo setor público”, defende Sakai. De acordo com ela, quando não for possível adotar soluções de código aberto (ou seja, com uma estrutura pública que todos podem ver como funciona ou mesmo copiar), o poder público deve informar quais são os bancos de dados de dados usados para alimentar a ferramenta, quais são os resultados possíveis entregues por ela e o tipo de algoritmo usado.
Os órgãos públicos devem também garantir formas pelas quais os cidadãos possam entender como o algoritmo que está sendo usado por eles funciona, de que maneira uma decisão foi tomada, quais dados são usados. A Transparência Brasil endossa a sugestão do IDEC (Instituto Brasileiro de Defesa do Consumidor) para que os órgãos públicos elaborem e divulguem um Relatório de Impacto Algorítmico antes de colocar uma ferramenta em uso. É importante ainda, que haja testes periódicos com a devida publicação dos resultados para acompanhar o ciclo de vida da ferramenta e possibilitar correções e melhorias no seu funcionamento.