Desde os anos 90 havia um otimismo no campo da boa governança em torno da tecnologia. E, de fato, em perspectiva histórica, diferentes tecnologias permitiram avanços econômicos, políticos e sociais, de forma que o cenário que se avistava comporia mais um capítulo do desenvolvimento político-social. Novas tecnologias seriam propulsoras de inovação possibilitando a participação de camadas excluídas, dando finalmente voz a minorias e fortalecendo a qualidade da democracia liberal. Mais de vinte anos depois, a percepção sobre os usos de ferramentas tecnológicas não poderia ser mais diferente.
Uma das grandes preocupações está no uso de machine learning por movimentos autoritários em todo o mundo resultando no cerceamento de liberdades civis. Isto inclui perseguição à sociedade civil por meio de ferramentas de vigilância, como tecnologias de reconhecimento facial, ou por disseminação orquestrada de fake news.
A ausência regulatória no uso de ferramentas de machine learning foi um dos grandes temas do Tech Camp for Civic Space Defenders, imersão do International Center for Not-for-Profit Law e da Universidade de Stanford, realizado em fevereiro e que contou com a presença de organizações convidadas da sociedade civil de diferentes países, dentre elas a Transparência Brasil. O objetivo do evento era fortalecer a atuação de ONGs na sua luta de defesa do espaço cívico frente a ataques autoritários com uso de machine learning.
A discussão sobre a participação de empresas de tecnologia no processo de regulação levanta pontos opostos: se por um lado é fundamental que plataformas responsáveis pelos algoritmos sejam aliadas na defesa da democracia e de direitos, por outro, seria inocente esperar que grupos privados atuem para acabar com seu próprio modelo de negócios que venda grandes quantidades de dados comportamentais ou que privilegia a voz de extremistas por gerar mais engajamento.
A inércia das democracias ocidentais, que não impõem uma regulação às empresas de tecnologia para proibir que suas ferramentas continuem a ser usadas para minar direitos humanos, tem resultado na deterioração da própria democracia.
A grande preocupação é que diante desse vácuo regulatório, a China tem exercido grande influência com sua exportação em massa de tecnologia. E por ser um país autoritário, que monitora sua população por um sistema de crédito social, sua influência traz grandes riscos para a sociedade civil. A falta de uma estrutura de governança e transparência no emprego de tais ferramentas, somada ao desconhecimento técnico sobre algoritmos, resulta em uma ameaça para os direitos civis. No Brasil, o governo tem cada vez mais usado inteligência artificial com diferentes propósitos, que incluem desde a inibição da evasão escolar até identificação facial de suspeitos de crimes, e até hoje não existem informações nem sobre a extensão do uso destas tecnologias, nem dos algoritmos utilizados. Quando questionados, órgãos públicos se recusam a fornecer essas informações, ferindo a transparência pública e a prestação de contas com a sociedade. O STF, por exemplo, continua a negar acesso ao seu algoritmo de distribuição de processos. Tem-se então uma caixa-preta na tomada de decisões pelo poder público que só se faz maior.
A Transparência Brasil já tem trabalhado pelo que se chama transparência algorítmica. No Conselho de Transparência do Estado de São Paulo, exigimos a prestação de contas na implementação de sistemas de reconhecimento facial no metrô paulistano. A transparência algorítmica e o seu acompanhamento também serão temas da próxima International Conference of Information Commissioners, organizado pela Controladoria-Geral da União em parceria com a Transparência Brasil e a Artigo 19.
Acreditamos que as organizações da sociedade civil devam apresentar uma resposta rápida ao uso massivo de inteligência artificial de maneira a evitar injustiças e, ao mesmo tempo, garantir a eficiência que as tecnologias promovem.