Câmeras de reconhecimento facial que identificam pessoas nas ruas e no metrô. Programas com machine learning que identificam casos com maior probabilidade de ter cometido corrupção. Algoritmos que sorteiam aleatoriamente ministros para distribuição de processos.
A maioria de nós certamente já ouviu a respeito do governo fazendo uso de inteligência artificial para implementar suas políticas e processos, mas sem entender bem se por trás do hype da tecnologia, a ferramenta seria eficaz ou não para atingir seus objetivos. Tampouco sabemos se esses algoritmos promovem ou acentuam injustiças sociais, e se representam algum tipo de ameaça à liberdade civil ou à privacidade de cidadãos.
A falta de entendimento a respeito do uso deste tipo de tecnologia não é a toa: falta transparência e regulamentação do governo sobre ela.
Entendendo a importância da questão, a Transparência Brasil iniciará em julho um projeto de monitoramento do uso de algoritmos pelo governo. Em parceria com a Northwestern University, que realiza um trabalho semelhante nos Estados Unidos, faremos um mapeamento do uso de inteligência artificial pelo governo para avaliar possíveis riscos que essas ferramentas representam a direitos e liberdades civis.
A partir deste diagnóstico, será possível elaborar recomendações para que o governo federal regulamente nacionalmente o uso de inteligência artificial de forma a respeitar os direitos humanos e não comprometer o espaço cívico.
Este projeto da Transparência Brasil foi escolhido pelo International Center of Not-for-Profit Law (ICNL) para um financiamento semente de seis meses, direcionado exclusivamente a participantes do Tech Camp for Civic Defenders – imersão em machine learning que ocorreu em fevereiro na Universidade de Stanford e da qual participou nossa diretora de operações, Juliana Sakai.