O projeto Transparência Algorítmica, da Transparência Brasil, disponibiliza uma estrutura para avaliação dos riscos que ferramentas de Inteligência Artificial (IA) usadas pelo poder público podem representar a direitos fundamentais. O manual se soma aos outros resultados da iniciativa: o catálogo de ferramentas de Inteligência Artificial usadas no setor público federal e as recomendações de governança para o uso delas.
O documento indica quatro eixos de avaliação de riscos a serem aplicados antes da adoção definitiva de uma ferramenta de IA: aqueles ligados à natureza da ferramenta, os que envolvem discriminação algorítmica, os que comprometem a privacidade e os que abrem espaço para abusos autoritários. Recomenda, ainda, que seja feita uma avaliação de transparência da ferramenta. Ver post completo “Transparência Brasil publica roteiro para avaliação de riscos de ferramentas de Inteligência Artificial”