Inteligência Artificial e ADPF das Favelas: como essas pautas se conectam?

Em junho de 2024, o Aqualtune Lab enviou contribuições à Comissão Temporária Interna sobre Inteligência Artificial (CTIA) para que a Regulamentação da IA não seja mais uma ferramenta de exclusão […]

Em junho de 2024, o Aqualtune Lab enviou contribuições à Comissão Temporária Interna sobre Inteligência Artificial (CTIA) para que a Regulamentação da IA não seja mais uma ferramenta de exclusão e controle de territórios onde a maioria é população negra.


As tecnologias não são neutras. Ferramentas digitais baseadas em inteligência artificial, quando empregadas pelo Estado na segurança Pública, então, tendem a reproduzir vieses racistas e práticas discriminatórias.  A ausência de regulação agrava esse cenário e, assim, leva  a violação sistematizada  de direitos. 

Para qualificar o debate da regulação da inteligência artificial no Brasil, de autoria do Senador Eduardo Gomes (PL-TO), o Aqualtune Lab, em parceria com a Coalizão Direitos na Rede, apresentou em sessão no Senado o documento com as contribuições ao Projeto de Lei nº 2338/2023 . Entre as recomendações que propusemos:

  •  a proibição de drones bélicos, chamados de armas autônomas (SSA);
  • a transparência de dados sobre uso de dados;
  • proibição de coleta de dados biométricos sem consentimento;
  • transparência e controle social no uso das câmeras corporais (body cams), com regras claras de armazenamento e uso das imagens;
  • Participação social: que pessoas negras, quilombolas e periféricas participem da formulação de governança do uso das IAs.

Tecnoviolência e tecnovigilância: novos termos para a mesma violência policial

Diante da expansão de compras de armamentos que usam tecnologias de reconhecimento facial  (TRF) na segurança pública, é mais que urgente que a sociedade pressione o governo. O objetivo é que haja banimento dessas tecnologias que escalonam a violência imposta nos territórios racializados. 

Segundo o mais recente estudo Lentes Opacas, do O Panóptico (2024):

  •  90% dos presos em 2019 por reconhecimento facial eram negros;
  • 75% dos projetos não divulgam a política de proteção de dados e;
  •  a maioria não divulga ou nem reconhece os erros (falsos positivos) que essas tecnologias ocasionam. 

Em 3 de abril, o STF julgou a Arguição de Preceito Fundamental 635 (ADPF) — conhecida por ADPF das Favelas. A ação cobrava do Estado o plano efetivo de redução da letadade policial. No entanto, representantes dos movimentos sociais de favela analisaram que a decisão final do supremo institucionalizou um plano de ocupação policial, em vez de enfrentar a necropolítica nas favelas e periferias. Como destacou Fransérgio Goulart, do IDMJR, em entrevista a Miriam Leitão (O Globo):


“Não é plano de redução da letalidade, é plano de ocupação.”

Em paralelo, no Senado, o processo da Regulação da Inteligência Artificial segue sem conclusão e tramita com constantes tentativas de excluir especialistas negros nas discussões sobre o tema. 

Por uma internet antirracista e pelo direito à vida!

Em tempos em que as desigualdades e a violência aumentam, o que mais vemos nas ruas são câmeras digitais de vigilância em todos os lugares. Ao mesmo tempo, câmeras de uniformes dos policiais são “desligadas”. Exigimos que o poder público proíba armas autônomas em operações policiais. Bem como que haja transparência total no uso e tratamento de dados pessoais e que bairros e cidades onde a maioria da população é negra, não sofram mais com o escalonamento das violências promovido pelas tecnologias digitais falhas.

Pelo fim da tecnoviolência estatal!

Rolar para cima