Em junho de 2024, o Aqualtune Lab enviou contribuições à Comissão Temporária Interna sobre Inteligência Artificial (CTIA) para que a Regulamentação da IA não seja mais uma ferramenta de exclusão e controle de territórios onde a maioria é população negra.
As tecnologias não são neutras. Ferramentas digitais baseadas em inteligência artificial, quando empregadas pelo Estado na segurança Pública, então, tendem a reproduzir vieses racistas e práticas discriminatórias. A ausência de regulação agrava esse cenário e, assim, leva a violação sistematizada de direitos.
Para qualificar o debate da regulação da inteligência artificial no Brasil, de autoria do Senador Eduardo Gomes (PL-TO), o Aqualtune Lab, em parceria com a Coalizão Direitos na Rede, apresentou em sessão no Senado o documento com as contribuições ao Projeto de Lei nº 2338/2023 . Entre as recomendações que propusemos:
- a proibição de drones bélicos, chamados de armas autônomas (SSA);
- a transparência de dados sobre uso de dados;
- proibição de coleta de dados biométricos sem consentimento;
- transparência e controle social no uso das câmeras corporais (body cams), com regras claras de armazenamento e uso das imagens;
- Participação social: que pessoas negras, quilombolas e periféricas participem da formulação de governança do uso das IAs.
Tecnoviolência e tecnovigilância: novos termos para a mesma violência policial
Diante da expansão de compras de armamentos que usam tecnologias de reconhecimento facial (TRF) na segurança pública, é mais que urgente que a sociedade pressione o governo. O objetivo é que haja banimento dessas tecnologias que escalonam a violência imposta nos territórios racializados.
Segundo o mais recente estudo Lentes Opacas, do O Panóptico (2024):
- 90% dos presos em 2019 por reconhecimento facial eram negros;
- 75% dos projetos não divulgam a política de proteção de dados e;
- a maioria não divulga ou nem reconhece os erros (falsos positivos) que essas tecnologias ocasionam.
Em 3 de abril, o STF julgou a Arguição de Preceito Fundamental 635 (ADPF) — conhecida por ADPF das Favelas. A ação cobrava do Estado o plano efetivo de redução da letadade policial. No entanto, representantes dos movimentos sociais de favela analisaram que a decisão final do supremo institucionalizou um plano de ocupação policial, em vez de enfrentar a necropolítica nas favelas e periferias. Como destacou Fransérgio Goulart, do IDMJR, em entrevista a Miriam Leitão (O Globo):
“Não é plano de redução da letalidade, é plano de ocupação.”
Em paralelo, no Senado, o processo da Regulação da Inteligência Artificial segue sem conclusão e tramita com constantes tentativas de excluir especialistas negros nas discussões sobre o tema.
Por uma internet antirracista e pelo direito à vida!
Em tempos em que as desigualdades e a violência aumentam, o que mais vemos nas ruas são câmeras digitais de vigilância em todos os lugares. Ao mesmo tempo, câmeras de uniformes dos policiais são “desligadas”. Exigimos que o poder público proíba armas autônomas em operações policiais. Bem como que haja transparência total no uso e tratamento de dados pessoais e que bairros e cidades onde a maioria da população é negra, não sofram mais com o escalonamento das violências promovido pelas tecnologias digitais falhas.
Pelo fim da tecnoviolência estatal!
![[AQUALTUNE VIVA] — LGPD e Dados da Saúde](https://aqualtunelab.com.br/wp-content/uploads/2021/06/capaLGPDesaude-1-1024x577.jpg)
![[Aqualtune Viva] — Direito, Tecnologia e Antirracismo](https://aqualtunelab.com.br/wp-content/uploads/2021/06/capaTecnologiaepoder-1024x577.jpg)