Artigos Aqualtune

Tecnologia e racismo estrutural: sobre o racismo algorítmico

Artigo José Vitor P. Neto Racismo Algorítmico

José Vitor Pereira Neto é advogado popular especializado em direitos culturais e produtor cultural. É militante da Articulação Negra de Pernambuco - ANEPE e do Aqualtune Lab.

Para uma compreensão do racismo algorítmico é necessário demarcar que o racismo é uma decorrência da própria estrutura social, ou seja, do modo ‘normal’ com que se constituem as relações políticas, econômicas, jurídicas e até familiares, não sendo uma patologia social e nem um arranjo institucional. O racismo é estrutural. (ALMEIDA, 2020)
Assim, o racismo não é mera qualidade desviante de um sujeito individual, o racista, mas, sim, toda a sociedade é intrinsecamente racista porquanto foram em tais bases ideológicas do pensamento (a medicina eugenista e posteriormente o mito da democracia racial) que foram fundadas as nossas instituições e relações étnico-raciais.

É a partir dessa perspectiva que podemos compreender como embora seja crime, conforme a Lei nº 7.716/89, o racismo brasileiro persiste diariamente nas nossas estatísticas de empregabilidade, diferenças salariais, encarceramento e nas cotidianas microagressões, as quais estamos suscetíveis, em especial nas plataformas e redes sociais.
O racismo algorítmico, enquanto um fenômeno típico das novas redes sociais, pode ser definido como a prática de condutas discriminatórias realizada por uma inteligência artificial e/ou plataformas de mídias sociais e aplicativos. No caso, trata-se da naturalização de condutas discriminatórias racistas reproduzidas pelas estruturas das próprias plataformas tecnológicas com base em seus algoritmos (enviesamento tecnológico).


Exemplo disto ocorreu ainda no início deste ano, no twitter, quando numa série de publicações realizadas ficou demonstrado que o algoritmo da rede social dava maior visibilidade a imagens de pessoas brancas em detrimento de imagens de pessoas negras.


Não menos atuais são os casos dos aplicativos como Faceapp ou instagram que oferecem filtros para “embelezamento”. Acontece que o processo de “embelezamento” inclui o clareamento da imagem, ou melhor, embranquecimento, assim associando diretamente o ideal de beleza à brancura.


Para explorarmos mais estritamente as marcas do racismo algorítmico sobre o uso da tecnologia na área do direito e no poder judiciário: o projeto da Propublica (jornal independente norte-americano) analisou o software COMPAS de análise de reincidência criminal no sistema de justiça penal americano e constatou que o algoritmo prejudicava réus negros e favorecia réus brancos, dando notas de risco maior para pessoas negras mesmo que estas tivessem uma ficha criminal menor e com crimes menos violentos que as pessoas brancas.


Com estes relatos, queremos apresentar de que se trata o racismo algorítmico e como se manifesta. No entanto, é importante salientar que essas condutas de discriminação racial, embora conduzidas pela própria inteligência artificial não são originalmente desenvolvidas pelos computadores em si, pois estes ainda se tratam de máquinas e não desenvolvem inteligência de maneira totalmente independente da interferência humana.

Com efeito, a manifestação do racismo algorítmico é o resultado mais evidente da existência do silencioso e sutil racismo estrutural.

José Vitor

Com efeito, a manifestação do racismo algorítmico é o resultado mais evidente da existência do silencioso e sutil racismo estrutural. Como dissemos anteriormente, para além do desvio moral individual o racismo persiste enquanto estrutura da sociedade impregnado em nossas instituições e normalizado nas relações sociais, políticas, econômicas e jurídicas de maneira tal que o reproduzimos cotidianamente, principalmente através de estereótipos os quais delimitam os horizontes de existência de pessoas negras dentro de certos padrões, exemplo: O homem negro criminoso, a mulher negra sexualmente insaciável, a mulher negra raivosa, o negro/a feio/a e etc. (CARRERA, 2020)
Logo, é possível que desenvolvedores durante a programação do algoritmo de uma plataforma reproduzam tais estereótipos desumanizantes, recaindo a inteligência artificial em vieses e até aprofundando análises tendenciosas e resultando em práticas discriminatórias realizadas pela tecnologia.


Ainda assim, não podemos compactuar com uma suposta não-responsabilidade diante do racismo estrutural. Embora compreendamos que este funda a sociedade e portanto estamos suscetíveis a reproduzi-lo, não se deve abrir mão de ações positivas a fim de superá-lo, em especial, no âmbito da Tecnologia, onde se faz urgente o aprofundamento dos debates sobre relações étnico-raciais, bem como a presença de uma maior representatividade negra nessa esfera da produção conhecimento.




José Vitor Pereira Neto é advogado popular especializado em direitos culturais e produtor cultural. É militante da Articulação Negra de Pernambuco – ANEPE e do Aqualtune Lab.