QUILOMBO / Sexta, 10 Setembro 2021 13:28

Reconhecimento facial e a insegurança das pessoas negras

Não é preciso muito esforço para verificar que as câmeras de reconhecimento não se sustentam como ferramentas em prol dos interesses da sociedade, da dita “segurança pública”, mas sim como um meio garantidor da manutenção de uma raça específica em situação de cárcere

Texto: Rodrigo José Serbena Glasmeyer, João Victor Vieira Carneiro e Milena Cramar Lôndero (pesquisadores do Grupo de Estudos de Direito Autoral e Industrial - GEDAI) e Lucas Mateus Teixeira de Lima (pesquisador do grupo Resistência Ativa Preta - R.A.P.) | Imagem: Reprodução

Imagem mostra homens negros, com os rostos com tarjas e as camisetas com números
Introdução:

Não é preciso muito esforço para verificar que as câmeras de reconhecimento não se sustentam como ferramentas em prol dos interesses da sociedade, da dita “segurança pública”, mas sim como um meio garantidor da manutenção de uma raça específica em situação de cárcere

Texto: Rodrigo José Serbena Glasmeyer, João Victor Vieira Carneiro e Milena Cramar Lôndero (pesquisadores do Grupo de Estudos de Direito Autoral e Industrial - GEDAI) e Lucas Mateus Teixeira de Lima (pesquisador do grupo Resistência Ativa Preta - R.A.P.) | Imagem: Reprodução

Segundo a Rede de Observatórios da Segurança, pelo menos 20 estados brasileiros já têm implementado a tecnologia de reconhecimento facial em suas instituições de segurança pública. O estado da Bahia, primeiro do Brasil a aderi-la, celebrou no início de setembro a 215ª prisão a partir da tecnologia. O mecanismo tem se tornado cada vez mais popular em território nacional com a promessa de eficácia da política de encarceramento. Tornando a atividade policial mecânica e objetiva, por meio do reconhecimento facial, a figura do criminoso é apontada de maneira supostamente neutra, alheia aos interesses e percepções subjetivas da autoridade competente. Basicamente, o sujeito criminoso é lido pelos seus traços faciais enquanto criminoso, e a tecnologia seria meramente porta-voz dessa identificação. Será?

Em se falando do Brasil, é sabido que violência e racismo na atuação da polícia e da justiça criminal estão longe de ser coisas novas. É fato que essa violência e vigilância não são coisas que surgem com a instalação de novas câmeras, e sim são fatores constantes na história do país. A própria autoridade policial foi fundada nesse território com a finalidade de perseguir pessoas escravizadas fugitivas. Nós sempre fomos o alvo.

A implementação de caros sistemas de reconhecimento facial integrados à milhares de câmeras instaladas em espaços públicos pelo país afora é mais um modo de propagar a violência e o racismo que são a essência de nossa justiça criminal. Se a tecnologia pode ser dita como um aprimoramento das técnicas arcaicas de se reconhecer o autor de um crime (reconhecimento pessoal ou fotográfico), este aprimoramento só pode ser traduzido no aumento das detenções, abordagens e seres humanos presos, mas não como um aprimoramento nas condições em que estas abordagens acontecem ou, menos ainda, na imparcialidade que define quem são os sujeitos abordados.

Por isso, revisitando rapidamente o nosso Código de Processo Penal e contrapondo-o à realidade brasileira, fica evidente que esse tipo de aprimoramento não tem por objetivo meramente a eficácia da política de encarceramento, mas do encarceramento de pessoas negras. Isso se evidencia na inexistência de previsão sobre o reconhecimento fotográfico, embora no dia a dia isso seja utilizado em delegacias para que as vítimas apontem para o suspeito esperado. O que há de previsão é o reconhecimento de pessoas, no art. 226 do CPP. Numa síntese, essa previsão legal diz que o possível criminoso deve ser colocado junto a pessoas semelhantes dele para que a vítima o reconheça - ou não. Pois bem. Esse suspeito costuma ser negro.

Leia também: O inimigo combatido com a violência é racialmente construído

Um dos principais meios de reprodução do reconhecimento fotográfico são os álbuns de suspeitos prévios, com fotos das próprias pessoas acusadas, retiradas de suas redes sociais, que se tornam consultivas para futuras vítimas de crimes que venham a ocorrer. Reúne-se um arsenal de possíveis indiciados, de maneira ilegal e racista, com a finalidade de que sejam reconhecidos. Por consequência, no Rio de Janeiro, por exemplo, 83% dos inocentes reconhecidos pelos álbuns de suspeitos são negros.

O mesmo ocorre no reconhecimento pessoal, em que apesar de ser exigido que o suspeito seja colocado junto a pessoas semelhantes dele para que a vítima o reconheça - ou não, isso mais uma vez não é seguido quando se trata de acusados negros, sempre havendo um direcionamento no sentido de atribuir à pessoa negra o título de criminosa, independentemente da veracidade do reconhecimento.

Ora, quando se trata de práticas que reiteram o racismo e o encarceramento negro, tudo é relativizado e aceito. Então, ainda que não haja leis que digam que a pessoa negra é criminosa, as instituições e a sociedade reproduzem cotidianamente essa mentalidade racista. Se as práticas atuais de reconhecimento pessoal e fotográfico2 são viciadas com o racismo, e causam prisões de inocentes, o que dizer do novo mecanismo de reconhecimento facial?

Afinal, trata-se de tecnologia cara, cuja aplicação é limitada e cujas margens de erro têm se mostrado extremamente altas. Mas dado o contexto brasileiro, o que se esconde por trás da implementação do reconhecimento facial, blindada pela lógica de combate à criminalidade, tem uma razão para ser silencioso. O que justifica sua rápida e vertiginosa ascensão em popularidade em diversos estados e cidades do Brasil não é sua eficácia para conter o crime, mas sua eficácia como ferramenta de controle social, controle esse que em um país racista como o Brasil adquire uma função ainda mais valiosa, de controle racial.

São inúmeras as argumentações em favor da tecnologia, na pegada do “quem não deve, não teme”. Mas fato é que, em se tratando do registro de pessoas negras, também existem diversas pesquisas indicando a incapacidade de um reconhecimento facial adequado em pessoas negras pela dificuldade na leitura das feições. Exemplo disso é o estudo de Joy Buolamwini onde se denota que a tecnologia é norteada por uma base de dados majoritariamente composta por informações de pessoas brancas, impedindo assimilações adequadas de pessoas não-brancas. Além deste estudo científico, Buolamwini é responsável por diversas ações para a proliferação do conhecimento sobre os riscos e danos causados pelas tecnologias que têm resultados racistas, sendo estrela do ótimo documentário “Coded Bias”, disponível na Netflix.

Afinal, o que seria o combate ao crime em um país onde a maioria sobrepujante de pessoas encarceradas é negra, em evidente desproporção a população brasileira autodeclarada negra? O que a composição racial de pessoas privadas de liberdade tem a dizer sobre os destinatários da política criminal? Não é preciso muito esforço para verificar que as câmeras de reconhecimento não se sustentam como ferramentas em prol dos interesses da sociedade, da dita “segurança pública”, mas sim como um meio garantidor da manutenção de uma raça específica em situação de cárcere.

Não por acaso, em 2019, primeiro ano de uso da tecnologia de reconhecimento facial, das 184 pessoas presas a partir dela, 90,5% eram negras. Ainda menos por acaso, deparamo-nos com uma política criminal que tem sido silenciosamente aprimorada, sem que haja quaisquer movimentações em favor de um monitoramento da adoção da ferramenta. Em um movimento de simples incorporação, estamos todos e todas sujeitas a registros digitais das nossas expressões faciais em uma simples caminhada na rua.

Um dos primeiros exemplos de uso da tecnologia aqui tratada a terem destaque nacional foi a implementação das câmeras de reconhecimento facial para monitorar a festa de carnaval da cidade de Feira de Santana - BA, no ano de 2019. Esta implementação foi noticiada (e exaltada) nos principais meios de comunicação do país, sendo dado destaque aos casos de fugitivos identificados e presos graças à tecnologia. O que não foi tão extensamente notificado é que das 1,3 milhões de pessoas que passaram pelo sistema, 903 foram identificadas como possíveis criminosos com mandados de prisão abertos. Porém, os números de prisões efetuados em decorrência destas identificações demonstram a baixa acurácia e precisão do sistema implementado: somente 18 mandados foram cumpridos e 15 pessoas foram presas. Isto representa mais de 96% de falsos positivos (casos em que pessoas são identificadas de forma errada, confundidas umas com as outras pela inteligência artificial que rege o software).

Resultados como estes não são exclusividade do Brasil. Em Londres, após oito testes da tecnologia efetuados entre 2016 e 2018 apresentarem uma média de falsos positivos (situações em que pessoas são erroneamente classificadas como suspeitos) de assustadores 96%, a Polícia Metropolitana decidiu implementar efetivamente o sistema ainda após o resultado negativo nos testes. Em Detroit, nos Estados Unidos, ainda que não tenham sido efetuados testes acompanhados como em Londres, o chefe de polícia da cidade, James Craig, afirmou que o sistema de reconhecimento facial DataWorks Plus, que custou à cidade US$1 milhão de dólares, tem uma taxa de erro de aproximadamente 96%. Ainda assim, o chefe de polícia expressou que deseja que o contrato seja renovado e o sistema continue a ser implementado.

Estas altas margens de erro e a determinação das autoridades públicas em continuar com uma tecnologia que se mostra falha e perigosa nos trazem diversos questionamentos. Em primeiro lugar, é natural nos perguntarmos qual o motivo dessas margens de erro e por que são os rostos negros aqueles menos propensos ao acerto por parte da máquina.

Leia também: Elemento Suspeito: pode o favelado se identificar?

Fato é que os limites e possibilidades criados pela tecnologia dependem de como seus criadores e desenvolvedores estruturam seus valores, crenças e interesses. A tecnologia contém em si propriedades políticas, seja porque servem a um fim que tem consequências políticas dentro de uma comunidade ou por serem em si inerentemente políticas, desenvolvidas de acordo com as ideologias de seus criadores. Assim, cada pequena ou grande escolha feita pelos cientistas, engenheiros, desenvolvedores, gestores públicos e agentes policiais que culmina na aplicação prática da tecnologia tem a possibilidade de moldar e modificar seus efeitos.

Ao escolher (mesmo que inconscientemente) treinar a inteligência artificial com bancos de fotos majoritariamente de pessoas brancas (e em sua maioria homens), os desenvolvedores estão condicionando a tecnologia a ter menor precisão para identificar homens negros e menor ainda para mulheres negras. Ao escolher instalar as câmeras em bairros de população majoritariamente negra, os gestores públicos estão condicionando a tecnologia a reconhecer mais “suspeitos” negros. Ao escolher ignorar um match feito pelo sistema entre uma pessoa branca na rua e um fugitivo branco por perceber não se tratar da mesma pessoa, mas não ter o mesmo rigor em relação a um match de um indivíduo negro, o agente policial está condicionando o sistema a gerar um resultado racista.

Diversos são os pontos e momentos em que as escolhas dos indivíduos responsáveis pela tecnologia geram impactos sociais no resultado de sua utilização. Do mesmo modo, a própria escolha por utilizar a tecnologia do reconhecimento facial é uma escolha política com efeitos na sociedade que vão além das falhas no reconhecimento que podem levar pessoas inocentes a serem abordadas e até mesmo presas. Mesmo supondo que a tecnologia fosse perfeita e sem falhas em relação àquilo a que se propõe, escolher que todos os passos que damos na rua sejam monitorados em tempo real é uma decisão com efeitos políticos que levam nossa sociedade em direção ao maior controle social e à menor liberdade para que o indivíduo seja ele mesmo, sem medo de quem possa o estar observando.

Com isso, o reconhecimento facial faz com que andar na rua seja menos seguro para pessoas negras, uma vez que aumenta a possibilidade de que um erro no sistema gere uma abordagem policial indevida. Sabendo da truculência da polícia brasileira, reproduzindo historicamente sua política de controle de negras e negros, sabemos que um falso positivo pode gerar abordagens violentas, desde agressões até assassinatos.

A dinâmica do reconhecimento facial se torna ainda mais perigosa quando atravessada por outros eixos de vulnerabilidade. Isso porque andar na rua também se torna mais inseguro para mulheres, que podem ser vítimas de stalkers e sofrer assédio por parte dos operadores das câmeras. Este risco fica ainda maior considerando a possível utilização dos sistemas para interesses pessoais de seus operadores, como por exemplo para encontrar e vigiar uma parceira ou ex.

É de se pensar, ainda, na insegurança de pessoas engajadas politicamente, visto que suas atividades como participação em protestos, reuniões de movimentos, assembleias, entre outros estão completamente sujeitas ao monitoramento. Este risco se torna ainda maior em relação aos movimentos e organizações políticas que atuem de forma contrária, por exemplo, às milícias, considerando sua possível infiltração entre os operadores do sistema.

Ou seja, o que começa sendo como uma política de segurança pública, acaba por ser um silencioso aprimoramento da insegurança a pessoas já colocadas no lugar de alvo de controle racial e social. Não é preciso ser suspeito de um crime, portanto, para ser reconhecido enquanto criminoso, seja fotográfica, pessoal ou facialmente. Ser negro, por si só, é um atentado contra a segurança pública. E a gente sabe a quem ela protege.

O Grupo de Estudos de Direito Autoral e Industrial – GEDAI/UFPR tem como seu principal objetivo estudar o desenvolvimento dos Direitos de Propriedade Intelectual na Sociedade da Informação, para atingir essa finalidade por observa-se três objetivos específicos: (i) compreensão dos efeitos do direito fundamental à cultura e diversidade cultural na sociedade contemporânea, analisando os limites dos direitos autorais na tutela dos bens imateriais; (ii) avaliação das consequências da revolução tecnológica em andamento e do advento da cultura digital sobre a regulamentação dos direitos intelectuais; e (iii) identificação do conteúdo da proteção jurídica e o alcance da circulação da produção cultural desenvolvida nas instituições públicas. Ainda, promove eventos, seminários e publicações sobre as temáticas pesquisadas.

O R.A.P. - Resistência Ativa Preta, grupo de produção de conhecimento negro da Faculdade de Direito da Universidade Federal do Paraná, foi criado em 2019 a partir das inquietudes de estudantes negros e negras, sequiosos por justiça. Desde sua origem, o grupo se pauta no enfrentamento ao racismo dentro e fora da academia, consolidando pontes entre a juventude negra que compõe a Universidade Pública e os movimentos sociais de todo o Brasil. Atualmente, está na linha de frente das demandas dos e das estudantes pela implementação de cotas raciais nos cursos de pós-graduação da UFPR, além de promover encontros quinzenais para estudos voltados à teoria crítica racial.

 Apoie jornalismo preto e livre!

 O funcionamento da nossa redação e a produção de conteúdos dependem do apoio de pessoas que acreditam no nosso trabalho. Boa parte da nossa renda é da arrecadação mensal de   financiamento coletivo e de outras ações com apoiadores. 

 Todo o dinheiro que entra é importante e nos ajuda a manter o pagamento da equipe e dos colaboradores em dia, a financiar os deslocamentos para as coberturas, a adquirir novos   equipamentos e a sonhar com projetos maiores para um trabalho cada vez melhor. 

 O resultado final é um jornalismo preto, livre e de qualidade.

 Acesse aqui nosso Catarse

NEWSLETTER

Fique por dentro de tudo que acontece. Se inscreva e receba nossas notícias toda semana.

VÍDEOS

ileaiyeemsalvador.jpg
juventudeeracismo.jpg
boletim39.jpg
ccsp.jpg