Tema de Redação

SEGURANÇA PÚBLICA | Reconhecimento facial e racismo

Equipe RND
Escrito por Equipe RND em 1 de fevereiro de 2022
SEGURANÇA PÚBLICA | Reconhecimento facial e racismo
Aprenda a escrever uma Redação Nota Dez

Receba nosso conteúdo em seu e-mail:

A partir da leitura e reflexão sobre os textos de apoio abaixo, escreva um texto dissertativo-argumentativo no qual você discorra sobre o seguinte tema: Reconhecimento facial e racismo. Caso julgue necessário, busque leituras adicionais.

Não deixe de fazer o planejamento da sua redação.

TEXTOS DE APOIO

Texto 1

Joy Buolamwini, uma mulher negra de 30 anos, pesquisadora do Media Lab do Instituto de Tecnologia de Massachusetts (M.I.T.), estava desenvolvendo um protótipo de espelho inteligente, capaz de reconhecer a face da pessoa a sua frente e projetar no reflexo imagens de rostos de pessoas inspiradoras, como Serena Williams. Ela montou o espelho, acoplou uma câmera para captar a imagem da face e transmitir ao computador que, através de um algoritmo de reconhecimento facial, iria identificar a pessoa e vinculá-la às informações personalizadas. Tudo pronto e operando, mas o protótipo não detectava o rosto de Joy. Esgotados os possíveis problemas com a tecnologia, Joy olhou o seu reflexo no espelho e teve uma ideia: pegou uma máscara branca, dessas de fantasia, e voltou a ficar de frente pro seu projeto, que dessa vez reconheceu a máscara como um rosto. (…)

Apesar do movimento mundial ser de crítica, banimento ou moratória ao uso de reconhecimento facial pelas polícias, no Brasil temos visto o movimento contrário. (…)

Em julho [de 2019], foi a hora da polícia do Rio iniciar seu projeto de reconhecimento facial. Escolheu-se o bairro de Copacabana como área de testes, e diversos postes foram instalados em pontos espalhados pelo bairro, devidamente equipados com câmeras nas suas extremidades. No segundo dia de testes, uma mulher foi reconhecida como sendo Maria Lêda Félix da Silva, condenada por homicídio e procurada pela polícia. Imediatamente os policiais conduziram a mulher que dizia não ser a procurada, mas estava sem documentação, até a delegacia. O erro foi resolvido quando familiares da mulher conseguiram encontrá-la na delegacia e, de posse dos seus documentos, conseguiram provar que ela não era a mulher procurada. O caso é mais um de uma série de erros que essas tecnologias cometem, mas tem um agravante: Maria Lêda, a “procurada”, já estava cumprindo pena em presídio havia quatro anos. Não só os algoritmos erraram, mas também a polícia que utilizou um banco de dados desatualizado.

Os projetos foram avançando por estados e municípios sem encontrar muita resistência. No final de 2019 eu já tinha coletado mais de 150 prisões com o uso de reconhecimento facial, e nos casos onde havia informações, mais de 90% das pessoas eram negras, a maioria presas por crimes sem violência. As poucas vozes que se colocaram de maneira crítica à adoção desses algoritmos pelas polícias brasileiras não foram suficientes para que um debate nacional fosse pautado. Mas quais são os problemas?

Algoritmos são como receitas de bolo, instruções a serem seguidas para atingir o resultado final. O que acontece é que muitos desses códigos são criados com base em grandes bancos de dados por meio do aprendizado de máquina. No caso do reconhecimento facial, um grande banco de imagens de rostos é usado para ensinar o algoritmo a identificar o que é um rosto.

O que acontece nesses softwares de reconhecimento facial, como o usado pela Joy no seu espelho tecnológico, é que boa parte dos bancos de imagens utilizados para treinar esses algoritmos são compostos por pessoas brancas. Assim, quando a câmera capta a imagem de uma pessoa negra ou asiática ela não as identifica como sendo rostos humanos, mas já reconheceu dois homens negros como gorilas. Apesar de esse ser um grande problema, a criação de bancos de dados mais diversos não resolve a questão completamente. Algoritmos são dados, e dados são produtos da nossa história. Por mais que se tente cercar de todos os lados, sempre teremos defasagens e vieses nesse tipo de tecnologia.

Fonte: NUNES, Pablo. O algoritmo e racismo nosso de cada dia / Revista Piauí / Texto completo aqui.

Texto 2

O reconhecimento facial tem sido adotado em diversos países. Entretanto, pesquisas apontam que esses sistemas apresentam maiores índices de erro quando se deparam com rostos de mulheres e negros. 

Rodrigo Brandão, mestre em Ciência Política e doutorando em Sociologia pela USP, pesquisador do Centro para Inteligência Artificial (C4IA) da USP e mediador do evento, explica (…) que o reconhecimento facial é uma das aplicações da Inteligência Artificial, uma tecnologia mais ampla.

“Essas tecnologias podem ser treinadas para fazer esse reconhecimento de rostos humanos”, afirma. Segundo Brandão, esse treinamento é feito em bases de dados desbalanceadas. “A tecnologia tem um viés a reconhecer corretamente o rosto de um homem branco e a tendência a reconhecer incorretamente o rosto de uma mulher negra, por exemplo.” Esse fenômeno é chamado de viés algorítmico.

Quando essa tecnologia é utilizada em políticas públicas, o viés algorítmico traz implicações problemáticas. “Os algoritmos têm sido uma ferramenta tecnológica de reprodução do racismo que a gente já tem na nossa sociedade, principalmente nas forças de segurança”, afirma Pablo Nunes, coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC), um dos palestrantes. 

Fonte: Jornal da USP. Tecnologia do reconhecimento facial na segurança pública pode aprofundar racismo e misoginia [com adaptações]. / Texto completo aqui.

Texto 3

Segundo a Rede de Observatórios da Segurança, pelo menos 20 estados brasileiros já têm implementado a tecnologia de reconhecimento facial em suas instituições de segurança pública. O estado da Bahia, primeiro do Brasil a aderi-la, celebrou no início de setembro [de 2021] a 215ª prisão a partir da tecnologia. O mecanismo tem se tornado cada vez mais popular em território nacional com a promessa de eficácia da política de encarceramento. Tornando a atividade policial mecânica e objetiva, por meio do reconhecimento facial, a figura do criminoso é apontada de maneira supostamente neutra, alheia aos interesses e percepções subjetivas da autoridade competente. Basicamente, o sujeito criminoso é lido pelos seus traços faciais enquanto criminoso, e a tecnologia seria meramente porta-voz dessa identificação. Será?

Em se falando do Brasil, é sabido que violência e racismo na atuação da polícia e da justiça criminal estão longe de ser coisas novas. É fato que essa violência e vigilância não são coisas que surgem com a instalação de novas câmeras, e sim são fatores constantes na história do país. A própria autoridade policial foi fundada nesse território com a finalidade de perseguir pessoas escravizadas fugitivas. (…)

São inúmeras as argumentações em favor da tecnologia, na pegada do “quem não deve, não teme”. Mas fato é que, em se tratando do registro de pessoas negras, também existem diversas pesquisas indicando a incapacidade de um reconhecimento facial adequado em pessoas negras pela dificuldade na leitura das feições. (…)

Em 2019, primeiro ano de uso da tecnologia de reconhecimento facial, das 184 pessoas presas a partir dela, 90,5% eram negras. Ainda menos por acaso, deparamo-nos com uma política criminal que tem sido silenciosamente aprimorada, sem que haja quaisquer movimentações em favor de um monitoramento da adoção da ferramenta. Em um movimento de simples incorporação, estamos todos e todas sujeitas a registros digitais das nossas expressões faciais em uma simples caminhada na rua.

Fonte:  GLASMEYER, Rodrigo; CARNEIRO, João Victor; LÔNDERO, Milena; LIMA, Lucas. Reconhecimento facial e a insegurança das pessoas negras / Alma Preta / Texto completo aqui.

Texto 4

Quando o assunto é o Reconhecimento Facial, a discussão ganha espaço e passa a fazer muito sentido. O reconhecimento facial é uma das modalidades de reconhecimento de imagens, a outra é o reconhecimento fotográfico, feito diretamente por pessoas e utilizado com frequência como ferramenta nas investigações. Importante NÃO confundir esses tipos de reconhecimento com o denominado Reconhecimento de Pessoas, previsto em nosso Código Processual Penal (CPP). Não foram poucos os casos em que erros judiciais se concretizaram com reconhecimento equivocados de pessoas. (…)

O avanço da tecnologia [Reconhecimento Facial] trouxe para sistemas de segurança câmeras de celulares, aplicativos diversos, a possibilidade de emprego do reconhecimento facial. Sem dúvida é algo positivo. Entretanto, quando o emprego requer uma dose de certeza maior, envolvendo questões delicadas como a identificação de pessoas em casos criminais, é preciso ponderar e contextualizar melhor a questão, posto que os algoritmos associados a essa tecnologia estão longe de serem considerados plenamente confiáveis. 

No último mês do ano passado e no início deste ano, em matérias divulgadas na mídia, um caso de erro baseado em um reconhecimento facial ganhou espaço: o pedreiro José Domingos Leitão, de 52 anos, foi preso por policiais civis do DF acusado como autor de um crime, depois que um programa eletrônico de reconhecimento facial o apontou como suspeito. No dia 7 de outubro de 2020, ele foi acordado em casa, no município de Ilha Grande, no Piauí, e transportado numa aeronave para o Departamento de Polícia Especializada (DPE), onde ficou detido por 3 dias.

A repercussão do caso foi ainda maior porque trouxe à tona questionamentos em relação ao alcance dessa ferramenta, assim como sobre os responsáveis pelo trabalho (peritos ou não), dentre outras. Representantes das principais entidades da perícia oficial foram solicitados a se manifestar e deixaram claro que a falta de protocolos periciais está intimamente ligada a esse tipo de erro e chamam o tal reconhecimento de mera “comparação facial”. Como utilizar então esse limitado indício para sustentar uma prisão, mesmo que preventivamente? (…)

Para fomentarmos ainda mais a discussão, faremos duas rápidas citações referentes a matérias veiculadas recentemente em mídias: a primeira intitulada: “Homem preto fica 10 dias preso por erro de reconhecimento facial” do site Tecmundo, veiculada no dia 29 de dezembro, a respeito de um caso ocorrido nos Estados Unidos. Na conclusão da matéria há o comentário de que “Especialistas alertam sobre o viés racial de tecnologias do tipo, que podem ser menos precisas ao analisarem tons de pele que não sejam brancos”.

Finalmente, a outra citação nos remete a um tom que beira a piada: o site G1 veiculou matéria no dia 07 de janeiro intitulada: “Foto de astro do cinema Michael B. Jordan aparece em lista de procurados pela polícia do Ceará”. O texto informa que “Imagem do ator de Creed e Pantera Negra aparece como um dos suspeitos em chacina que deixou cinco mortos em Fortaleza. Secretaria da Segurança diz que o trabalho de reconhecimento fotográfico é ‘apenas uma das etapas que podem levar ao indiciamento’”.

Fonte: ROSA, Cássio. Quando a inteligência artificial é preconceituosa: o reconhecimento facial em xeque. / Fonte Segura / Texto completo aqui.

Texto 5

Se compararmos a técnica com o envio de uma ambulância para socorrer uma vítima, vemos o quanto ela é ineficiente. Se em nove de cada dez chamadas ao Samu não houver uma emergência real, teremos o desperdício de dinheiro público e a alocação inútil de tempo e pessoal. É exatamente o que tem ocorrido na aplicação da tecnologia de reconhecimento facial. Por exemplo, durante o carnaval, nos quatro dias da Micareta de Feira de Santana, na Bahia, o sistema de videomonitoramento capturou os rostos de mais de 1,3 milhões de pessoas, gerando 903 alertas, o que resultou no cumprimento de 18 mandados e na prisão de 15 pessoas, ou seja, de todos os alertas emitidos, mais de 96% não resultaram em nada.

O problema pior é que os erros do reconhecimento facial podem representar constrangimentos, prisões arbitrárias e violações de direitos humanos.

Fonte: NUNES, Pablo. Levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros. / The Intercept_ Brasil / Texto completo aqui.

Mais ainda:

Caso seja assinante da plataforma Netflix, sugerimos que assista ao documentário Coded Bias.

Boa produção!
Um abraço,
Equipe Redação Nota Dez

Imagem: Reprodução

Posts recentes

Olá!

O que você achou deste conteúdo? Conte nos comentários.

O seu endereço de e-mail não será publicado.