José Kappel

Um amor sobrevive a outro amor

Textos


 

O Reconhecimento Facial por meio de máquinas está  se espalhando pelo mundo e muita gente  não está percebendo o perigo disso... ( James Walker, Cientista Social )

 

"Ao passo em que a máquina aprende com seres humanos, mas não é dotada de concepções éticas e morais, os resultados podem ser inesperados e até assustadores".

 

 

RECONHECIMENTO FACIAL

 

O Vale do Silício é uma região na Califórnia que abriga algumas das maiores empresas de tecnologias do mundo, que costumam ditar tendência quando o assunto é a adoção de inovações para resolver problemas cotidianos. Uma dessas modas é reconhecimento facial, que virou febre em diversas cidades do mundo, da chinesa Pequim às brasileiras Rio de Janeiro, Salvador e Campinas, seja como ferramenta de segurança pública, seja para agilizar processos demorados.

 

Curiosamente, uma cidade que fica a alguns quilômetros de distância do Vale decidiu banir o uso de ferramentas que reconhecem alguém só de detectar seu rosto.

 

Trata-se de San Francisco, uma das maiores dos Estados Unidos -- e que, por isso mesmo, pode acabar servindo de modelo para as demais. Mas, afinal, por que um município tão próximo geograficamente do maior celeiro de inovação tecnológica do mundo resolveu ficar bastante longe de uma das aplicações do momento?

 

O que San Francisco decidiu

 

Entenda a tecnologia por trás das nossas coisas.


A decisão de San Francisco não interfere no uso pessoal ou comercial de ferramentas de reconhecimento facial. Ou seja, continua liberado que os moradores desbloqueiem seus celulares apenas usando seus rostos.

 

O perigo pode começar ai. Você faz o reconhecimento em algum banco e a polícia pode requerer estas imagens.Centenas de entidades policiais ou não, podem fazer o mesmo. E sua imagem roda o mundo a procura de indivíduos que atentam contra a ordem vigente. Você passa ser vigiado. O algoritmo passa a ser seu inimigo.

 

O que a cidade fez foi proibir que o reconhecimento facial fosse usado pela polícia e por outras agências públicas. O documento da lei diz o seguinte:

 

Será ilegal para qualquer departamento obter, conservar, acessar ou utilizar qualquer tecnologia de reconhecimento facial ou qualquer informação obtida com tecnologia de reconhecimento facial

Com isso, San Francisco virou a primeira cidade dos EUA a adotar uma medida que restrinja o uso dessa tecnologia para o serviço público, ainda que não afete seu uso em aeroportos ou instalações sob regulamentação do governo federal. Só que os efeitos da nova regra podem ser divididos em dois. E a proibição é apenas um deles.

 

O segundo deles é que ela estabelece uma política de controle sobre quaisquer ferramentas de vigilância funcionando na cidade. Os parlamentares têm de aprovar qualquer compra pública de recursos que monitorem os cidadãos e farão uma auditoria de todos os serviços existentes atualmente.

 

Quanto a isso, a ação de San Francisco não é inédita, já que outros municípios norte-americanos criaram normas semelhantes.

 

A decisão foi aprovada em votação feita pelos parlamentares municipais nesta terça-feira (14) -- o resultado foi 8 x 1; antes de a questão chegar ao prefeito, haverá uma segunda votação, mas ela é apenas uma formalidade.

 

Por que San Francisco fez isso?


A motivação da iniciativa da cidade californiana pode ser resumida assim: os benefícios do uso do reconhecimento facial são pequenos perto da possibilidade de limitar alguns direitos dos cidadãos.

É isso o que diz o texto da lei:

 

A propensão da tecnologia de reconhecimento facial a colocar em perigo os direitos e as liberdades civis supera substancialmente seus benefícios"


Para o documento que foi aprovado, o reconhecimento facial poderia, além disso, "exacerbar a injustiça racial e ameaçar nossa capacidade de viver sem a contínua vigilância do governo,

 

Entre os defensores da proibição, há dois argumentos principais:

 

erros de identificação facial podem levar a maior injustiça social: como os modelos usados para treinar algoritmos de reconhecimento de rostos são em sua maioria desenvolvidos por pessoas brancas e homens, há uma maior probabilidade de o sistema falhar ao tentar ler o rosto de uma mulher negra, por exemplo. Isso poderia fazer alguém ser responsabilizado por algo indevidamente.


Violação contínua da vida privada: para funcionar, o sistema tem de fazer uma varredura dos rostos de pessoas que circulem por ruas e vias públicas, ainda que elas não saibam disso.

 

Um estudo do Instituto de Tecnologia de Massachusetts (MIT) mostrou que um popular sistema de reconhecimento facial, o Rekognition, da Amazon, sofre para identificar rostos de mulheres e pessoas não caucasianas. Já um estudo da União Americana pelas Liberdades Civis (ACLU) mostrou que esse mesmo sistema identificou erroneamente 28 congressistas americanos em fotos de registros policiais.

 

Os defensores do sistema, por sua vez, afirmam que o reconhecimento facial pode aumentar a segurança. É o caso da organização Stop Crime SF, para a qual o reconhecimento facial "pode ajudar a localizar crianças perdidas, pessoas com demência e a lutar contra o tráfico sexual".

 

Nós podemos ter boa segurança sem um estado de segurança e nós podemos ter bom policiamento sem recorrer a um estado policial.

 

San Francisco pode virar uma referência para outras cidades, segundo o ativista e diretor-executivo da ONG Secure Justice, Brian Hofer, disse ao site Gizmodo.

 

Oakland e Berkeley estão seguindo o exemplo de San Francisco ao também considerar proibir o governo de usar tecnologia de reconhecimento facial. Outras cidades de fora da Califórnia e até estados estão considerando regras similares. Nós esperamos que esse movimento cresça conforme mais pessoais se tornem educadas sobre o risco inerente do uso dessa tecnologia ( Helton Simões Gomes, do UOL, em São Paulo)

 

 

 

Identificação criminal por tecnologia de reconhecimento e a discriminação racial

 

Atualmente, tecnologias que antes pareciam existir somente em ficções científicas, tornam-se realidade e passam a ser incorporadas em nosso cotidiano.

 

Um exemplo que tem se tornado usual e acessível é o reconhecimento facial, sendo empregado tanto em nossos celulares e outros meios mais triviais quanto pelos Governos para melhorar suas atuações preventivas.

 

Recentemente, o município de Praia Grande, no litoral de São Paulo, anunciou a implementação de um sistema de reconhecimento facial que irá alimentar o sistema de monitoramento, formado por aproximadamente 2.600 câmeras e 200 quilômetros de cabos de fibra óptica, cujo objetivo é identificar pessoas procuradas pela Justiça.

 

Outras cidades pelo estado possuem projetos parecidos em avançada fase de implementação, como a cidade de Campinas, que possui parceria com a polêmica gigante chinesa Huawei, atuando como um living lab para a empresa [1].

 

Em suma, a tecnologia funciona com a submissão de imagens a algoritmos computacionais a fim de identificar dezenas de pontos únicos na face de cada pessoa; desse modo, quando alguém passar por uma câmera, os algoritmos buscarão, em uma velocidade sobre-humana, os mesmos pontos faciais contidos em cada imagem salva no banco de dados. 

 

Por óbvio, a complexidade dos algoritmos varia de acordo com cada software de reconhecimento facial, através de extenso uso de inteligência artificial, automação, machine learning, big data, entre outros conceitos.

 

No caso do município de Praia Grande, o software de reconhecimento facial utilizado pela Prefeitura será alimentado, de início, com o banco de dados da Polícia Civil da própria cidade, mas já é prevista a expansão ao banco de dados de todo o estado de São Paulo. 

 

Com isso, tem-se o primeiro problema na utilização do sistema proposto: a identificação criminal, em especial a fotográfica que não é tida como regra pela nossa legislação, mas exceção.

 

A Constituição Federal garante o direito fundamental de o civilmente identificado não ser submetido à identificação criminal (artigo 5º, LVIII), salvo poucas exceções previstas na Lei nº 12.037/2009. 

 

Em outras palavras, apresentando documento de identidade oficial válido, o acusado não é obrigado a registrar seus dados biométricos, sejam eles datiloscópicos (impressões digitais) ou faciais (com fotografias ou outros registros visuais).

 

Entretanto, sabe-se que a realidade no cotidiano das delegacias não é essa, havendo diariamente a obtenção de dados biométricos faciais de acusados que, ainda que devam ser somente identificados civilmente, são submetidos a esse constrangimento por estarem desacompanhados de seus defensores.

 

Outro problema de ordem prática se faz presente: ainda que o artigo 3º, §1º, inciso XII da Resolução CNJ nº 137/2011, que regulamenta o Banco Nacional de Mandados de Prisão (BNMP) preveja a possibilidade de inclusão de fotografia da pessoa objeto de ordem de prisão, tal procedimento é facultativo e pouco utilizado.

 

É certo, assim, que o banco de dados de fotografias de pessoas procuradas pela justiça é escasso e, muitas vezes, ilícito.

 

Como alternativa para contornar esses problemas, há a possibilidade de criação de um cadastro obrigatório de imagens de pessoas indiciadas e acusadas, o que se mostra de constitucionalidade duvidosa ante o princípio da não autoincriminação. 

 

Lembre-se que o Supremo Tribunal Federal julgará Recurso Extraordinário com repercussão geral reconhecida de tema similar, que trata do cadastro obrigatório de dados do perfil genético (DNA) para condenados por crimes hediondos (RE nº 973.837/MG).

 

De outra sorte, a justificativa para utilização da tecnologia reside no combate à criminalidade, cujos índices no município de Praia Grande vem reduzindo a cada ano com a implementação de câmeras e recursos tecnológicos integrados. 

 

Nessa esteira, a Carta Magna institui a segurança como direito fundamental inviolável do ser humano (artigo 5º, caput) e direito social de todos (artigo 6º), sendo que a garantia e manutenção da segurança pública é dever do Estado, direito e responsabilidade de todos, devendo ser exercida à preservação da ordem pública e da incolumidade das pessoas e do patrimônio.

 

Especificamente, a Secretaria de Segurança Pública municipal alega redução no número de homicídios, roubos e furtos, crimes cujos bens jurídicos tutelados são amparados pela Constituição Federal na qualidade de direitos fundamentais invioláveis. 

 

Não à toa, a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) não se aplica quando o tratamento de dados pessoais for realizado para fins exclusivos de segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais (artigo 4º, inciso III, alíneas “a” a “d”).

 

Além do embate e sopesamento de cláusulas pétreas, outra questão que merece atenção diz respeito ao potencial discriminatório na identificação das pessoas por meio de algoritmos. 

 

De início, esse potencial exsurge da própria natureza da tecnologia que busca dezenas de pontos únicos na face, além de percepção de cores, luminosidade, contraste, profundidade, entre outras características a depender da complexidade do software e da qualidade das câmeras e do hardware no geral – é aí que entra a possibilidade da tecnologia, com capacidade de percepção inferior ao do olho humano, em reconhecer de maneira inadequada indivíduos com tom de pele mais escuro; um problema existente desde os primórdios da fotografia [2].

 

Porém, o problema vai além: em um sistema de automação, a máquina responderá de acordo com os dados que lhe são alimentados e os comandos pré-estabelecidos pelo seu programador.

 

É o caso da cidade de Ferguson, no estado do Missouri, Estados Unidos. Apesar dos afro-americanos corresponderem à 67% da população do município, 85% das paradas de trânsito efetuadas pela polícia de Ferguson se procederam - propositalmente - sobre cidadãos negros, e 91% dessas paradas resultaram em algum tipo de citação [3].

 

Quando o sistema físico é racista, o digital há de lhe refletir e seguir o mesmo caminho.

 

Já no caso de um sistema de inteligência artificial propriamente dito, no qual a máquina irá aprender e tomar decisões com o propósito de aprimorar e desenvolver suas próprias funções, o cenário passa a ser ainda mais preocupante, a depender da capacidade de interação e do espectro de aprendizagem do software. 

 

Por exemplo, em 2016 a Microsoft criou uma robô virtual para interagir nas redes sociais e se parecer com uma típica adolescente americana – o objetivo era justamente ver até onde a máquina poderia aprender com seres humanos. Apenas no Twitter, a robô publicou 96 mil tweets durante as 24 horas em que ficou ativa. 

Mesmo a robô tendo passado por uma curadoria prévia dos desenvolvedores, muitas dessas mensagens destilaram ódio, foram nitidamente racistas e, pasmem, fizeram apologia ao nazismo [4]; um reflexo ao conteúdo a qual foi exposta. 

 

Ao passo em que a máquina aprende com seres humanos, mas não é dotada de concepções éticas e morais, os resultados podem ser inesperados e até assustadores.

 

Verifica-se, portanto, que tecnologia de reconhecimento facial no combate e prevenção à criminalidade é uma realidade, mas, apesar de seus nobres motivos, está longe de ser o meio ideal em razão de suas atuais limitações. 


Devem, assim, os entes federados (União, Estados, Municípios e Distrito Federal) estar atentos à adequação de seus sistemas aos direitos fundamentais, às regras processuais-penais e, quando cabível, à recente - e recorrente - legislação que regula o uso da tecnologia e dados por empresas privadas e pela Administração Pública.

 

Por Wagner Lucas Rodrigues de Macedo, Marcos Ricardo Castilho Javarotti e Ana Carolina Barbosa Kiritschenko Site:
Opinião: tecnologia de reconhecimento facial e ... - ConJurhttps://www.conjur.com.br › 2019-ago-28 › opiniao-tecn..

 

 

Os créditos dos artigos estão no final do texto.
Enviado por José Kappel em 27/01/2022
Alterado em 07/02/2022


Comentários

Tela de Claude Monet
Site do Escritor criado por Recanto das Letras