Tecnologias antirreconhecimento facial aquecem os debates sobre segurança e privacidade

26 de outubro de 2020
Want create site? Find Free WordPress Themes and plugins.

O debate em torno da proteção de dados e da privacidade ganhou em agosto um novo ingrediente. Pesquisadores da Universidade de Chicago, nos Estados Unidos, anunciaram o desenvolvimento de um software para ludibriar o reconhecimento facial em fotos – recurso de identificação já utilizado, por exemplo, em redes sociais.

A ferramenta foi batizada de Fawkes, em alusão ao inglês Guy Fawkes (1570-1606), revolucionário que inspirou a criação da máscara mostrada na série de quadrinhos/filme V de Vingança e adotada por manifestantes em todo o mundo. Versões do software para Windows e Mac, disponibilizadas no site do projeto, bateram mais de 175 mil downloads em poucos dias.

Basicamente, o Fawkes trabalha aplicando mudanças sutis em fotos, em nível de pixels, “confundindo” inteligências artificiais e algoritmos. As mudanças geralmente combinam algumas características faciais do usuário do programa com as de rostos de celebridades mantidas em um banco de imagens, e identificadas pelo algoritmo como suficientes para enganar os sistemas de reconhecimento facial.

Um teste efetuado pela reportagem de Security verificou que a tecnologia é eficaz. Além de o retrato manipulado pelo Fawkes apresentar modificações quase imperceptíveis em relação ao original, o Facebook não conseguiu identificar e “marcar” corretamente a pessoa por meio de seu algoritmo. De acordo com os pesquisadores, o Fawkes também conseguiu tapear os sistemas de reconhecimento facial da Microsoft, da Amazon e da empresa chinesa de tecnologia Megvii.

A garantia da privacidade das pessoas foi a principal motivação da criação do Fawkes. O site do projeto aponta como estopim a divulgação das atividades da startup americana Clearview AI. Segundo notícias, a empresa coletou mais de 3 bilhões de fotos espalhadas pela internet para a formação de um repositório de dados que, cruzado a contas do Facebook, revelaria a identidade de pessoas e ajudaria investigações policiais.

“O nosso objetivo é fazer com que a Clearview desapareça”, afirmou Ben Zhao, professor de ciência da computação na Universidade de Chicago, a uma reportagem sobre o Fawkes no jornal americano The New York Times.

Vale destacar que o Fawkes não é o primeiro e provavelmente não será o último esforço em termos de contratecnologias ao reconhecimento facial. “Existe um contexto amplo de contestação desses sistemas, e as técnicas de ofuscação são uma pauta forte do ativismo de privacidade. A ideia é a de que não basta uma contenção por leis, mas também por intervenções tecnológicas”, situa Rafael Zanatta, diretor da Data Privacy Brasil, organização que reúne uma ONG de proteção de dados e uma divisão de ensino sobre o tema. “Os softwares são os recursos mais avançados. Mas são crescentes, na internet e em eventos, as discussões sobre técnicas de maquiagem e disfarces com acessórios capazes de embaraçar processos de análise vetorial do rosto humano”.

Hoje, o reconhecimento facial encontra dois usos principais. O primeiro é em sistemas de autenticação, para verificação da identidade, confirmação da legitimidade de documentos e, consequentemente, prevenção contra fraudes. Essa é uma vertente respaldada pelo artigo 11 da Lei Geral de Proteção de Dados (LGPD) e que, portanto, deve seguir em progresso, avalia Zanatta. O outro campo de aplicação, o da segurança pública, é envolto em muita controvérsia.

Não são poucas as pessoas contrárias à vigilância por meio de sistemas de reconhecimento facial, já utilizados em dezenas de cidades brasileiras e em estudo por diversas outras. A principal alegação dos opositores é de que a tecnologia é invasiva e opressora, além de ter eficiência questionável, podendo deflagrar injustiças. Estudos internacionais verificaram, por exemplo, falsos positivos em aproximadamente 95% das análises faciais de pessoas negras.

“Em um país de desigualdade estrutural como o Brasil, é óbvio que precisamos ter muito cuidado na aplicação desses dispositivos”, pondera Zanatta, apontando os problemas recentemente ocorridos no Rio: blitze policiais auxiliadas por catálogos de fotos de procurados e foragidos provocaram prisões por engano.

Para o especialista da Data Privacy Brasil, será necessário estabelecer códigos legais para o uso do recurso, com uma possibilidade sendo o uso regrado: sempre a partir de justificativas plausíveis e permissões judiciais, com duração/alcance limitados e incluindo a elaboração de relatórios posteriores de impacto em direitos civis. A LGPD não traça claramente regras para o reconhecimento facial, mas isso não é uma lacuna. “Não se trata de uma falha, porque a LGPD não deve tratar de um problema setorial específico. Essa é uma demanda para outros projetos, como os Projetos de Lei sobre segurança pública e proteção de dados pessoais em elaboração ou tramitação no Congresso ou em âmbitos estaduais”, esclarece Zanatta.

Em certos países, como nos Estados Unidos, existem regulamentações estaduais e municipais sobre o uso do reconhecimento facial. No Reino Unido não há consenso, mas o caso Ed Bridges, de 2019 – em que a Justiça deu ganho de causa a um ativista que contestou o uso da tecnologia em praças públicas – promete frear o avanço das implantações em aparatos de monitoramento. Diante das contestações e das polêmicas, colossos como Amazon, IBM e Microsoft anunciaram recuos em projetos ligados ao tema.

A China, contudo, segue a contramão. Naquele país, onde há uma cultura forte de vigilância, com menor objeção da população, a detecção facial segue a pleno vapor. Conforme diversas reportagens na TV e na internet mostraram, o uso de soluções do gênero se intensificou na pandemia, para repressão de quem descumpria a quarentena ou para a verificação da temperatura corporal de transeuntes.

Mas, além da adoção em sistemas de segurança e ordem pública, outro eixo preocupa os defensores da privacidade: o uso comercial. No final de agosto, a partir de uma denúncia do Idec (Instituto de Defesa do Consumidor), a Senacon (Secretaria Nacional do Consumidor) aplicou uma multa à Hering. Motivo: a empresa de moda utilizou reconhecimento facial numa loja em São Paulo para captar reações dos consumidores, sem que eles soubessem. Foi a primeira condenação no Brasil por violação de direitos no uso de reconhecimento facial.

“O recado é claro: as empresas precisam avisar ao consumidor desse tipo de iniciativa, para não violarem o princípio da transparência. É preciso cuidado com segurança da informação e boa fé”, ressalta Zanatta. Para ele, a tendência é de que daqui para frente se consolide um cenário de ações e reações nos moldes do que acontece com os vírus e antivírus digitais.

Quanto às propostas como o Fawkes, tudo leva a crer numa popularização, por meio de aplicativos para smartphones ou filtros de fácil aplicação em redes como o Instagram. “Imagine essas técnicas de ofuscação sendo ensinadas por influenciadores no YouTube, por exemplo. A viralização será rápida, e a vida das companhias e startups envolvidas com reconhecimento facial não será nada fácil”, supõe o especialista.

 

FONTE:
SECURITY

Did you find apk for android? You can find new Free Android Games and apps.

A Cipa Fiera Milano é especializada em feiras de negócios e publicações técnicas e tem como objetivo, aproximar organizações e criar oportunidades de relacionamentos, por meio da realização de grandes feiras e publicação de revistas setorizadas na América Latina.

Receba Nossa Newsletter

Seu nome completo

Seu e-mail

Sim, eu quero receber comunicações do Grupo Cipa Fiera Milano
Sim, eu quero receber comunicações dos parceiros do Grupo Cipa Fiera Milano
Sim, eu concordo com os termos de uso e com a Política de Privacidade do Grupo Cipa Fiera Milano

Fale Conosco

Avenida Angélica, 2491 – 20 andar – Cj. 204

Telefone:
+55 11 5585.4355
+55 11 3159-1010

E-mail: info@fieramilano.com.br

Website: www.cipafieramilano.com.br

Copyright by Exposec 2020. All Rights Reserved.