+55 (61) 9 7400-2446

Destaques

Uso de reconhecimento facial exige Lei específica dos estados

O uso de tecnologias automatizadas, especialmente aquelas que envolvem dados biométricos – das quais o reconhecimento facial é a mais notória – exige previsão legal específica. Apesar de anotação expressa na proposta de uma lei federal de proteção de dados para a esfera penal, mesmo sem ela os estados que vêm implementando esse tipo de ferramenta já precisariam contar com leis à respeito. Assim defende a professora, jurista especializada em proteção de dados e relatora da comissão que elaborou um anteprojeto de LGPD-Penal, Laura Schertel Mendes.

“À luz do direito posto, mesmo sem a aprovação do anteprojeto, temos que trazer as garantias constitucionais de presunção da inocência, a garantia do devido processo penal, o próprio direito fundamental à proteção de dados pessoais, e também o princípio da legalidade. Só isso já implica que não se pode usar o reconhecimento facial sem uma lei à respeito. Porque todas essas garantias que mencionei já trazem um dever de proteção do Estado. Isso implica que os estados que queiram usar essas tecnologias, mesmo sem a LGPD-Penal, precisam de uma lei, de uma autorização legal, com as garantias específicas”, afirmou a especialista ao participar, nesta quinta, 19/11, do 11º Seminário de Proteção à Privacidade e ao Dados Pessoais, promovido pelo Comitê Gestor da Internet.

O anteprojeto de LGPD-Penal traz exigências expressas de leis que respeitem as garantias constitucionais para o uso de ferramentas de reconhecimento facial. O que estressa a professora Laura Schertel é que pressupostos da legislação já vigente e decisões recentes do Supremo Tribunal Federal reforçam o cuidado legal no uso de tecnologias que podem implicar em restrições de liberdade. A questão é ainda mais significativa diante das sucessivas constatações de que as tecnologias de reconhecimento facial são especialmente falhas ao analisar rostos ‘não brancos’.

Como abordou no painel sobre segurança pública e proteção de dados, a previsão legal é necessária para revestir o uso da tecnologia das garantias constitucionais. “Garantias já largamente faladas, como garantias de não discriminação. A gente sabe que os algoritmos trazem muitos vieses no caso do reconhecimento facial, porque costumam reconhecer muito melhor homens brancos e trazem um grau de erro muito grande em relação a mulheres e negros. Então enviesamento, proteção anti-discriminação, correção do algoritmo, tudo isso precisa ser avaliado por qualquer legislação que venha a permitir o uso dessas tecnologias, mesmo em legislações estaduais”.

O anteprojeto de LGPD-Penal foi uma encomenda da Câmara dos Deputados a uma comissão de juristas como forma de atender à previsão de que a Lei Geral de Proteção de Dados (13.709/18) não se aplica às atividades de segurança pública e investigação criminal, que exigem legislação específica. Relatora desse trabalho, que foi entregue no início do mês à presidência da Câmara, Laura Schertel ressaltou que o uso e tratamento de dados relacionados à persecução criminal precisa se adaptar a uma realidade distinta daquela em que apenas dados considerados sigilosos mereceriam proteção.

“Talvez tenha feito sentido por muito tempo que só os dados sigilosos merecem proteção. Mas o que fica claro hoje, ao se avaliar todos os vestígios digitais, é que precisamos de uma proteção mais abrangente. No contexto do processamento eletrônico de dados, não existem mais dados insignificantes. A grande revolução da decisão do Supremo Tribunal Federal no julgamento sobre o uso de dados das operadoras de telecomunicações pelo IBGE é a ampliação da proteção constitucional. A ideia de que qualquer dado pessoal, definido como o que identifique ou possa identificar uma pessoa, merece proteção.”

Fonte: Convergência Digital

Próximos Eventos