Câmeras reafirmam racismo da polícia e violam privacidade
A suspensão na sexta-feira (2) de um pregão da gestão de Ricardo Nunes (MDB) na Prefeitura de São Paulo, expôs como a contratação de uma empresa que fornece câmeras e softwares de reconhecimento à cidade pode estar imensa em questões éticas que precisam ser discutidas com a sociedade. O projeto de monitoramento Smart Sampa significa um upgrade, um passo adiante, da vigilância e coleta de dados privados dos cidadãos pelos órgãos do governo municipal e estadual. Mas pode representar também melhorias no serviço público.
A licitação promete investir R$ 140 milhões para instalar 20 mil câmeras de reconhecimento facial na cidade até 2024. O que chamou a atenção de entidades e políticos, já no edital, foi que o documento previa que as câmeras iriam identificar o rosto das pessoas, a cor da pele e até “situações de vadiagem”. A Prefeitura prepara-se, agora, para reformular o edital, detalhando melhor o sistema e explicando as garantias à proteção das informações dos paulistanos.
Enquanto as câmeras do City Câmeras, consideradas obsoletas, apenas captam imagens, o sistema que integra as câmeras de reconhecimento facial conseguem identificar as pessoas que surgem na tela, cruzam informações extraídas de diferentes bases de dados sobre os cidadãos e podem emitir um alerta de ameaça de segurança pública. Além disso, o novo sistema permite gravar as imagens para consulta posterior, enquanto o sistema anterior apenas transmitia em tempo real.
A Comissão Extraordinária de Direitos Humanos e Cidadania da Câmara Municipal de São Paulo realizou, ainda no início de novembro, uma Audiência Pública para debater os problemas relativos ao Smart Sampa. O mandato do vereador Eduardo Suplicy (PT), reuniu agentes públicos envolvidos com a licitação, assim como representantes de entidades de pesquisa e proteção sobre proteção de dados.
Na ocasião, o pesquisador Luan Cruz, do Programa de Telecomunicações de Direitos Digitais do Idec (Instituto Brasileiro de Defesa do Consumidor), ressaltou que o projeto ignora falhas já conhecidas da tecnologia de reconhecimento facial. “As câmeras não reconhecem e não funcionam 100%. Ela pode reconhecer erroneamente uma pessoa, justamente as pessoas negras e mulheres negras, que são as que sofrem mais erro de reconhecimento”, disse o pesquisador, durante a audiência.
Após a audiência, os membros da Comissão Extraordinária de Direitos Humanos e Cidadania da Câmara se comprometeram a elaborar um requerimento solicitando à Prefeitura de SP informações sobre o andamento da implementação da plataforma, de estudos ou outras ações de monitoramento por câmeras e reconhecimento facial.
Big Brother da desigualdade social
O edital trazia, sem constrangimentos, afirmações das empresas sobre a qualidade de seu serviço prestado, que permitam o rastreio de “uma pessoa suspeita, monitorando todos os movimentos e atividades”. “A pesquisa deve ser feita por diferentes tipos de características como cor, face e outras características”.O monitoramento de suspeitos deve apontar situações de “vadiagem” e “tempo de permanência”.
A vadiagem está prevista na Lei de Contravenções Penais, que prevê prisão de 15 dias a três meses a quem se entregar “habitualmente à ociosidade, sendo válido para o trabalho, sem ter renda que lhe assegure meios bastantes de subsistência, ou prover a própria subsistência mediante ocupação ilícita”. Especialistas consideram esta legislação penal um ato discriminatório contra pessoas pobres e desempregadas, que diante da dificuldade de encontrar trabalho num país com taxas insuportáveis de desemprego, ainda está vulnerável ao encarceramento. A lei também pode ser aplicada a pessoas em situação de rua.
O edital também revela como os governos tratam com naturalidade políticas que vão se consolidando na sociedade, sem que ela tenha a dimensão plena de seus efeitos. As câmeras já estão espalhadas pela cidade, embora desarticuladas de uma política mais ampla de vigilância, como a que se pretende com o Smart Sampa.
No Metrô, administrado pelo Governo do Estado, as câmeras mais avançadas já funcionam plenamente, desde novembro, na linha que leva da Zona Leste para a Oeste, com 1.381 “olhos eletrônicos”, podendo chegar a 5.088 até 2024. Locais públicos de áreas nobres da cidade, como o Parque do Ibirapuera, também já contam com a tecnologia de vigilância. Até aqui, os próprios editais revelam que a vigilância visa a proteger apenas os bairros e equipamentos frequentados por populações mais abastadas, ignorando os problemas de segurança de áreas mais pobres da cidade.
Com o “obsoleto” City Câmeras, alguns servidores públicos privilegiados já podiam acompanhar um Big Brother do dia a dia da cidade. Como no reality show em que pessoas se submetem a serem vigiadas em sua intimidade numa casa para entretenimento televisivo, sem saber, milhões de cidadãos estão tendo sua rotina minuciosamente coletada para análise por máquinas inteligentes. Os privilegiados com controle sobre estes dados de pobres e ricos paulistanos, poderão fazer o que melhor lhe interessar com estas informações. Até telejornais costumam acessar estas imagens para eventuais reportagens.
Veja o debate do Núcleo de Estudos da Violência da USP, com Johanna Monagreda:
Dados íntimos para vender
A cada segundo do dia, o cidadão está produzindo dados sobre si para empresas e governos, online e offline. Toda vez que entra num ambiente filmado, toda vez que tem seu CPF solicitado, deixa sua impressão digital, apresenta um documento para entrar num edifício, participa de alguma conversa em aplicativos de mensagens, posta uma foto ou texto em perfis de redes sociais, quando usa o cartão de crédito, circula com um celular com GPS etc. Tudo isso produz informação privada, que se uma empresa com controle desses dados mostrasse ao cidadão tudo que sabe sobre ele, descobriria-se que sabe muito mais que o próprio indivíduo sobre si mesmo.
A cientista política Johanna Monagreda (UFMG) resgata em debate do Núcleo de Estudos da Violência da USP, de 31 de agosto, os riscos de implementação de tecnologias de controle preditivas. Ela menciona os mais óbvios, ligados a perda da privacidade, violação de dados e controle sobre preferências e intimidade. “Não existe transparência suficiente sobre como são coletados, compartilhados e tratados esses dados”, diz ela.
Todos os dados podem ser reunidos, cruzados, tratados e analisados para gerar perfis ideológicos e de personalidade. Desta etapa de coleta e análise, é possível avançar para a etapa de previsão de comportamentos políticos e mercadológicos, e alertar autoridades sobre algum risco e ameaça. É possível prever o que o indivíduo vai comprar na próxima semana, em quem pretende votar na próxima eleição e se vai participar, e como, de algum protesto ou greve. Esses dados coletados estão cada vez mais disponíveis para um lucrativo negócio de venda para empresas, agências de publicidade, partidos políticos, governos e instituições policiais, organizações criminosas, assim como quaisquer indivíduos capazes de pagar por eles.
Todo esse aparato de vigilância parece ser ótimo para quem acredita estar enquadrado na lei e nos padrões sociais esperados, e espera estar sendo protegido da bandidagem por este monitoramento tecnológico. O problema é que os parâmetros do que é correto, legal e aceitável para a polícia é flutuante e depende de fatores subjetivos individuais ou até coletivos que não são aceitáveis para parcelas da sociedade. A Indonésia acaba de considerar ilegal o sexo antes do casamento, o Irã mantinha uma polícia moral para humilhar mulheres com partes do cabelo ou da pele expostos, o Catar proíbe insígnias do arco-íris ou consumo de bebida alcoólica em público.
No Brasil, o racismo estrutural é frequentemente utilizado para considerar pessoas suspeitas, protestos contra governos e greves são criminalizados, o porte de maconha é ilegal, o fluxo de população de rua é perseguido e dispersado pela polícia, caso ocupe áreas indesejadas da cidade. Para citar apenas alguns fatores questionáveis considerados aceitáveis pela maioria em democracias como a nossa, sem mencionar o quanto dados do indivíduo podem ser comprados para usos ilícitos, sem sua autorização.
Johanna explica que a reprodução pelas máquinas dos vieses sociais, como racismo, sexismo e capacitismo, por exemplo. O aprendizado de máquinas por meio dos algoritmos, é um tipo de programação feito por pessoas específicas que, muitas vezes, nem se dão conta dos preconceitos que embutem nessa engenharia de programação. A identificação racial por essas câmeras destacando indivíduos como potenciais suspeitos, em detrimento de criminosos brancos, por exemplo, é uma dessas configurações elementares do sistema de câmeras, explicitado no próprio edital da Prefeitura. Isso que é visto como risco, no entanto, é apontado por alguns especialistas como programação proposital e direcionada para o racismo.
Ela explica que as câmeras já demonstraram que são imprecisas quando analisam rostos negros, em comparação com outras raças. O banco de dados utilizado para definir o algoritmo costuma incluir menos negros, por considerá-los todos semelhantes, enquanto brancos são diferentes. Dificuldades semelhantes ocorrem quando o sistema analisa pessoas com deficiências que não têm seu comportamento diferenciado “aprendido” pela máquina, assim como pessoas neuroatípicas.
“O banco de dados de rostos humanos utilizado é baseado em rostos de homens brancos de regiões muito específicas dos EUA, geralmente. Há uma sobrerepresentação de homens brancos no conjunto de dados que essas máquinas aprendem a ler e interpretar rostos humanos, produzindo algoritmos medíocres, incapazes de ler com precisão a diversidade da humanidade que não se encaixam nesse padrão de normalidade”, explica a pesquisadora. A situação vai piorar, diz ela, quando estes valores embutidos na tecnologia levarem-na a aprender a ser racista, sexista e capacitista, por exemplo.
“As pessoas negras são sub-representadas no sistema das máquinas, mas estão sobrerepresentadas no banco de dados de suspeitos. Com isso, se a pessoa é identificada pela câmera como tendo passagem pela polícia, ela vai ter ainda mais passagens pela polícia, porque se cria um ciclo de criminalização de sujeitos e territórios”, explica ela. Johanna ainda diz que não há qualquer evidência de que o combate à criminalidade melhora nessas áreas, mas o sistema apenas automatiza práticas padronizadas na polícia.
O pesquisador Luan Cruz também aponta na audiência da Câmara paulistana que um estudo recente realizado pelo projeto O Panóptico (Monitor de reconhecimento facial no Brasil), na cidade do Rio de Janeiro, revelou que os índices de roubos, furtos e homicídios não diminuíram com a implantação das câmeras. “No teste que foi feito no entorno do Estádio do Maracanã, das 11 pessoas que foram reconhecidas pelo sistema, sete foram reconhecidas de maneira errada”, afirmou.
Johanna cita o banco de dados do pesquisador de Inteligência Artificial, Tarcísio Silva, que notou que a máquina identifica um homem negro carregando um instrumento musical como um suspeito carregando uma arma, enquanto um homem branco na mesma situação é ignorado pelo sistema.
O conceito de “cidade inteligente” foi criado para justificar o complexo sistema de vigilância conectada. Por ele, cidades chinesas, por exemplo, conseguem garantir agilidade na maioria serviços públicos, como transporte urbano, atendimento em saúde, cultura, esporte e lazer, assim como zeladoria urbana. Mas o foco dos editais no Brasil é a Segurança Pública, afinal, uma tecnologia de reconhecimento facial tem utilidade principalmente para situações que demandam abordagem policial.
Durante a audiência na Câmara, a professora e pesquisadora em direito digital, Bianca Kremer, desafiou os agentes de segurança pública a apontar uma criança perdida que tenha sido localizada por estes sistemas de vigilância, já que, frequentemente, a defesa da implementação do sistema cita esta funcionalidade.
Veja a audiência pública na Câmara Municipal de São Paulo:
(por Cezar Xavier)