Vigilância e segurança pública: preconceitos e segregação social ampliados pela suposta neutralidade digital

Conteúdo do artigo principal

Pedro Fauth Manhães Miranda
http://orcid.org/0000-0002-0455-9974
Camila Berlim Schneider
http://orcid.org/0000-0003-2858-9622

Resumo

O presente artigo busca demonstrar como as novas implementações algorítmicas, alegadamente imparciais, acentuam a discriminação e os preconceitos por meio de mecanismos de vigilância. Quando as informações pessoais sobre a população são aplicadas no desenvolvimento de tecnologias de inteligência artificial, em uma sociedade já marcada pela seletividade, as consequências podem ser catastróficas. O ponto de partida é dado pela análise sobre vigilância, atualizada por Zygmunt Bauman, descrevendo como a sociedade da informação se delineou e ganhou a forma que possui hoje. Na sequência, por meio de revisão bibliográfica consubstanciada via método dedutivo, é possível observar que em países onde há permanente sensação de insegurança e a discriminação racial se institucionalizou, o uso pouco transparente de algoritmos preditivos, em especial pela justiça criminal, provoca efeitos negativos na eficácia das políticas públicas, fazendo cada vez mais vítimas e acentuando disparidades, ao invés de promover segurança.

Métricas

Carregando Métricas ...

Detalhes do artigo

Como Citar
MIRANDA, P. F. M.; SCHNEIDER, C. B. Vigilância e segurança pública: preconceitos e segregação social ampliados pela suposta neutralidade digital . Emancipação, Ponta Grossa - PR, Brasil., v. 20, p. 1–22, 2020. DOI: 10.5212/Emancipacao.v.20.2014258.022. Disponível em: https://revistas.uepg.br/index.php/emancipacao/article/view/14258. Acesso em: 21 nov. 2024.
Seção
Artigos
Biografia do Autor

Pedro Fauth Manhães Miranda, Pontifícia Universidade Católica do Paraná - PUCPR / UNISECAL.

Doutorando em Direito na Pontifícia Universidade Católica do Paraná - PUCPR; Mestre em Ciências Sociais Aplicadas na Universidade Estadual de Ponta Grossa - UEPG; Graduado em Direito pela Universidade Estadual de Londrina - UEL; Graduando em Ciência Política pelo Centro Universitário Internacional - UNINTER. Professor de Direito no Centro Universitário Santa Amélia – UNISECAL. E-mail: pedromiranda.adv@gmail.com.

Camila Berlim Schneider, Centro Universitário Santa Amélia - UNISECAL

Graduanda em Direito pelo Centro Universitário Santa Amélia - UniSecal; Mestre em Engenharia e Ciência dos Materias pela Universidade Federal do Paraná - UFPR; Graduada em Física pela Universidade Federal do Paraná – UFPR. E-mail: camibs88@gmail.com.

 

Referências

BALDWIN-RAGAVEN, Laurel; LONDON, Lesley; DU GRUCHY, Jeanelle. An ambulance of the wrong colour: health professionals, human rights and ethics in South Africa. Juta and Company Limited. 1999, p.18,

BARROS, Carlos Juliano. Algoritmos das rede sociais promovem preconceito e desigualdade, diz matemática de Harvard. 24 de dezembro de 2017. Disponível em: <https://www.bbc.com/portuguese/geral-42398331>. Acesso em: 11 nov. 2018.

BAUMAN, Zygmunt. Modernidade e Ambivalência. Rio de Janeiro: Editora Jorge Zahar. 1999.

BAUMAN, Zygmunt. Vidas Desperdiçadas. Rio de Janeiro: Editora Jorge Zahar. 2005.

BAUMAN, Zygmunt. Vigilância Líquida. Rio de Janeiro: Editora Jorge Zahar. 2014.

BECKER, Howard Saul. Outsiders: estudos de sociologia do desvio. 1.ed., Rio de Janeiro: Jorge Zahar. 2008.

BENTHAM, Jeremy. O Panóptico. 2. Ed., Belo Horizonte: Autêntica Editora, 2008.

BIGO, Didier. Globalized (In)Security: The field and the Ban-Opticon. In: BIGO, Didier; TSOUKALA, Anastassia. Illiberal practices of liberal regimes: the (in)security games. Nova Iorque: Routledg, 2008. p.5-45.

BIGO, Didier. Security, exception, ban and surveillance. In: LYON, David (org.). Theorizing Surveillance: The panopticon and beyond. Portland: Willan Publishing, 2006. p.46-68.

BUOLAMWINI, Joy and GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018.

BURGESS, Matt. Facial recognition tech used by UK police is making a ton of mistakes: South Wales Police, London’s Met and Leicestershire have all been trialling automated facial recognition in public places. But a lack of legal oversight exists around the technology. 2018. Disponível em: <https://www.wired.co.uk/article/face-recognition-police-uk-south-wales-met-notting-hill-carnival>. Acesso em: 30 abr. 2019.

CASTELLS, Manuel. A Sociedade em Rede. 8.ed., Editora Paz e Terra, 1999.

CHAUÍ, Marilena de Sousa. Cultura e democracia: o discurso competente e outras falas. 2.ed., São Paulo: Editora Moderna, 1981.

COIMBRA, Cecília. OPERAÇÃO RIO: O mito das classes perigosas: um estudo sobre a violência urbana, a mídia impressa e os discursos de segurança pública. Rio de Janeiro: Oficina do Autor. 2001.

COSSINS, Daniel. Discriminating algorithms: 5 times AI showed prejudice: artificial intelligence is supposed to make life easier for us all - but it is also prone to amplify sexist and racist biases from the real world read more. 2018. Disponível em: <https://www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejudice/>. Acesso em: 10 jan. 2019.

DINIZ, Maria Helena. Compêndio de introdução à ciência do Direito. 20.ed. São Paulo: Editora Saraiva, 2009.DUPAS, Gilberto. Ética e Poder na Sociedade da Informação. 2.ed., São Paulo: Editora UNESP, 2001.

FOUCAULT, Michel. Vigiar e Punir: nascimento da prisão. 20.ed., Petrópolis: Editora Vozes, 1999.

HAN, Byung-Chul. Psicopolítica: o neoliberalismo e as novas técnicas de poder. Belo Horizonte: Editora Âyiné, 2018.

HOSIE, Robin. Memórias do Século XX: Vol. 1 – O Surgimento da Era Moderna. Rio de Janeiro: Reader’s Digest, 2004.

LEE, Dave. San Francisco is first US city to ban facial recognition. 2019. Disponível em: <https://www.bbc.com/news/technology-48276660>. Acesso em: 16 mai. 2019.LUM, Kristian. Predictive Policing Reinforces Police Bias. 10 de outubro de 2016. Disponível em: <https://hrdag.org/2016/10/10/predictive-policing-reinforces-police-bias/>. Acesso em: 10 jan. 2019.LYON, David. Surveillance Studies Centre. Disponível em: <http://www.sscqueens.org>. Acesso em: 11 nov. 2018.

LYON, David et al. Theorizing Surveillance: The panopticon and beyond. Portland: Willan Publishing, 2006.

MARCOLINI, Barbara. David Lyon, sociólogo: ‘A vigilância hoje é parte de nós’. 13 de maio de 2015. Disponível em: <https://oglobo.globo.com/sociedade/conte-algo-que-nao-sei/david-lyon-sociologo-vigilancia-hoje-parte-de-nos-16143232>. Acesso em: 11 nov. 2018.

ONU/BR. Brasil é o quarto país com mais usuários de Internet do mundo, diz relatório da ONU. 03 outubro de 2017. Disponível em: <https://nacoesunidas.org/brasil-e-o-quarto-pais-com-mais-usuarios-de-internet-do-mundo-diz-relatorio-da-onu/>. Acesso em: 11 nov. 2018.

O’NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.

ORWELL, Geroge. 1984. 36.ed., São Paulo: Companhia das Letras, 2017.

PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Trad. Diego Alfaro. Rio de Janeiro: Zahar, 2012.

PMERJ. Polícia Militar vai implantar programa de reconhecimento facial e de placas de veículos. 2019. Disponível em: <http://www.pmerj.rj.gov.br/2019/01/policia-militar-vai-implantar-programa-de-reconhecimento-facial-e-de-placa-de-veiculos/>. Acesso em: 30 abr. 2019.

PROPUBLICA. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. 26 de maio de 2016. Disponível em: <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>. Acesso em: 15 nov. 2018.

RIO, G1. Sistema de reconhecimento facial da PM do RJ falha, e mulher é detida por engano: Secretaria reconheceu o erro e lamentou o fato. Segundo a corporação, a pessoa foi levada para a delegacia, onde foi confirmado que não se tratava da criminosa procurada.. 2019. Disponível em: <https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml>. Acesso em: 29 jul. 2019.

SCHELLING, Thomas C.. Models of segregation, The American Economic Review, Washington, v. 59, n. 2, 1969, p.488-493.

SCURO NETO, Pedro. Sociologia Geral e Jurídica, 7. ed. São Paulo: Saraiva, 2010.

SMITH, Brad. Reconhecimento facial: é hora de agir. 2018. Disponível em: <https://news.microsoft.com/pt-br/reconhecimento-facial-e-hora-de-agir/>. Acesso em: 2 mai. 2019.

SMITH, Megan; PATIL, Dj; MUÑOZ, Cecilia. Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights. 04 de maio de 2016. Disponível em: <https://obamawhitehouse.archives.gov/blog/2016/05/04/big-risks-big-opportunities-intersection-big-data-and-civil-rights>. Acesso em: 9 jan. 2019.

SSP-SP. Secretaria da Segurança Pública de São Paulo. Ações de Segurança: Mapa de crimes. 17 de abril de 2014. Disponível em: <http://www.ssp.sp.gov.br/acoes/leAcoes.aspx?id=33833>. Acesso em: 15 fev. 2019.

THE SENTENCING PROJECT. About The Sentencing Project. 1986. Disponível em: <https://www.sentencingproject.org/about-us/>. Acesso em: 07 jan. 2019.

THE SENTENCING PROJECT. Shadow Report to the United Nations on Racial Disparities in the United States Criminal Justice System. 2013.Disponível em: <https://www.sentencingproject.org/publications/shadow-report-to-the-united-nations-human-rights-committee-regarding-racial-disparities-in-the-united-states-criminal-justice-system/>.Acesso em: 07 jan. 2019.

VIANNA, Túlio Lima. Transparência Pública, Opacidade Privada: O Direito como instrumento de limitação do poder na sociedade de controle. Rio de Janeiro: Editora Revan, 2007.

VIEIRA, Tatiana Malta. O Direito à privacidade na sociedade da informação: efetividade desse direito fundamental diante dos avanços da tecnologia da informação. Porto Alegre: Sergio Antônio Fabris Editor, 2007.

WPB. World Prison Brief data: United States of America. Disponível em: <http://www.prisonstudies.org/highest-to-lowest/prison-population-total?field_region_taxonomy_tid=All>. 2014. Acesso em: 7 jan. 2019.

YANARDAG, Pinar; CEBRIAN, Manuel; RAHWAN, Iyad. Norman, world’s first psychopath AI. Abril de 2018. Disponível em: <http://norman-ai.mit.edu>. Acesso em: 11 nov. 2018.