Surveillance and public security: prejudices and social segregation widened by the alleged digital neutrality

Main Article Content

Pedro Fauth Manhães Miranda
http://orcid.org/0000-0002-0455-9974
Camila Berlim Schneider
http://orcid.org/0000-0003-2858-9622

Abstract

 


This article attends to demonstrate how the new algorithmic implementations, allegedly unbiased, accentuate discrimination and prejudice through the surveillance mechanisms. When personal information about the population is applied to the development of artificial intelligence technologies, in a society already marked by selectivity, the consequences can be catastrophic. The starting point is given by the analysis on surveillance, updated by Zygmunt Bauman, describing how the information society was shaped and gained the form it has today. Then, through a bibliographic review based on a deductive method, it is possible to observe that in countries where there is a permanent feeling of insecurity and racial discrimination has become institutionalized, the lack of transparent use of predictive algorithms, especially by criminal justice, causes negative effects on effectiveness of public policies, making more and more victims and accentuating disparities, instead of promoting security.

Metrics

Metrics Loading ...

Article Details

How to Cite
MIRANDA, P. F. M.; SCHNEIDER, C. B. Surveillance and public security: prejudices and social segregation widened by the alleged digital neutrality. Emancipação, Ponta Grossa - PR, Brasil., v. 20, p. 1–22, 2020. DOI: 10.5212/Emancipacao.v.20.2014258.022. Disponível em: https://revistas.uepg.br/index.php/emancipacao/article/view/14258. Acesso em: 24 aug. 2024.
Section
Artigos
Author Biographies

Pedro Fauth Manhães Miranda, Pontifícia Universidade Católica do Paraná - PUCPR / UNISECAL.

Doutorando em Direito na Pontifícia Universidade Católica do Paraná - PUCPR; Mestre em Ciências Sociais Aplicadas na Universidade Estadual de Ponta Grossa - UEPG; Graduado em Direito pela Universidade Estadual de Londrina - UEL; Graduando em Ciência Política pelo Centro Universitário Internacional - UNINTER. Professor de Direito no Centro Universitário Santa Amélia – UNISECAL. E-mail: pedromiranda.adv@gmail.com.

Camila Berlim Schneider, Centro Universitário Santa Amélia - UNISECAL

Graduanda em Direito pelo Centro Universitário Santa Amélia - UniSecal; Mestre em Engenharia e Ciência dos Materias pela Universidade Federal do Paraná - UFPR; Graduada em Física pela Universidade Federal do Paraná – UFPR. E-mail: camibs88@gmail.com.

 

References

BALDWIN-RAGAVEN, Laurel; LONDON, Lesley; DU GRUCHY, Jeanelle. An ambulance of the wrong colour: health professionals, human rights and ethics in South Africa. Juta and Company Limited. 1999, p.18,

BARROS, Carlos Juliano. Algoritmos das rede sociais promovem preconceito e desigualdade, diz matemática de Harvard. 24 de dezembro de 2017. Disponível em: <https://www.bbc.com/portuguese/geral-42398331>. Acesso em: 11 nov. 2018.

BAUMAN, Zygmunt. Modernidade e Ambivalência. Rio de Janeiro: Editora Jorge Zahar. 1999.

BAUMAN, Zygmunt. Vidas Desperdiçadas. Rio de Janeiro: Editora Jorge Zahar. 2005.

BAUMAN, Zygmunt. Vigilância Líquida. Rio de Janeiro: Editora Jorge Zahar. 2014.

BECKER, Howard Saul. Outsiders: estudos de sociologia do desvio. 1.ed., Rio de Janeiro: Jorge Zahar. 2008.

BENTHAM, Jeremy. O Panóptico. 2. Ed., Belo Horizonte: Autêntica Editora, 2008.

BIGO, Didier. Globalized (In)Security: The field and the Ban-Opticon. In: BIGO, Didier; TSOUKALA, Anastassia. Illiberal practices of liberal regimes: the (in)security games. Nova Iorque: Routledg, 2008. p.5-45.

BIGO, Didier. Security, exception, ban and surveillance. In: LYON, David (org.). Theorizing Surveillance: The panopticon and beyond. Portland: Willan Publishing, 2006. p.46-68.

BUOLAMWINI, Joy and GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018.

BURGESS, Matt. Facial recognition tech used by UK police is making a ton of mistakes: South Wales Police, London’s Met and Leicestershire have all been trialling automated facial recognition in public places. But a lack of legal oversight exists around the technology. 2018. Disponível em: <https://www.wired.co.uk/article/face-recognition-police-uk-south-wales-met-notting-hill-carnival>. Acesso em: 30 abr. 2019.

CASTELLS, Manuel. A Sociedade em Rede. 8.ed., Editora Paz e Terra, 1999.

CHAUÍ, Marilena de Sousa. Cultura e democracia: o discurso competente e outras falas. 2.ed., São Paulo: Editora Moderna, 1981.

COIMBRA, Cecília. OPERAÇÃO RIO: O mito das classes perigosas: um estudo sobre a violência urbana, a mídia impressa e os discursos de segurança pública. Rio de Janeiro: Oficina do Autor. 2001.

COSSINS, Daniel. Discriminating algorithms: 5 times AI showed prejudice: artificial intelligence is supposed to make life easier for us all - but it is also prone to amplify sexist and racist biases from the real world read more. 2018. Disponível em: <https://www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejudice/>. Acesso em: 10 jan. 2019.

DINIZ, Maria Helena. Compêndio de introdução à ciência do Direito. 20.ed. São Paulo: Editora Saraiva, 2009.DUPAS, Gilberto. Ética e Poder na Sociedade da Informação. 2.ed., São Paulo: Editora UNESP, 2001.

FOUCAULT, Michel. Vigiar e Punir: nascimento da prisão. 20.ed., Petrópolis: Editora Vozes, 1999.

HAN, Byung-Chul. Psicopolítica: o neoliberalismo e as novas técnicas de poder. Belo Horizonte: Editora Âyiné, 2018.

HOSIE, Robin. Memórias do Século XX: Vol. 1 – O Surgimento da Era Moderna. Rio de Janeiro: Reader’s Digest, 2004.

LEE, Dave. San Francisco is first US city to ban facial recognition. 2019. Disponível em: <https://www.bbc.com/news/technology-48276660>. Acesso em: 16 mai. 2019.LUM, Kristian. Predictive Policing Reinforces Police Bias. 10 de outubro de 2016. Disponível em: <https://hrdag.org/2016/10/10/predictive-policing-reinforces-police-bias/>. Acesso em: 10 jan. 2019.LYON, David. Surveillance Studies Centre. Disponível em: <http://www.sscqueens.org>. Acesso em: 11 nov. 2018.

LYON, David et al. Theorizing Surveillance: The panopticon and beyond. Portland: Willan Publishing, 2006.

MARCOLINI, Barbara. David Lyon, sociólogo: ‘A vigilância hoje é parte de nós’. 13 de maio de 2015. Disponível em: <https://oglobo.globo.com/sociedade/conte-algo-que-nao-sei/david-lyon-sociologo-vigilancia-hoje-parte-de-nos-16143232>. Acesso em: 11 nov. 2018.

ONU/BR. Brasil é o quarto país com mais usuários de Internet do mundo, diz relatório da ONU. 03 outubro de 2017. Disponível em: <https://nacoesunidas.org/brasil-e-o-quarto-pais-com-mais-usuarios-de-internet-do-mundo-diz-relatorio-da-onu/>. Acesso em: 11 nov. 2018.

O’NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.

ORWELL, Geroge. 1984. 36.ed., São Paulo: Companhia das Letras, 2017.

PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Trad. Diego Alfaro. Rio de Janeiro: Zahar, 2012.

PMERJ. Polícia Militar vai implantar programa de reconhecimento facial e de placas de veículos. 2019. Disponível em: <http://www.pmerj.rj.gov.br/2019/01/policia-militar-vai-implantar-programa-de-reconhecimento-facial-e-de-placa-de-veiculos/>. Acesso em: 30 abr. 2019.

PROPUBLICA. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. 26 de maio de 2016. Disponível em: <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>. Acesso em: 15 nov. 2018.

RIO, G1. Sistema de reconhecimento facial da PM do RJ falha, e mulher é detida por engano: Secretaria reconheceu o erro e lamentou o fato. Segundo a corporação, a pessoa foi levada para a delegacia, onde foi confirmado que não se tratava da criminosa procurada.. 2019. Disponível em: <https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml>. Acesso em: 29 jul. 2019.

SCHELLING, Thomas C.. Models of segregation, The American Economic Review, Washington, v. 59, n. 2, 1969, p.488-493.

SCURO NETO, Pedro. Sociologia Geral e Jurídica, 7. ed. São Paulo: Saraiva, 2010.

SMITH, Brad. Reconhecimento facial: é hora de agir. 2018. Disponível em: <https://news.microsoft.com/pt-br/reconhecimento-facial-e-hora-de-agir/>. Acesso em: 2 mai. 2019.

SMITH, Megan; PATIL, Dj; MUÑOZ, Cecilia. Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights. 04 de maio de 2016. Disponível em: <https://obamawhitehouse.archives.gov/blog/2016/05/04/big-risks-big-opportunities-intersection-big-data-and-civil-rights>. Acesso em: 9 jan. 2019.

SSP-SP. Secretaria da Segurança Pública de São Paulo. Ações de Segurança: Mapa de crimes. 17 de abril de 2014. Disponível em: <http://www.ssp.sp.gov.br/acoes/leAcoes.aspx?id=33833>. Acesso em: 15 fev. 2019.

THE SENTENCING PROJECT. About The Sentencing Project. 1986. Disponível em: <https://www.sentencingproject.org/about-us/>. Acesso em: 07 jan. 2019.

THE SENTENCING PROJECT. Shadow Report to the United Nations on Racial Disparities in the United States Criminal Justice System. 2013.Disponível em: <https://www.sentencingproject.org/publications/shadow-report-to-the-united-nations-human-rights-committee-regarding-racial-disparities-in-the-united-states-criminal-justice-system/>.Acesso em: 07 jan. 2019.

VIANNA, Túlio Lima. Transparência Pública, Opacidade Privada: O Direito como instrumento de limitação do poder na sociedade de controle. Rio de Janeiro: Editora Revan, 2007.

VIEIRA, Tatiana Malta. O Direito à privacidade na sociedade da informação: efetividade desse direito fundamental diante dos avanços da tecnologia da informação. Porto Alegre: Sergio Antônio Fabris Editor, 2007.

WPB. World Prison Brief data: United States of America. Disponível em: <http://www.prisonstudies.org/highest-to-lowest/prison-population-total?field_region_taxonomy_tid=All>. 2014. Acesso em: 7 jan. 2019.

YANARDAG, Pinar; CEBRIAN, Manuel; RAHWAN, Iyad. Norman, world’s first psychopath AI. Abril de 2018. Disponível em: <http://norman-ai.mit.edu>. Acesso em: 11 nov. 2018.