Vigilância e segurança pública: preconceitos e segregação social ampliados pela suposta neutralidade digital
Conteúdo do artigo principal
Resumo
O presente artigo busca demonstrar como as novas implementações algorítmicas, alegadamente imparciais, acentuam a discriminação e os preconceitos por meio de mecanismos de vigilância. Quando as informações pessoais sobre a população são aplicadas no desenvolvimento de tecnologias de inteligência artificial, em uma sociedade já marcada pela seletividade, as consequências podem ser catastróficas. O ponto de partida é dado pela análise sobre vigilância, atualizada por Zygmunt Bauman, descrevendo como a sociedade da informação se delineou e ganhou a forma que possui hoje. Na sequência, por meio de revisão bibliográfica consubstanciada via método dedutivo, é possível observar que em países onde há permanente sensação de insegurança e a discriminação racial se institucionalizou, o uso pouco transparente de algoritmos preditivos, em especial pela justiça criminal, provoca efeitos negativos na eficácia das políticas públicas, fazendo cada vez mais vítimas e acentuando disparidades, ao invés de promover segurança.
Métricas
Detalhes do artigo
Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Autores que publicam nesta revista concordam com os seguintes termos:
a) Os autores mantém os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Creative Commons Attribution License (https://creativecommons.org/licenses/by/4.0/deed.pt_BR) que permite o compartilhamento do trabalho com reconhecimento da sua autoria e publicação inicial nesta revista.
b) Esta revista proporciona acesso público a todo o seu conteúdo, uma vez que isso permite uma maior visibilidade e alcance dos artigos e resenhas publicados. Para maiores informações sobre esta abordagem, visite Public Knowledge Project, projeto que desenvolveu este sistema para melhorar a qualidade acadêmica e pública da pesquisa, distribuindo o OJS assim como outros softwares de apoio ao sistema de publicação de acesso público a fontes acadêmicas. Os nomes e endereços de e-mail neste site serão usados exclusivamente para os propósitos da revista, não estando disponíveis para outros fins.
This journal provides open any other party.
Esta obra está licenciada sob uma Licença Creative Commons.
https://creativecommons.org/licenses/by/4.0/deed.pt_BR.
Referências
BALDWIN-RAGAVEN, Laurel; LONDON, Lesley; DU GRUCHY, Jeanelle. An ambulance of the wrong colour: health professionals, human rights and ethics in South Africa. Juta and Company Limited. 1999, p.18,
BARROS, Carlos Juliano. Algoritmos das rede sociais promovem preconceito e desigualdade, diz matemática de Harvard. 24 de dezembro de 2017. Disponível em: <https://www.bbc.com/portuguese/geral-42398331>. Acesso em: 11 nov. 2018.
BAUMAN, Zygmunt. Modernidade e Ambivalência. Rio de Janeiro: Editora Jorge Zahar. 1999.
BAUMAN, Zygmunt. Vidas Desperdiçadas. Rio de Janeiro: Editora Jorge Zahar. 2005.
BAUMAN, Zygmunt. Vigilância Líquida. Rio de Janeiro: Editora Jorge Zahar. 2014.
BECKER, Howard Saul. Outsiders: estudos de sociologia do desvio. 1.ed., Rio de Janeiro: Jorge Zahar. 2008.
BENTHAM, Jeremy. O Panóptico. 2. Ed., Belo Horizonte: Autêntica Editora, 2008.
BIGO, Didier. Globalized (In)Security: The field and the Ban-Opticon. In: BIGO, Didier; TSOUKALA, Anastassia. Illiberal practices of liberal regimes: the (in)security games. Nova Iorque: Routledg, 2008. p.5-45.
BIGO, Didier. Security, exception, ban and surveillance. In: LYON, David (org.). Theorizing Surveillance: The panopticon and beyond. Portland: Willan Publishing, 2006. p.46-68.
BUOLAMWINI, Joy and GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018.
BURGESS, Matt. Facial recognition tech used by UK police is making a ton of mistakes: South Wales Police, London’s Met and Leicestershire have all been trialling automated facial recognition in public places. But a lack of legal oversight exists around the technology. 2018. Disponível em: <https://www.wired.co.uk/article/face-recognition-police-uk-south-wales-met-notting-hill-carnival>. Acesso em: 30 abr. 2019.
CASTELLS, Manuel. A Sociedade em Rede. 8.ed., Editora Paz e Terra, 1999.
CHAUÍ, Marilena de Sousa. Cultura e democracia: o discurso competente e outras falas. 2.ed., São Paulo: Editora Moderna, 1981.
COIMBRA, Cecília. OPERAÇÃO RIO: O mito das classes perigosas: um estudo sobre a violência urbana, a mídia impressa e os discursos de segurança pública. Rio de Janeiro: Oficina do Autor. 2001.
COSSINS, Daniel. Discriminating algorithms: 5 times AI showed prejudice: artificial intelligence is supposed to make life easier for us all - but it is also prone to amplify sexist and racist biases from the real world read more. 2018. Disponível em: <https://www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejudice/>. Acesso em: 10 jan. 2019.
DINIZ, Maria Helena. Compêndio de introdução à ciência do Direito. 20.ed. São Paulo: Editora Saraiva, 2009.DUPAS, Gilberto. Ética e Poder na Sociedade da Informação. 2.ed., São Paulo: Editora UNESP, 2001.
FOUCAULT, Michel. Vigiar e Punir: nascimento da prisão. 20.ed., Petrópolis: Editora Vozes, 1999.
HAN, Byung-Chul. Psicopolítica: o neoliberalismo e as novas técnicas de poder. Belo Horizonte: Editora Âyiné, 2018.
HOSIE, Robin. Memórias do Século XX: Vol. 1 – O Surgimento da Era Moderna. Rio de Janeiro: Reader’s Digest, 2004.
LEE, Dave. San Francisco is first US city to ban facial recognition. 2019. Disponível em: <https://www.bbc.com/news/technology-48276660>. Acesso em: 16 mai. 2019.LUM, Kristian. Predictive Policing Reinforces Police Bias. 10 de outubro de 2016. Disponível em: <https://hrdag.org/2016/10/10/predictive-policing-reinforces-police-bias/>. Acesso em: 10 jan. 2019.LYON, David. Surveillance Studies Centre. Disponível em: <http://www.sscqueens.org>. Acesso em: 11 nov. 2018.
LYON, David et al. Theorizing Surveillance: The panopticon and beyond. Portland: Willan Publishing, 2006.
MARCOLINI, Barbara. David Lyon, sociólogo: ‘A vigilância hoje é parte de nós’. 13 de maio de 2015. Disponível em: <https://oglobo.globo.com/sociedade/conte-algo-que-nao-sei/david-lyon-sociologo-vigilancia-hoje-parte-de-nos-16143232>. Acesso em: 11 nov. 2018.
ONU/BR. Brasil é o quarto país com mais usuários de Internet do mundo, diz relatório da ONU. 03 outubro de 2017. Disponível em: <https://nacoesunidas.org/brasil-e-o-quarto-pais-com-mais-usuarios-de-internet-do-mundo-diz-relatorio-da-onu/>. Acesso em: 11 nov. 2018.
O’NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.
ORWELL, Geroge. 1984. 36.ed., São Paulo: Companhia das Letras, 2017.
PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Trad. Diego Alfaro. Rio de Janeiro: Zahar, 2012.
PMERJ. Polícia Militar vai implantar programa de reconhecimento facial e de placas de veículos. 2019. Disponível em: <http://www.pmerj.rj.gov.br/2019/01/policia-militar-vai-implantar-programa-de-reconhecimento-facial-e-de-placa-de-veiculos/>. Acesso em: 30 abr. 2019.
PROPUBLICA. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. 26 de maio de 2016. Disponível em: <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>. Acesso em: 15 nov. 2018.
RIO, G1. Sistema de reconhecimento facial da PM do RJ falha, e mulher é detida por engano: Secretaria reconheceu o erro e lamentou o fato. Segundo a corporação, a pessoa foi levada para a delegacia, onde foi confirmado que não se tratava da criminosa procurada.. 2019. Disponível em: <https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml>. Acesso em: 29 jul. 2019.
SCHELLING, Thomas C.. Models of segregation, The American Economic Review, Washington, v. 59, n. 2, 1969, p.488-493.
SCURO NETO, Pedro. Sociologia Geral e Jurídica, 7. ed. São Paulo: Saraiva, 2010.
SMITH, Brad. Reconhecimento facial: é hora de agir. 2018. Disponível em: <https://news.microsoft.com/pt-br/reconhecimento-facial-e-hora-de-agir/>. Acesso em: 2 mai. 2019.
SMITH, Megan; PATIL, Dj; MUÑOZ, Cecilia. Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights. 04 de maio de 2016. Disponível em: <https://obamawhitehouse.archives.gov/blog/2016/05/04/big-risks-big-opportunities-intersection-big-data-and-civil-rights>. Acesso em: 9 jan. 2019.
SSP-SP. Secretaria da Segurança Pública de São Paulo. Ações de Segurança: Mapa de crimes. 17 de abril de 2014. Disponível em: <http://www.ssp.sp.gov.br/acoes/leAcoes.aspx?id=33833>. Acesso em: 15 fev. 2019.
THE SENTENCING PROJECT. About The Sentencing Project. 1986. Disponível em: <https://www.sentencingproject.org/about-us/>. Acesso em: 07 jan. 2019.
THE SENTENCING PROJECT. Shadow Report to the United Nations on Racial Disparities in the United States Criminal Justice System. 2013.Disponível em: <https://www.sentencingproject.org/publications/shadow-report-to-the-united-nations-human-rights-committee-regarding-racial-disparities-in-the-united-states-criminal-justice-system/>.Acesso em: 07 jan. 2019.
VIANNA, Túlio Lima. Transparência Pública, Opacidade Privada: O Direito como instrumento de limitação do poder na sociedade de controle. Rio de Janeiro: Editora Revan, 2007.
VIEIRA, Tatiana Malta. O Direito à privacidade na sociedade da informação: efetividade desse direito fundamental diante dos avanços da tecnologia da informação. Porto Alegre: Sergio Antônio Fabris Editor, 2007.
WPB. World Prison Brief data: United States of America. Disponível em: <http://www.prisonstudies.org/highest-to-lowest/prison-population-total?field_region_taxonomy_tid=All>. 2014. Acesso em: 7 jan. 2019.
YANARDAG, Pinar; CEBRIAN, Manuel; RAHWAN, Iyad. Norman, world’s first psychopath AI. Abril de 2018. Disponível em: <http://norman-ai.mit.edu>. Acesso em: 11 nov. 2018.