A CHARACTERIZATION OF ADVERSARIAL VULNERABILITIES IN NEURAL NETWORK ARCHITECTURES FOR IMAGE RECOGNITION

Autores/as

Resumen

As Redes Neurais Convolucionais (CNNs) são fundamentais para a visão computacional moderna, particularmente em sistemas de reconhecimento de imagem implantados em cenários críticos de segurança, como a gestão de tráfego e estacionamento. Apesar do seu elevado desempenho preditivo sob condições nominais, estes modelos podem ser severamente afetados por perturbações adversárias que permanecem quase impercetíveis ao olho humano. Este artigo investiga a vulnerabilidade adversária de duas arquiteturas amplamente utilizadas, DenseNet121 e GoogLeNet (InceptionV3), na tarefa de reconhecimento de ocupação de lugares de estacionamento. Ambos os modelos foram treinados e avaliados numa amostra do conjunto de dados PKLot, que compreende imagens de três parques de estacionamento distintos sob diferentes condições meteorológicas. Exemplos adversários foram gerados utilizando o Método de Sinal de Gradiente Rápido (FGSM) e o ataque de Carlini & Wagner (C&W), sendo posteriormente apresentados aos modelos treinados. Os resultados experimentais mostram que, embora as redes originais alcancem elevada exatidão, precisão e revocação em dados limpos, as suas previsões degradam-se substancialmente sob perturbações adversárias, com uma redução acentuada nas estimativas corretas de ocupação. O ataque C&W induz consistentemente uma degradação de desempenho mais forte do que o FGSM, destacando fraquezas críticas em arquiteturas CNN de última geração quando expostas a entradas adversárias cuidadosamente elaboradas.

Descargas

Publicado

2026-04-27