Evaluación del impacto de ataque adversarios en modelos de clasificación de imágenes con CNNs: caso COVID-19

Este trabajo de grado se centra en la aplicación de técnicas de aprendizaje profundo y procesamiento de imágenes médicas para mejorar la detección y diagnóstico de enfermedades pulmonares, con un enfoque específico en el padecimiento causado por el COVID-19. El estudio propone el uso de una arquitec...

Full description

Autores:
Bustamante Alarcon, Javier Steven
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2022
Institución:
Universidad Militar Nueva Granada
Repositorio:
Repositorio UMNG
Idioma:
spa
OAI Identifier:
oai:repository.umng.edu.co:10654/47402
Acceso en línea:
https://hdl.handle.net/10654/47402
Palabra clave:
REDES NEURONALES CONVOLUCIONALES (CNN)
APRENDIZAJE PROFUNDO - SEGURIDAD
CIBERSEGURIDAD - ATAQUES ADVERSARIOS
RECONOCIMIENTO DE IMAGENES - METODOS DE CLASIFICACION
Aprendizaje profundo
Radiografías
Ataques adversarios
Ruido aditivo
Transferencia de aprendizaje
Red Neuronal Convolucional
Deep Learning
Radiographs
Adversarial Attacks
Additive Noise
Transfer Learning
Convolutional Neural Network
Rights
openAccess
License
http://creativecommons.org/licenses/by-nc-nd/4.0/
Description
Summary:Este trabajo de grado se centra en la aplicación de técnicas de aprendizaje profundo y procesamiento de imágenes médicas para mejorar la detección y diagnóstico de enfermedades pulmonares, con un enfoque específico en el padecimiento causado por el COVID-19. El estudio propone el uso de una arquitectura de red neuronal convolucional (CNN) y otra arquitectura por transferencia de aprendizaje (TL) para analizar imágenes de tomografía computarizada (TC). Se investiga la robustez del modelo ante posibles ataques adversarios, como la adición de ruido a las imágenes de entrada. Se realizan experimentos para comprender cómo estos ataques pueden afectar la precisión y la confiabilidad del modelo previamente entrenado