Evaluación del impacto de ataque adversarios en modelos de clasificación de imágenes con CNNs: caso COVID-19
Este trabajo de grado se centra en la aplicación de técnicas de aprendizaje profundo y procesamiento de imágenes médicas para mejorar la detección y diagnóstico de enfermedades pulmonares, con un enfoque específico en el padecimiento causado por el COVID-19. El estudio propone el uso de una arquitec...
- Autores:
-
Bustamante Alarcon, Javier Steven
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2022
- Institución:
- Universidad Militar Nueva Granada
- Repositorio:
- Repositorio UMNG
- Idioma:
- spa
- OAI Identifier:
- oai:repository.umng.edu.co:10654/47402
- Acceso en línea:
- https://hdl.handle.net/10654/47402
- Palabra clave:
- REDES NEURONALES CONVOLUCIONALES (CNN)
APRENDIZAJE PROFUNDO - SEGURIDAD
CIBERSEGURIDAD - ATAQUES ADVERSARIOS
RECONOCIMIENTO DE IMAGENES - METODOS DE CLASIFICACION
Aprendizaje profundo
Radiografías
Ataques adversarios
Ruido aditivo
Transferencia de aprendizaje
Red Neuronal Convolucional
Deep Learning
Radiographs
Adversarial Attacks
Additive Noise
Transfer Learning
Convolutional Neural Network
- Rights
- openAccess
- License
- http://creativecommons.org/licenses/by-nc-nd/4.0/
| Summary: | Este trabajo de grado se centra en la aplicación de técnicas de aprendizaje profundo y procesamiento de imágenes médicas para mejorar la detección y diagnóstico de enfermedades pulmonares, con un enfoque específico en el padecimiento causado por el COVID-19. El estudio propone el uso de una arquitectura de red neuronal convolucional (CNN) y otra arquitectura por transferencia de aprendizaje (TL) para analizar imágenes de tomografía computarizada (TC). Se investiga la robustez del modelo ante posibles ataques adversarios, como la adición de ruido a las imágenes de entrada. Se realizan experimentos para comprender cómo estos ataques pueden afectar la precisión y la confiabilidad del modelo previamente entrenado |
|---|
