Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales

Este estudio compara cinco métodos de explicabilidad (Grad-CAM, Grad-CAM++, HeatMap, Masked y LIME) para interpretar las decisiones de dos redes neuronales entrenadas en clasificación de tumores cerebrales (meningioma, glioma, tumor pituitario y control) en imágenes de resonancia magnética. Desarrol...

Full description

Autores:
López Arredondo, Franz
Camargo Espinosa, Juan Felipe
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad de Ibagué
Repositorio:
Repositorio Universidad de Ibagué
Idioma:
spa
OAI Identifier:
oai:repositorio.unibague.edu.co:20.500.12313/4657
Acceso en línea:
https://hdl.handle.net/20.500.12313/4657
Palabra clave:
Redes neuronales
Tumores cerebrales
Resonancia magnética
Explicabilidad
Redes neuronales
Tumores cerebrales
Grad-CAM
Visual Transformers
Deep Learning
Resonancia magnética
Explainability
Neural networks
Brain tumors
Grad-CAM
Visual Transformers
MRI
Rights
openAccess
License
http://purl.org/coar/access_right/c_abf2
id UNIBAGUE2_3e8c52d0d8fb09268f39f4d18d8c7e94
oai_identifier_str oai:repositorio.unibague.edu.co:20.500.12313/4657
network_acronym_str UNIBAGUE2
network_name_str Repositorio Universidad de Ibagué
repository_id_str
dc.title.spa.fl_str_mv Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
title Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
spellingShingle Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
Redes neuronales
Tumores cerebrales
Resonancia magnética
Explicabilidad
Redes neuronales
Tumores cerebrales
Grad-CAM
Visual Transformers
Deep Learning
Resonancia magnética
Explainability
Neural networks
Brain tumors
Grad-CAM
Visual Transformers
MRI
title_short Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
title_full Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
title_fullStr Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
title_full_unstemmed Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
title_sort Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
dc.creator.fl_str_mv López Arredondo, Franz
Camargo Espinosa, Juan Felipe
dc.contributor.advisor.none.fl_str_mv Forero Vargas, Manuel Guillermo
dc.contributor.author.none.fl_str_mv López Arredondo, Franz
Camargo Espinosa, Juan Felipe
dc.contributor.jury.none.fl_str_mv Betancourt Lozano, Juan Jose
dc.subject.armarc.none.fl_str_mv Redes neuronales
Tumores cerebrales
Resonancia magnética
topic Redes neuronales
Tumores cerebrales
Resonancia magnética
Explicabilidad
Redes neuronales
Tumores cerebrales
Grad-CAM
Visual Transformers
Deep Learning
Resonancia magnética
Explainability
Neural networks
Brain tumors
Grad-CAM
Visual Transformers
MRI
dc.subject.proposal.spa.fl_str_mv Explicabilidad
Redes neuronales
Tumores cerebrales
Grad-CAM
Visual Transformers
Deep Learning
Resonancia magnética
dc.subject.proposal.eng.fl_str_mv Explainability
Neural networks
Brain tumors
Grad-CAM
Visual Transformers
MRI
description Este estudio compara cinco métodos de explicabilidad (Grad-CAM, Grad-CAM++, HeatMap, Masked y LIME) para interpretar las decisiones de dos redes neuronales entrenadas en clasificación de tumores cerebrales (meningioma, glioma, tumor pituitario y control) en imágenes de resonancia magnética. Desarrollado en la Universidad de Ibagué, el proyecto integra herramientas avanzadas en procesamiento de imágenes y redes neuronales EfficientNet y Visual Transformers para mejorar la explicabilidad en el diagnóstico automatizado. Utilizando una base de datos de 10,000 imágenes por clase y técnicas de aumento de datos, se analizan los métodos en términos de exactitud, explicabilidad y facilidad de uso, revelando que Grad-CAM y Grad-CAM++ son más efectivos en la localización precisa de características, mientras que LIME, Masked y HeatMap destacan en representaciones globales. La investigación culmina con una aplicación interactiva que facilita la comparación de métodos, promoviendo la transparencia y confianza en IA para diagnósticos médicos.
publishDate 2024
dc.date.issued.none.fl_str_mv 2024
dc.date.accessioned.none.fl_str_mv 2025-01-31T14:24:44Z
dc.date.available.none.fl_str_mv 2025-01-31T14:24:44Z
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.none.fl_str_mv Text
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.citation.none.fl_str_mv López Arredondo, F. & Camargo Espinosa, J, F. (2024). Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales. [Trabajo de grado. Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4657
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12313/4657
identifier_str_mv López Arredondo, F. & Camargo Espinosa, J, F. (2024). Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales. [Trabajo de grado. Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4657
url https://hdl.handle.net/20.500.12313/4657
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv Chattopadhay, A., Sarkar, A., Howlader, P., & Balasubramanian, N. (2018). Grad-cam++: Generalized gradient-based visual explanations for deep convolutional networks. In 2018 IEEE winter conference on applications of computer vision (WACV) (pp. 839-847). IEEE.
DataScientest. (2023). ¿Qué es el método Grad-CAM? https://datascientest.com/es/que-es-el-metodo-grad-cam
DataScientest. (2024). What is the Grad-CAM method? https://datascientest.com/en/what-is-the-grad-cam-method
Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., Uszkoreit, J., & Houlsby, N. (2021). An image is worth 16x16 words: Transformers for image recognition at scale. Google Research, Brain Team. https://arxiv.org/abs/2010.1192
Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zisserman, A. (2020). An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. https://arxiv.org/abs/2010.11929
Dosovitskiy, A., & Brox, T. (2016). Inverting visual representations with convolutional networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(2), 302-313. https://doi.org/10.1109/TPAMI.2015.2444057
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
Grad-CAM++: Generalized Gradient-Based Visual Explanations for Deep Convolutional Networks. (2018, marzo 1). IEEE Conference Publication | IEEE Xplore. https://ieeexplore.ieee.org/document/8354201
Hopkins Medicine. (2024). Tipos de tumores cerebrales. Obtenido de https://www.hopkinsmedicine.org/health/conditions-and-diseases/brain-tumor/brain-tumor-types 107
Hu, J., Shen, L., Albanie, S., Pablo, G., & Sun, G. (2018). Squeeze-and-excitation networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 7132-7141. https://openaccess.thecvf.com/content_cvpr_2018/html/Hu_Squeeze-and-Excitation_Networks_CVPR_2018_paper.html
Instituto de Ingeniería del Conocimiento et al. (2024). Confianza e interés en la aplicación de la IA en el sector salud. https://www.iic.uam.es/lasalud/confianza-e-interes-en-la-aplicacion-de-la-ia-en-el-sector-salud/
Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., & Zhang, Z. (2021). Swin Transformer: Hierarchical vision transformer using shifted windows. In Proceedings of the IEEE International Conference on Computer Vision (ICCV). https://arxiv.org/abs/2103.14030
Mayo Clinic. (2024). Glioma: síntomas y causas. https://www.mayoclinic.org/es/diseases-conditions/glioma/symptoms-causes/syc-20350251
Mayo Clinic. (2024). Meningioma: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/meningioma/symptoms-causes/syc-20355643
Mayo Clinic. (2024). Tumores de la hipófisis: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/pituitary-tumors/symptoms-causes/syc-20350548
PyTorch. (sf). Learn the Basics. PyTorch Tutorials. https://pytorch.org/tutorials/beginner/nn_tutorial.htm
Ribeiro, T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?” Explaining the predictions of any classifier. SIGKDD.
Selvaraju, R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., & Batra, D. (2017). Grad-CAM: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE International Conference on Computer Vision (pp. 618-626).
Szeliski, R. (2011). Computer vision: Algorithms and applications. Springer Science & Business Media.
Stanford University. (2024). CS231n: Convolutional Neural Networks for Visual Recognition. http://cs231n.stanford.edu.
Tan, M., & Le, V. (2019). EfficientNet: Rethinking model scaling for convolutional neural networks. Proceedings of the 36th International Conference on Machine Learning, 97, 6105-6114. https://proceedings.mlr.press/v97/tan19a.html
TensorFlow. (2023). Convolutional Neural Networks. Obtenido de https://www.tensorflow.org/tutorials/images/cnn
Tomas, H. (2023). Inteligencia artificial y medicina: avances y aplicaciones. https://www.20minutos.es/tecnologia/aplicaciones/inteligencia-artificial-medicina-avances-aplicaciones-5106130/
Vaswani, A., Shardlow, S., Parmar, N., Uszkoreit, J., Jones, L., Gomez, N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30). https://arxiv.org/abs/1706.03762
Visani, G., Bagli, E., & Chesani, F. (2020). OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms. AIMLAI Workshop @ CIKM.
Zhou, B., Khosla, A., Lapedriza, A., Oliva, A., & Torralba, A. (2016). Learning deep features for discriminative localization. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 2921-2929).
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.none.fl_str_mv Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
dc.rights.uri.none.fl_str_mv https://creativecommons.org/licenses/by-nc/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://purl.org/coar/access_right/c_abf2
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
https://creativecommons.org/licenses/by-nc/4.0/
dc.format.extent.none.fl_str_mv 123 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de Ibagué
dc.publisher.faculty.none.fl_str_mv Ingenieria
dc.publisher.place.none.fl_str_mv Ibagué
dc.publisher.program.none.fl_str_mv Ingeniería Electrónica
publisher.none.fl_str_mv Universidad de Ibagué
institution Universidad de Ibagué
bitstream.url.fl_str_mv https://repositorio.unibague.edu.co/bitstreams/58517389-1854-4f91-b555-f12660d74f03/download
https://repositorio.unibague.edu.co/bitstreams/99f8220d-18d5-43bb-afcb-167f322f070e/download
https://repositorio.unibague.edu.co/bitstreams/c9e267b0-2ca8-4140-b4e0-57f67d1a32f9/download
https://repositorio.unibague.edu.co/bitstreams/c8eacdfc-da4e-4aff-adbd-efcd94cd1114/download
https://repositorio.unibague.edu.co/bitstreams/a5f1ca50-ea01-41b3-acf8-740f2684f7f8/download
https://repositorio.unibague.edu.co/bitstreams/1d581477-dd66-45ab-842c-72e6f3fc6449/download
https://repositorio.unibague.edu.co/bitstreams/340ba51d-46d9-4b80-ac88-c3e45c898bbd/download
bitstream.checksum.fl_str_mv 93757ee609b74971e41f0d3034edb241
38e15d02958b247ad08bc226d30d4f1c
5eeb65477312dd347ed8b40b6c640624
3a1acc11ae720b026d4e6b0ddeb2fa2c
0044bfe75c127ce6ee1c5b319217abb8
a29b134a79e7b45d6331bd2bc2c05949
2fa3e590786b9c0f3ceba1b9656b7ac3
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad de Ibagué
repository.mail.fl_str_mv bdigital@metabiblioteca.com
_version_ 1851059953119264768
spelling Forero Vargas, Manuel Guillermo187e7d0d-8326-49bc-8824-d0c7660437b7-1López Arredondo, Franz2328091a-f764-4a42-8aed-71cf798d5ed3-1Camargo Espinosa, Juan Felipea0e3e11c-5d0e-4d10-bdb0-75c26f2f99a0-1Betancourt Lozano, Juan Josede7d3b5f-e268-40c3-bb5f-8e90fc7f10d0-12025-01-31T14:24:44Z2025-01-31T14:24:44Z2024Este estudio compara cinco métodos de explicabilidad (Grad-CAM, Grad-CAM++, HeatMap, Masked y LIME) para interpretar las decisiones de dos redes neuronales entrenadas en clasificación de tumores cerebrales (meningioma, glioma, tumor pituitario y control) en imágenes de resonancia magnética. Desarrollado en la Universidad de Ibagué, el proyecto integra herramientas avanzadas en procesamiento de imágenes y redes neuronales EfficientNet y Visual Transformers para mejorar la explicabilidad en el diagnóstico automatizado. Utilizando una base de datos de 10,000 imágenes por clase y técnicas de aumento de datos, se analizan los métodos en términos de exactitud, explicabilidad y facilidad de uso, revelando que Grad-CAM y Grad-CAM++ son más efectivos en la localización precisa de características, mientras que LIME, Masked y HeatMap destacan en representaciones globales. La investigación culmina con una aplicación interactiva que facilita la comparación de métodos, promoviendo la transparencia y confianza en IA para diagnósticos médicos.This study compares five explainability methods (Grad-CAM, Grad-CAM++, HeatMap, Masked, and LIME) to interpret the decisions of two neural networks trained to classify brain tumors (meningioma, glioma, pituitary tumor, and control) in magnetic resonance images. Developed at the University of Ibagué, the project integrates advanced image processing tools and EfficientNet and Visual Transformer neural networks to enhance explainability in automated diagnosis. Using a database of 10,000 images per class and data augmentation techniques, the methods are analyzed in terms of accuracy, explainability, and ease of use, revealing that Grad-CAM and Grad-CAM++ are more effective in precisely localizing features, while LIME, Masked, and HeatMap excel in global representations. The research culminates in an interactive application that facilitates the comparison of methods, promoting transparency and trust in AI for medical diagnosis.PregradoIngeniero ElectrónicoResumen.....5 Abstract.....5 Introducción....13 1.1. Antecedentes...13 1.2. Planteamiento del Problema y su Justificación del Estudio.....15 1.3. Objetivos.....17 1.3.1. Objetivo General....17 1.3.2. Objetivos Específicos.....17 Fundamentos y Estado del Arte....18 2.1. Redes Neuronales.....18 2.1.1. Redes Neuronales Convolucionales (CNN)...19 2.2. Red Neuronal Visual Transformers.....21 2.3. Grad Cam.....22 2.3.1 Arquitectura del Grad-CAM.....23 2.4. Gradientes....25 Metodología....27 3.1. Entorno de Trabajo.....27 3.2. Tipos de Tumores.....27 3.2.1. Glioma.....27 3.2.2. Meningioma.....28 3.2.3. Tumor pituitario.....29 3.3. Adquisición de datos...30 3.3.1 Aumentación de datos y preprocesamiento de imágenes....31 3.4. Redes Neuronales Implementadas.....33 3.4.1. EfficientNet.....33 3.4.2. EfficientNet B1.....34 3.4.3. Fundamentos Matemáticos de los Visual Transformers.....42 3.4.4. Heatmap.....44 3.4.5. Masked....47 3.4.6. Grad-CAM.....50 3.4.7. Grad-CAM ++...53 3.4.8. LIME.....57 Resultados.....60 4.1 Clasificación.....60 4.1.1. Clasificación con Visual Transformers.....64 4.2. Grad-CAM...65 4.3. Grad-CAM ++.....68 4.4. Heatmap.....70 4.5. Masked....72 4.6. LIME.....74 4.8. Interfaz Gráfica de Usuario.....77 4.8.1. Estadística en la aplicación...80 4.9. Comparación Entre Resultados De Métodos De Visualización.....81 4.9.1. Interpretabilidad De Los Métodos De Visualización....81 4.9.2. Análisis Experimental de los Métodos.....84 Conclusiones y trabajos futuros.....104 5.1. Conclusiones...104 5.2. Trabajos futuros...105 Referencias bibliográficas.....107123 páginasapplication/pdfLópez Arredondo, F. & Camargo Espinosa, J, F. (2024). Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales. [Trabajo de grado. Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4657https://hdl.handle.net/20.500.12313/4657spaUniversidad de IbaguéIngenieriaIbaguéIngeniería ElectrónicaChattopadhay, A., Sarkar, A., Howlader, P., & Balasubramanian, N. (2018). Grad-cam++: Generalized gradient-based visual explanations for deep convolutional networks. In 2018 IEEE winter conference on applications of computer vision (WACV) (pp. 839-847). IEEE.DataScientest. (2023). ¿Qué es el método Grad-CAM? https://datascientest.com/es/que-es-el-metodo-grad-camDataScientest. (2024). What is the Grad-CAM method? https://datascientest.com/en/what-is-the-grad-cam-methodDosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., Uszkoreit, J., & Houlsby, N. (2021). An image is worth 16x16 words: Transformers for image recognition at scale. Google Research, Brain Team. https://arxiv.org/abs/2010.1192Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zisserman, A. (2020). An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. https://arxiv.org/abs/2010.11929Dosovitskiy, A., & Brox, T. (2016). Inverting visual representations with convolutional networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(2), 302-313. https://doi.org/10.1109/TPAMI.2015.2444057Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.Grad-CAM++: Generalized Gradient-Based Visual Explanations for Deep Convolutional Networks. (2018, marzo 1). IEEE Conference Publication | IEEE Xplore. https://ieeexplore.ieee.org/document/8354201Hopkins Medicine. (2024). Tipos de tumores cerebrales. Obtenido de https://www.hopkinsmedicine.org/health/conditions-and-diseases/brain-tumor/brain-tumor-types 107Hu, J., Shen, L., Albanie, S., Pablo, G., & Sun, G. (2018). Squeeze-and-excitation networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 7132-7141. https://openaccess.thecvf.com/content_cvpr_2018/html/Hu_Squeeze-and-Excitation_Networks_CVPR_2018_paper.htmlInstituto de Ingeniería del Conocimiento et al. (2024). Confianza e interés en la aplicación de la IA en el sector salud. https://www.iic.uam.es/lasalud/confianza-e-interes-en-la-aplicacion-de-la-ia-en-el-sector-salud/Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., & Zhang, Z. (2021). Swin Transformer: Hierarchical vision transformer using shifted windows. In Proceedings of the IEEE International Conference on Computer Vision (ICCV). https://arxiv.org/abs/2103.14030Mayo Clinic. (2024). Glioma: síntomas y causas. https://www.mayoclinic.org/es/diseases-conditions/glioma/symptoms-causes/syc-20350251Mayo Clinic. (2024). Meningioma: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/meningioma/symptoms-causes/syc-20355643Mayo Clinic. (2024). Tumores de la hipófisis: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/pituitary-tumors/symptoms-causes/syc-20350548PyTorch. (sf). Learn the Basics. PyTorch Tutorials. https://pytorch.org/tutorials/beginner/nn_tutorial.htmRibeiro, T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?” Explaining the predictions of any classifier. SIGKDD.Selvaraju, R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., & Batra, D. (2017). Grad-CAM: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE International Conference on Computer Vision (pp. 618-626).Szeliski, R. (2011). Computer vision: Algorithms and applications. Springer Science & Business Media.Stanford University. (2024). CS231n: Convolutional Neural Networks for Visual Recognition. http://cs231n.stanford.edu.Tan, M., & Le, V. (2019). EfficientNet: Rethinking model scaling for convolutional neural networks. Proceedings of the 36th International Conference on Machine Learning, 97, 6105-6114. https://proceedings.mlr.press/v97/tan19a.htmlTensorFlow. (2023). Convolutional Neural Networks. Obtenido de https://www.tensorflow.org/tutorials/images/cnnTomas, H. (2023). Inteligencia artificial y medicina: avances y aplicaciones. https://www.20minutos.es/tecnologia/aplicaciones/inteligencia-artificial-medicina-avances-aplicaciones-5106130/Vaswani, A., Shardlow, S., Parmar, N., Uszkoreit, J., Jones, L., Gomez, N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30). https://arxiv.org/abs/1706.03762Visani, G., Bagli, E., & Chesani, F. (2020). OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms. AIMLAI Workshop @ CIKM.Zhou, B., Khosla, A., Lapedriza, A., Oliva, A., & Torralba, A. (2016). Learning deep features for discriminative localization. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 2921-2929).info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)https://creativecommons.org/licenses/by-nc/4.0/Redes neuronalesTumores cerebralesResonancia magnéticaExplicabilidadRedes neuronalesTumores cerebralesGrad-CAMVisual TransformersDeep LearningResonancia magnéticaExplainabilityNeural networksBrain tumorsGrad-CAMVisual TransformersMRIEstudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronalesTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionPublicationORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf40475380https://repositorio.unibague.edu.co/bitstreams/58517389-1854-4f91-b555-f12660d74f03/download93757ee609b74971e41f0d3034edb241MD51Formato de autorización.pdfFormato de autorización.pdfapplication/pdf195760https://repositorio.unibague.edu.co/bitstreams/99f8220d-18d5-43bb-afcb-167f322f070e/download38e15d02958b247ad08bc226d30d4f1cMD52TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain103908https://repositorio.unibague.edu.co/bitstreams/c9e267b0-2ca8-4140-b4e0-57f67d1a32f9/download5eeb65477312dd347ed8b40b6c640624MD58Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain3519https://repositorio.unibague.edu.co/bitstreams/c8eacdfc-da4e-4aff-adbd-efcd94cd1114/download3a1acc11ae720b026d4e6b0ddeb2fa2cMD510THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgIM Thumbnailimage/jpeg8146https://repositorio.unibague.edu.co/bitstreams/a5f1ca50-ea01-41b3-acf8-740f2684f7f8/download0044bfe75c127ce6ee1c5b319217abb8MD59Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgIM Thumbnailimage/jpeg27059https://repositorio.unibague.edu.co/bitstreams/1d581477-dd66-45ab-842c-72e6f3fc6449/downloada29b134a79e7b45d6331bd2bc2c05949MD511LICENSElicense.txtlicense.txttext/plain; charset=utf-8134https://repositorio.unibague.edu.co/bitstreams/340ba51d-46d9-4b80-ac88-c3e45c898bbd/download2fa3e590786b9c0f3ceba1b9656b7ac3MD5320.500.12313/4657oai:repositorio.unibague.edu.co:20.500.12313/46572025-08-13 01:02:53.147https://creativecommons.org/licenses/by-nc/4.0/https://repositorio.unibague.edu.coRepositorio Institucional Universidad de Ibaguébdigital@metabiblioteca.comQ3JlYXRpdmUgQ29tbW9ucyBBdHRyaWJ1dGlvbi1Ob25Db21tZXJjaWFsLU5vRGVyaXZhdGl2ZXMgNC4wIEludGVybmF0aW9uYWwgTGljZW5zZQ0KaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8=