Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales
Este estudio compara cinco métodos de explicabilidad (Grad-CAM, Grad-CAM++, HeatMap, Masked y LIME) para interpretar las decisiones de dos redes neuronales entrenadas en clasificación de tumores cerebrales (meningioma, glioma, tumor pituitario y control) en imágenes de resonancia magnética. Desarrol...
- Autores:
-
López Arredondo, Franz
Camargo Espinosa, Juan Felipe
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad de Ibagué
- Repositorio:
- Repositorio Universidad de Ibagué
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unibague.edu.co:20.500.12313/4657
- Acceso en línea:
- https://hdl.handle.net/20.500.12313/4657
- Palabra clave:
- Redes neuronales
Tumores cerebrales
Resonancia magnética
Explicabilidad
Redes neuronales
Tumores cerebrales
Grad-CAM
Visual Transformers
Deep Learning
Resonancia magnética
Explainability
Neural networks
Brain tumors
Grad-CAM
Visual Transformers
MRI
- Rights
- openAccess
- License
- http://purl.org/coar/access_right/c_abf2
| id |
UNIBAGUE2_3e8c52d0d8fb09268f39f4d18d8c7e94 |
|---|---|
| oai_identifier_str |
oai:repositorio.unibague.edu.co:20.500.12313/4657 |
| network_acronym_str |
UNIBAGUE2 |
| network_name_str |
Repositorio Universidad de Ibagué |
| repository_id_str |
|
| dc.title.spa.fl_str_mv |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales |
| title |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales |
| spellingShingle |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales Redes neuronales Tumores cerebrales Resonancia magnética Explicabilidad Redes neuronales Tumores cerebrales Grad-CAM Visual Transformers Deep Learning Resonancia magnética Explainability Neural networks Brain tumors Grad-CAM Visual Transformers MRI |
| title_short |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales |
| title_full |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales |
| title_fullStr |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales |
| title_full_unstemmed |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales |
| title_sort |
Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales |
| dc.creator.fl_str_mv |
López Arredondo, Franz Camargo Espinosa, Juan Felipe |
| dc.contributor.advisor.none.fl_str_mv |
Forero Vargas, Manuel Guillermo |
| dc.contributor.author.none.fl_str_mv |
López Arredondo, Franz Camargo Espinosa, Juan Felipe |
| dc.contributor.jury.none.fl_str_mv |
Betancourt Lozano, Juan Jose |
| dc.subject.armarc.none.fl_str_mv |
Redes neuronales Tumores cerebrales Resonancia magnética |
| topic |
Redes neuronales Tumores cerebrales Resonancia magnética Explicabilidad Redes neuronales Tumores cerebrales Grad-CAM Visual Transformers Deep Learning Resonancia magnética Explainability Neural networks Brain tumors Grad-CAM Visual Transformers MRI |
| dc.subject.proposal.spa.fl_str_mv |
Explicabilidad Redes neuronales Tumores cerebrales Grad-CAM Visual Transformers Deep Learning Resonancia magnética |
| dc.subject.proposal.eng.fl_str_mv |
Explainability Neural networks Brain tumors Grad-CAM Visual Transformers MRI |
| description |
Este estudio compara cinco métodos de explicabilidad (Grad-CAM, Grad-CAM++, HeatMap, Masked y LIME) para interpretar las decisiones de dos redes neuronales entrenadas en clasificación de tumores cerebrales (meningioma, glioma, tumor pituitario y control) en imágenes de resonancia magnética. Desarrollado en la Universidad de Ibagué, el proyecto integra herramientas avanzadas en procesamiento de imágenes y redes neuronales EfficientNet y Visual Transformers para mejorar la explicabilidad en el diagnóstico automatizado. Utilizando una base de datos de 10,000 imágenes por clase y técnicas de aumento de datos, se analizan los métodos en términos de exactitud, explicabilidad y facilidad de uso, revelando que Grad-CAM y Grad-CAM++ son más efectivos en la localización precisa de características, mientras que LIME, Masked y HeatMap destacan en representaciones globales. La investigación culmina con una aplicación interactiva que facilita la comparación de métodos, promoviendo la transparencia y confianza en IA para diagnósticos médicos. |
| publishDate |
2024 |
| dc.date.issued.none.fl_str_mv |
2024 |
| dc.date.accessioned.none.fl_str_mv |
2025-01-31T14:24:44Z |
| dc.date.available.none.fl_str_mv |
2025-01-31T14:24:44Z |
| dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
| dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
| dc.type.content.none.fl_str_mv |
Text |
| dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
| dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
| format |
http://purl.org/coar/resource_type/c_7a1f |
| status_str |
acceptedVersion |
| dc.identifier.citation.none.fl_str_mv |
López Arredondo, F. & Camargo Espinosa, J, F. (2024). Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales. [Trabajo de grado. Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4657 |
| dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12313/4657 |
| identifier_str_mv |
López Arredondo, F. & Camargo Espinosa, J, F. (2024). Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales. [Trabajo de grado. Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4657 |
| url |
https://hdl.handle.net/20.500.12313/4657 |
| dc.language.iso.none.fl_str_mv |
spa |
| language |
spa |
| dc.relation.references.none.fl_str_mv |
Chattopadhay, A., Sarkar, A., Howlader, P., & Balasubramanian, N. (2018). Grad-cam++: Generalized gradient-based visual explanations for deep convolutional networks. In 2018 IEEE winter conference on applications of computer vision (WACV) (pp. 839-847). IEEE. DataScientest. (2023). ¿Qué es el método Grad-CAM? https://datascientest.com/es/que-es-el-metodo-grad-cam DataScientest. (2024). What is the Grad-CAM method? https://datascientest.com/en/what-is-the-grad-cam-method Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., Uszkoreit, J., & Houlsby, N. (2021). An image is worth 16x16 words: Transformers for image recognition at scale. Google Research, Brain Team. https://arxiv.org/abs/2010.1192 Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zisserman, A. (2020). An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. https://arxiv.org/abs/2010.11929 Dosovitskiy, A., & Brox, T. (2016). Inverting visual representations with convolutional networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(2), 302-313. https://doi.org/10.1109/TPAMI.2015.2444057 Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press. Grad-CAM++: Generalized Gradient-Based Visual Explanations for Deep Convolutional Networks. (2018, marzo 1). IEEE Conference Publication | IEEE Xplore. https://ieeexplore.ieee.org/document/8354201 Hopkins Medicine. (2024). Tipos de tumores cerebrales. Obtenido de https://www.hopkinsmedicine.org/health/conditions-and-diseases/brain-tumor/brain-tumor-types 107 Hu, J., Shen, L., Albanie, S., Pablo, G., & Sun, G. (2018). Squeeze-and-excitation networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 7132-7141. https://openaccess.thecvf.com/content_cvpr_2018/html/Hu_Squeeze-and-Excitation_Networks_CVPR_2018_paper.html Instituto de Ingeniería del Conocimiento et al. (2024). Confianza e interés en la aplicación de la IA en el sector salud. https://www.iic.uam.es/lasalud/confianza-e-interes-en-la-aplicacion-de-la-ia-en-el-sector-salud/ Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., & Zhang, Z. (2021). Swin Transformer: Hierarchical vision transformer using shifted windows. In Proceedings of the IEEE International Conference on Computer Vision (ICCV). https://arxiv.org/abs/2103.14030 Mayo Clinic. (2024). Glioma: síntomas y causas. https://www.mayoclinic.org/es/diseases-conditions/glioma/symptoms-causes/syc-20350251 Mayo Clinic. (2024). Meningioma: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/meningioma/symptoms-causes/syc-20355643 Mayo Clinic. (2024). Tumores de la hipófisis: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/pituitary-tumors/symptoms-causes/syc-20350548 PyTorch. (sf). Learn the Basics. PyTorch Tutorials. https://pytorch.org/tutorials/beginner/nn_tutorial.htm Ribeiro, T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?” Explaining the predictions of any classifier. SIGKDD. Selvaraju, R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., & Batra, D. (2017). Grad-CAM: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE International Conference on Computer Vision (pp. 618-626). Szeliski, R. (2011). Computer vision: Algorithms and applications. Springer Science & Business Media. Stanford University. (2024). CS231n: Convolutional Neural Networks for Visual Recognition. http://cs231n.stanford.edu. Tan, M., & Le, V. (2019). EfficientNet: Rethinking model scaling for convolutional neural networks. Proceedings of the 36th International Conference on Machine Learning, 97, 6105-6114. https://proceedings.mlr.press/v97/tan19a.html TensorFlow. (2023). Convolutional Neural Networks. Obtenido de https://www.tensorflow.org/tutorials/images/cnn Tomas, H. (2023). Inteligencia artificial y medicina: avances y aplicaciones. https://www.20minutos.es/tecnologia/aplicaciones/inteligencia-artificial-medicina-avances-aplicaciones-5106130/ Vaswani, A., Shardlow, S., Parmar, N., Uszkoreit, J., Jones, L., Gomez, N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30). https://arxiv.org/abs/1706.03762 Visani, G., Bagli, E., & Chesani, F. (2020). OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms. AIMLAI Workshop @ CIKM. Zhou, B., Khosla, A., Lapedriza, A., Oliva, A., & Torralba, A. (2016). Learning deep features for discriminative localization. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 2921-2929). |
| dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
| dc.rights.license.none.fl_str_mv |
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) |
| dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://purl.org/coar/access_right/c_abf2 Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) https://creativecommons.org/licenses/by-nc/4.0/ |
| dc.format.extent.none.fl_str_mv |
123 páginas |
| dc.format.mimetype.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidad de Ibagué |
| dc.publisher.faculty.none.fl_str_mv |
Ingenieria |
| dc.publisher.place.none.fl_str_mv |
Ibagué |
| dc.publisher.program.none.fl_str_mv |
Ingeniería Electrónica |
| publisher.none.fl_str_mv |
Universidad de Ibagué |
| institution |
Universidad de Ibagué |
| bitstream.url.fl_str_mv |
https://repositorio.unibague.edu.co/bitstreams/58517389-1854-4f91-b555-f12660d74f03/download https://repositorio.unibague.edu.co/bitstreams/99f8220d-18d5-43bb-afcb-167f322f070e/download https://repositorio.unibague.edu.co/bitstreams/c9e267b0-2ca8-4140-b4e0-57f67d1a32f9/download https://repositorio.unibague.edu.co/bitstreams/c8eacdfc-da4e-4aff-adbd-efcd94cd1114/download https://repositorio.unibague.edu.co/bitstreams/a5f1ca50-ea01-41b3-acf8-740f2684f7f8/download https://repositorio.unibague.edu.co/bitstreams/1d581477-dd66-45ab-842c-72e6f3fc6449/download https://repositorio.unibague.edu.co/bitstreams/340ba51d-46d9-4b80-ac88-c3e45c898bbd/download |
| bitstream.checksum.fl_str_mv |
93757ee609b74971e41f0d3034edb241 38e15d02958b247ad08bc226d30d4f1c 5eeb65477312dd347ed8b40b6c640624 3a1acc11ae720b026d4e6b0ddeb2fa2c 0044bfe75c127ce6ee1c5b319217abb8 a29b134a79e7b45d6331bd2bc2c05949 2fa3e590786b9c0f3ceba1b9656b7ac3 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Institucional Universidad de Ibagué |
| repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
| _version_ |
1851059953119264768 |
| spelling |
Forero Vargas, Manuel Guillermo187e7d0d-8326-49bc-8824-d0c7660437b7-1López Arredondo, Franz2328091a-f764-4a42-8aed-71cf798d5ed3-1Camargo Espinosa, Juan Felipea0e3e11c-5d0e-4d10-bdb0-75c26f2f99a0-1Betancourt Lozano, Juan Josede7d3b5f-e268-40c3-bb5f-8e90fc7f10d0-12025-01-31T14:24:44Z2025-01-31T14:24:44Z2024Este estudio compara cinco métodos de explicabilidad (Grad-CAM, Grad-CAM++, HeatMap, Masked y LIME) para interpretar las decisiones de dos redes neuronales entrenadas en clasificación de tumores cerebrales (meningioma, glioma, tumor pituitario y control) en imágenes de resonancia magnética. Desarrollado en la Universidad de Ibagué, el proyecto integra herramientas avanzadas en procesamiento de imágenes y redes neuronales EfficientNet y Visual Transformers para mejorar la explicabilidad en el diagnóstico automatizado. Utilizando una base de datos de 10,000 imágenes por clase y técnicas de aumento de datos, se analizan los métodos en términos de exactitud, explicabilidad y facilidad de uso, revelando que Grad-CAM y Grad-CAM++ son más efectivos en la localización precisa de características, mientras que LIME, Masked y HeatMap destacan en representaciones globales. La investigación culmina con una aplicación interactiva que facilita la comparación de métodos, promoviendo la transparencia y confianza en IA para diagnósticos médicos.This study compares five explainability methods (Grad-CAM, Grad-CAM++, HeatMap, Masked, and LIME) to interpret the decisions of two neural networks trained to classify brain tumors (meningioma, glioma, pituitary tumor, and control) in magnetic resonance images. Developed at the University of Ibagué, the project integrates advanced image processing tools and EfficientNet and Visual Transformer neural networks to enhance explainability in automated diagnosis. Using a database of 10,000 images per class and data augmentation techniques, the methods are analyzed in terms of accuracy, explainability, and ease of use, revealing that Grad-CAM and Grad-CAM++ are more effective in precisely localizing features, while LIME, Masked, and HeatMap excel in global representations. The research culminates in an interactive application that facilitates the comparison of methods, promoting transparency and trust in AI for medical diagnosis.PregradoIngeniero ElectrónicoResumen.....5 Abstract.....5 Introducción....13 1.1. Antecedentes...13 1.2. Planteamiento del Problema y su Justificación del Estudio.....15 1.3. Objetivos.....17 1.3.1. Objetivo General....17 1.3.2. Objetivos Específicos.....17 Fundamentos y Estado del Arte....18 2.1. Redes Neuronales.....18 2.1.1. Redes Neuronales Convolucionales (CNN)...19 2.2. Red Neuronal Visual Transformers.....21 2.3. Grad Cam.....22 2.3.1 Arquitectura del Grad-CAM.....23 2.4. Gradientes....25 Metodología....27 3.1. Entorno de Trabajo.....27 3.2. Tipos de Tumores.....27 3.2.1. Glioma.....27 3.2.2. Meningioma.....28 3.2.3. Tumor pituitario.....29 3.3. Adquisición de datos...30 3.3.1 Aumentación de datos y preprocesamiento de imágenes....31 3.4. Redes Neuronales Implementadas.....33 3.4.1. EfficientNet.....33 3.4.2. EfficientNet B1.....34 3.4.3. Fundamentos Matemáticos de los Visual Transformers.....42 3.4.4. Heatmap.....44 3.4.5. Masked....47 3.4.6. Grad-CAM.....50 3.4.7. Grad-CAM ++...53 3.4.8. LIME.....57 Resultados.....60 4.1 Clasificación.....60 4.1.1. Clasificación con Visual Transformers.....64 4.2. Grad-CAM...65 4.3. Grad-CAM ++.....68 4.4. Heatmap.....70 4.5. Masked....72 4.6. LIME.....74 4.8. Interfaz Gráfica de Usuario.....77 4.8.1. Estadística en la aplicación...80 4.9. Comparación Entre Resultados De Métodos De Visualización.....81 4.9.1. Interpretabilidad De Los Métodos De Visualización....81 4.9.2. Análisis Experimental de los Métodos.....84 Conclusiones y trabajos futuros.....104 5.1. Conclusiones...104 5.2. Trabajos futuros...105 Referencias bibliográficas.....107123 páginasapplication/pdfLópez Arredondo, F. & Camargo Espinosa, J, F. (2024). Estudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronales. [Trabajo de grado. Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4657https://hdl.handle.net/20.500.12313/4657spaUniversidad de IbaguéIngenieriaIbaguéIngeniería ElectrónicaChattopadhay, A., Sarkar, A., Howlader, P., & Balasubramanian, N. (2018). Grad-cam++: Generalized gradient-based visual explanations for deep convolutional networks. In 2018 IEEE winter conference on applications of computer vision (WACV) (pp. 839-847). IEEE.DataScientest. (2023). ¿Qué es el método Grad-CAM? https://datascientest.com/es/que-es-el-metodo-grad-camDataScientest. (2024). What is the Grad-CAM method? https://datascientest.com/en/what-is-the-grad-cam-methodDosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., Uszkoreit, J., & Houlsby, N. (2021). An image is worth 16x16 words: Transformers for image recognition at scale. Google Research, Brain Team. https://arxiv.org/abs/2010.1192Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zisserman, A. (2020). An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. https://arxiv.org/abs/2010.11929Dosovitskiy, A., & Brox, T. (2016). Inverting visual representations with convolutional networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(2), 302-313. https://doi.org/10.1109/TPAMI.2015.2444057Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.Grad-CAM++: Generalized Gradient-Based Visual Explanations for Deep Convolutional Networks. (2018, marzo 1). IEEE Conference Publication | IEEE Xplore. https://ieeexplore.ieee.org/document/8354201Hopkins Medicine. (2024). Tipos de tumores cerebrales. Obtenido de https://www.hopkinsmedicine.org/health/conditions-and-diseases/brain-tumor/brain-tumor-types 107Hu, J., Shen, L., Albanie, S., Pablo, G., & Sun, G. (2018). Squeeze-and-excitation networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 7132-7141. https://openaccess.thecvf.com/content_cvpr_2018/html/Hu_Squeeze-and-Excitation_Networks_CVPR_2018_paper.htmlInstituto de Ingeniería del Conocimiento et al. (2024). Confianza e interés en la aplicación de la IA en el sector salud. https://www.iic.uam.es/lasalud/confianza-e-interes-en-la-aplicacion-de-la-ia-en-el-sector-salud/Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., & Zhang, Z. (2021). Swin Transformer: Hierarchical vision transformer using shifted windows. In Proceedings of the IEEE International Conference on Computer Vision (ICCV). https://arxiv.org/abs/2103.14030Mayo Clinic. (2024). Glioma: síntomas y causas. https://www.mayoclinic.org/es/diseases-conditions/glioma/symptoms-causes/syc-20350251Mayo Clinic. (2024). Meningioma: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/meningioma/symptoms-causes/syc-20355643Mayo Clinic. (2024). Tumores de la hipófisis: síntomas y causas. Obtenido de https://www.mayoclinic.org/es/diseases-conditions/pituitary-tumors/symptoms-causes/syc-20350548PyTorch. (sf). Learn the Basics. PyTorch Tutorials. https://pytorch.org/tutorials/beginner/nn_tutorial.htmRibeiro, T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?” Explaining the predictions of any classifier. SIGKDD.Selvaraju, R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., & Batra, D. (2017). Grad-CAM: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE International Conference on Computer Vision (pp. 618-626).Szeliski, R. (2011). Computer vision: Algorithms and applications. Springer Science & Business Media.Stanford University. (2024). CS231n: Convolutional Neural Networks for Visual Recognition. http://cs231n.stanford.edu.Tan, M., & Le, V. (2019). EfficientNet: Rethinking model scaling for convolutional neural networks. Proceedings of the 36th International Conference on Machine Learning, 97, 6105-6114. https://proceedings.mlr.press/v97/tan19a.htmlTensorFlow. (2023). Convolutional Neural Networks. Obtenido de https://www.tensorflow.org/tutorials/images/cnnTomas, H. (2023). Inteligencia artificial y medicina: avances y aplicaciones. https://www.20minutos.es/tecnologia/aplicaciones/inteligencia-artificial-medicina-avances-aplicaciones-5106130/Vaswani, A., Shardlow, S., Parmar, N., Uszkoreit, J., Jones, L., Gomez, N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30). https://arxiv.org/abs/1706.03762Visani, G., Bagli, E., & Chesani, F. (2020). OptiLIME: Optimized LIME Explanations for Diagnostic Computer Algorithms. AIMLAI Workshop @ CIKM.Zhou, B., Khosla, A., Lapedriza, A., Oliva, A., & Torralba, A. (2016). Learning deep features for discriminative localization. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 2921-2929).info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)https://creativecommons.org/licenses/by-nc/4.0/Redes neuronalesTumores cerebralesResonancia magnéticaExplicabilidadRedes neuronalesTumores cerebralesGrad-CAMVisual TransformersDeep LearningResonancia magnéticaExplainabilityNeural networksBrain tumorsGrad-CAMVisual TransformersMRIEstudio comparativo de técnicas basadas en Grad-CAM para la explicabilidad de redes neuronalesTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionPublicationORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf40475380https://repositorio.unibague.edu.co/bitstreams/58517389-1854-4f91-b555-f12660d74f03/download93757ee609b74971e41f0d3034edb241MD51Formato de autorización.pdfFormato de autorización.pdfapplication/pdf195760https://repositorio.unibague.edu.co/bitstreams/99f8220d-18d5-43bb-afcb-167f322f070e/download38e15d02958b247ad08bc226d30d4f1cMD52TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain103908https://repositorio.unibague.edu.co/bitstreams/c9e267b0-2ca8-4140-b4e0-57f67d1a32f9/download5eeb65477312dd347ed8b40b6c640624MD58Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain3519https://repositorio.unibague.edu.co/bitstreams/c8eacdfc-da4e-4aff-adbd-efcd94cd1114/download3a1acc11ae720b026d4e6b0ddeb2fa2cMD510THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgIM Thumbnailimage/jpeg8146https://repositorio.unibague.edu.co/bitstreams/a5f1ca50-ea01-41b3-acf8-740f2684f7f8/download0044bfe75c127ce6ee1c5b319217abb8MD59Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgIM Thumbnailimage/jpeg27059https://repositorio.unibague.edu.co/bitstreams/1d581477-dd66-45ab-842c-72e6f3fc6449/downloada29b134a79e7b45d6331bd2bc2c05949MD511LICENSElicense.txtlicense.txttext/plain; charset=utf-8134https://repositorio.unibague.edu.co/bitstreams/340ba51d-46d9-4b80-ac88-c3e45c898bbd/download2fa3e590786b9c0f3ceba1b9656b7ac3MD5320.500.12313/4657oai:repositorio.unibague.edu.co:20.500.12313/46572025-08-13 01:02:53.147https://creativecommons.org/licenses/by-nc/4.0/https://repositorio.unibague.edu.coRepositorio Institucional Universidad de Ibaguébdigital@metabiblioteca.comQ3JlYXRpdmUgQ29tbW9ucyBBdHRyaWJ1dGlvbi1Ob25Db21tZXJjaWFsLU5vRGVyaXZhdGl2ZXMgNC4wIEludGVybmF0aW9uYWwgTGljZW5zZQ0KaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8= |
