Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia

El objetivo principal de este trabajo fue implementar un modelo de Vision Transformers para la clasificación de imágenes de tejido de cáncer de mama, comparándolo con modelos tradicionales como las redes neuronales convolucionales (CNNs), y desplegar el modelo con una interfaz fácil de utilizar. La...

Full description

Autores:
Figueroa Sánchez, Fabian Felipe
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Autónoma de Occidente
Repositorio:
RED: Repositorio Educativo Digital UAO
Idioma:
spa
OAI Identifier:
oai:red.uao.edu.co:10614/15937
Acceso en línea:
https://hdl.handle.net/10614/15937
https://red.uao.edu.co/
Palabra clave:
Ingeniería Biomédica
Clasificación de imágenes de tumores mamarios con Vision Transformers
Clasificación de imágenes con Vision Transformers
Modelos deep learning para clasificación imágenes médicas
Cáncer de mama
Imágenes tejido mamario
Redes neuronales convolucionales
Classification of breast tumor images with Vision Transformers
Image classification with Vision Transformers
Deep learning models for medical image classification
Breast cancer
Breast tissue images
Convolutional neural networks
Rights
openAccess
License
Derechos reservados - Universidad Autónoma de Occidente, 2024
id REPOUAO2_8efebe185236882cd61b90623d67a306
oai_identifier_str oai:red.uao.edu.co:10614/15937
network_acronym_str REPOUAO2
network_name_str RED: Repositorio Educativo Digital UAO
repository_id_str
dc.title.spa.fl_str_mv Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
title Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
spellingShingle Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
Ingeniería Biomédica
Clasificación de imágenes de tumores mamarios con Vision Transformers
Clasificación de imágenes con Vision Transformers
Modelos deep learning para clasificación imágenes médicas
Cáncer de mama
Imágenes tejido mamario
Redes neuronales convolucionales
Classification of breast tumor images with Vision Transformers
Image classification with Vision Transformers
Deep learning models for medical image classification
Breast cancer
Breast tissue images
Convolutional neural networks
title_short Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
title_full Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
title_fullStr Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
title_full_unstemmed Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
title_sort Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
dc.creator.fl_str_mv Figueroa Sánchez, Fabian Felipe
dc.contributor.advisor.none.fl_str_mv López Sotelo, Jesús Alfonso
dc.contributor.author.none.fl_str_mv Figueroa Sánchez, Fabian Felipe
dc.contributor.corporatename.spa.fl_str_mv Universidad Autónoma de Occidente
dc.contributor.jury.none.fl_str_mv Pulgarín Giraldo, Juan Diego
dc.subject.proposal.spa.fl_str_mv Ingeniería Biomédica
Clasificación de imágenes de tumores mamarios con Vision Transformers
Clasificación de imágenes con Vision Transformers
Modelos deep learning para clasificación imágenes médicas
Cáncer de mama
Imágenes tejido mamario
Redes neuronales convolucionales
topic Ingeniería Biomédica
Clasificación de imágenes de tumores mamarios con Vision Transformers
Clasificación de imágenes con Vision Transformers
Modelos deep learning para clasificación imágenes médicas
Cáncer de mama
Imágenes tejido mamario
Redes neuronales convolucionales
Classification of breast tumor images with Vision Transformers
Image classification with Vision Transformers
Deep learning models for medical image classification
Breast cancer
Breast tissue images
Convolutional neural networks
dc.subject.proposal.eng.fl_str_mv Classification of breast tumor images with Vision Transformers
Image classification with Vision Transformers
Deep learning models for medical image classification
Breast cancer
Breast tissue images
Convolutional neural networks
description El objetivo principal de este trabajo fue implementar un modelo de Vision Transformers para la clasificación de imágenes de tejido de cáncer de mama, comparándolo con modelos tradicionales como las redes neuronales convolucionales (CNNs), y desplegar el modelo con una interfaz fácil de utilizar. La importancia de herramientas innovadoras en el diagnóstico médico del cáncer de mama radica en la reducción de falsos positivos y negativos, así como en la mejora de la precisión diagnóstica. Se implementaron cuatro modelos: dos modelos base o personalizados, entrenados desde cero, y dos modelos preentrenados (DeiT-Tiny y EfficientNet-B0) para comparar su desempeño utilizando métricas definidas. Para el desarrollo de este trabajo, se utilizó la base de datos "BreastHIS", que contiene imágenes de microscopía de tejido mamario de 82 pacientes, con tumores malignos y benignos. La base de datos fue preprocesada con librerías de Python. Los modelos se implementaron usando PyTorch, y el despliegue del modelo se realizó con Gradio y Hugging Face. Los resultados demuestran que los modelos preentrenados superan a los modelos base entrenados desde cero. En particular, el modelo DeiT-Tiny fue el que obtuvo mejores resultados en las métricas, alcanzando una precisión del 99%, una sensibilidad del 99%, y una especificidad del 98%, contribuyendo a una significativa disminución de diagnósticos erróneos.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-12-13T19:24:39Z
dc.date.available.none.fl_str_mv 2024-12-13T19:24:39Z
dc.date.issued.none.fl_str_mv 2024-11-12
dc.type.spa.fl_str_mv Trabajo de grado - Pregrado
dc.type.coarversion.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.coar.eng.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.eng.fl_str_mv Text
dc.type.driver.eng.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.eng.fl_str_mv http://purl.org/redcol/resource_type/TP
dc.type.version.eng.fl_str_mv info:eu-repo/semantics/publishedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str publishedVersion
dc.identifier.citation.spa.fl_str_mv Figueroa Sánchez, F. F. (2024). Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15937
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10614/15937
dc.identifier.instname.spa.fl_str_mv Universidad Autónoma de Occidente
dc.identifier.reponame.spa.fl_str_mv Respositorio Educativo Digital UAO
dc.identifier.repourl.spa.fl_str_mv https://red.uao.edu.co/
identifier_str_mv Figueroa Sánchez, F. F. (2024). Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15937
Universidad Autónoma de Occidente
Respositorio Educativo Digital UAO
url https://hdl.handle.net/10614/15937
https://red.uao.edu.co/
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv 1] Organización Mundial de la Salud, “Cáncer de mama”. [En línea]. Disponible en: https://www.who.int/es/news-room/fact-sheets/detail/breast-cancer [Consultado: el 15 de septiembre de 2024].
[2] A. M. Solano C, N. Guerra N., “Retraso en el diagnóstico de cáncer de mama en mujeres que reciben tratamiento en la ciudad de Bogotá”, Trabajo de Maestría. Fac. Ciencias Económicas y Administrativas Univ. Jorge Tadeo Lozano. Bogotá 2020.
Disponible en: https://expeditiorepositorio.utadeo.edu.co/handle/20.500.12010/10170?localeattribute=en
[3] American Cancer Society, “Limitaciones de los mamogramas”. [En línea]. Disponible en: https://www.cancer.org/es/cancer/tipos/cancer-de-seno/pruebasde-deteccion-y-deteccion-temprana-del-cancer-deseno/mamogramas/limitaciones-de-los-mamogramas.html
[4] K. de la Cruz A., et al., “Costos médicos directos de la atención médica de pacientes con cáncer de mama”, Rev. Med. Inst. Mex. Seguro Soc. vol. 60, 2021. [En línea]. Disponible en: http://revistamedica.imss.gob.mx/
[5] C. Wiesner, “La atención del cáncer desde la perspectiva de la sostenibilidad financiera del Sistema General de Seguridad Social en Colombia”, Rev. Col. De Cancerología. Vol. 20, no. 2, pp. 49-51, 2016. [En línea]. Disponible en:
https://www.revistacancercol.org/index.php/cancer/article/view/244/101
[6] Altim, “Los nuevos paradigmas de la inteligencia artificial: Avances y desaf íos”. [En
línea]. Disponible en: https://www.altim.es/blog-noticias-tic/los-nuevosparadigmas-de-la-inteligencia-artificial-avances-y-desafios/ [ Consultado: el 15 de septiembre de 2024]
[7] V. T.DeVita Jr., et al., “Cancer: Principles and Practice of Oncology”. 12a ed., vol. 7. [En línea]. Disponible en: https://www.wolterskluwer.com/en/know/cancerprinciples-and-practice-of-oncology
[8] A. F. Dalley, M. R. Anne, “Moore’s Clinically Oriented Anatomy. [En línea].
Disponible en: https://shop.lww.com/Moore-s-Clinically-OrientedAnatomy/p/9781975209544
[9] J. F. Mora, et al., “Compendio de Anatomía Patológica de la Glándula Mamaria. [En línea]. Disponible en: https://es.studenta.com/content/128840834/compendio-deanatomia-patologica-de-la-glandula-mamaria
[10] Ro. I. Sánchez Reyes, “Tipos de cáncer de mama - etapas y tipos de tumores”. [En
línea]. Disponible en: https://brexia.com.mx/cancer-de-mama/tipos-de-cancer-demama [Consultado: el 15 de septiembre de 2024].
[11] DataScientest, “Inteligencia artificial: definición, historia, usos, peligros”. [En línea]. Disponible en: https://datascientest.com/es/inteligencia-artificial-definicion [Consultado: el 15 de septiembre de 2024].
[12] A. Moreno E. et al., “Aprendizaje automático”, Politext 36 Ediciones UPC. [En línea]. Disponible en: www.edicionsupc.es [Consultado: el 15 de septiembre de 2024]
[13] Matlab, “Machine learning en MATLAB - MATLAB & Simulink”. [En línea]. Disponible en: https://la.mathworks.com/help/stats/machine-learning-inmatlab.html#bvni0hw-1 [Consultado: el 15 de septiembre de 2024].
[14] J. A. López Sotelo, “Deep Learning: Teoria y aplicaciones”, 1a ed. 2021. [En línea].
Disponible en: https://www.alphaeditorial.com/Papel/9789587786866/Deep+Learning [Consultado: el 15 de septiembre de 2024.]
[15] K. O’Shea, R. Nash, “An Introduction to Convolutional Neural Networks”, Int J Res Appl Sci Eng Technol, vol. 10, no. 12, pp. 943–947, nov. 2015, doi: 10.22214/ijraset.2022.47789. Disponible en: https://arxiv.org/pdf/1511.08458v2 [Consultado: el 15 de septiembre de 2024]
[16] A. Vaswani et al., “Attention Is All You Need”, Adv Neural Inf Process Syst, vol. 2017-December, pp. 5999–6009, jun. 2017. [En línea]. Disponible en: https://arxiv.org/abs/1706.03762v [Consultado: el 15 de septiembre de 2024]
[17] A. Dosovitskiy et al., “An image is worth 16x16 words: transformers for image recognition at scale”, Consultado: el 15 de septiembre de 2024. [En línea]. Disponible en: https://github.com/ [Consultado: el 15 de septiembre de 2024]
[18] E. A. Bermúdez, et al., “Nivel de ruido en resonancias magnéticas del cerebro humano”. Trabajo de investigación. Fac. de Ingeniería, Prog. Ing. De Sistemas. Pontificia Univ. Javeriana. Bogotá, D.C. 2023. [En línea]. Disponible en:
https://repository.javeriana.edu.co/handle/10554/64951?locale-attribute=it [Consultado: el 15 de septiembre de 2024].
[19] A. V. Mera Giraldo, “Segmentación y visualización de bordes en cáncer de mama utilizando herramientas de inteligencia artificial”. Trabajo de Investigación. Fac. Ing., Dpto. Automática y Electrónica. Univ. Autónoma de Occidente, Santiago de
Cali, Valle, 2023. Disponible en: https://red.uao.edu.co/server/api/core/bitstreams/a5b72316-4352-40c1-a701-
87edb096d275/content
[20] S. Alp, et al., “Joint transformer architecture in brain 3D MRI classification: its application in Alzheimer’s disease classification”, Scientific Reports, vol. 14, no. 8996, 2024. Disponible en: https://www.nature.com/articles/s41598-024-59578-3
[21] L. Hu et al., “An Observational Study of Deep Learning and Automated Evaluation of Cervical Images for Cancer Screening”, J Natl Cancer Inst, vol. 111, no. 9, pp. 923–932, sep. 2019, doi: 10.1093/JNCI/DJY225.
[22] F. A. Spanhol, L. S. Oliveira, et al., “A Dataset for Breast Cancer Histopathological Image Classification”, IEEE Trans. Biomed. Eng, vol. 63, no. 7, pp. 1455–1462, jul. 2016, doi: 10.1109/TBME.2015.2496264.
[23] M. Tan y Q. V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks”, 36th International Conference on Machine Learning, ICML 2019, jun. 2019, pp. 10691–10700, [En línea]. Disponible en: https://arxiv.org/abs/1905.11946v5
[24] M. Álvaro Díaz, “Optimización de una red neuronal convolucional para la detección de melanomas en imágenes dermoscópicas”, Trabajo de investigacion, Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación.
[25] M. Ijaz, “DeiT Data-Efficient Image Transformer | AIGuys”. 22 feb. 2022 [En línea].
Disponible en: https://medium.com/aiguys/deit-training-data-efficient-imagetransformer-distillation-through-attention-facebook-ai-9b60aea3da07 [Consultado: el 15 de septiembre de 2024.]
[26] G. Hinton, J. Dean, “Distilling the Knowledge in a Neural Network”, 2015.
[27] A. S. Mohan. Lizy Abraham, “An ensemble deep learning approach for air quality estimation in Delhi, India. Research Article,22 nov. 2023. [En línea]. Disponible en: https://www.researchgate.net/publication/375848860_An_ensemble_deep_learnin
g_approach_for_air_quality_estimation_in_Delhi_India [Consultado: el 27 de septiembre de 2024]
[28] Medium, “All About DeiT: Investigating the Innovations and Insights from DeiT &
DeiT III. [En línea]. Disponible en: https://medium.com/@nayounghoon0223/allabout-deit-investigating-the-innovations-and-insights-from-deit-deit-iii-251f7cf5ff20 [Consultado: el 5 de octubre de 2024]
[29] DataScientest, “¿Cómo aprovechar el rendimiento de la matriz de confusión?”. [En línea]. Disponible en: https://datascientest.com/es/matriz-de-confusion [Consultado: el 15 de septiembre de 2024.]
[30] J. I. Barrios Arce. “La matriz de confusión y sus métricas”. 29 jul. 2019 [En línea]. Disponible en: https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/ [Consultado: el 15 de septiembre de 2024.]
[31] K. Pykes, “Cross-Entropy Loss Function in Machine Learning: Enhancing Model Accuracy”. [En línea]. Disponible en: https://www.datacamp.com/tutorial/the-crossentropy-loss-function-in-machine-learning [Consultado: el 15 de septiembre de
2024]
[32] J. Luis, “Entendiendo el Sobreajuste en los Modelos de Machine Learning”. [En
línea]. Disponible en: https://jorgedataengineer.medium.com/entendiendo-elsobreajuste-en-los-modelos-de-machine-learning-115c63e906d [Consultado: el 15 de septiembre de 2024]
dc.rights.spa.fl_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2024
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.eng.fl_str_mv https://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.eng.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.spa.fl_str_mv Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
rights_invalid_str_mv Derechos reservados - Universidad Autónoma de Occidente, 2024
https://creativecommons.org/licenses/by-nc-nd/4.0/
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.extent.spa.fl_str_mv 72 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv Universidad Autónoma de Occidente
dc.publisher.program.spa.fl_str_mv Ingeniería Biomédica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.place.spa.fl_str_mv Cali
institution Universidad Autónoma de Occidente
bitstream.url.fl_str_mv https://red.uao.edu.co/bitstreams/282b84d1-c923-4b96-ba2f-0fdf55c0390c/download
https://red.uao.edu.co/bitstreams/6592e857-4d8f-4c4b-ba15-39ef4d0245c1/download
https://red.uao.edu.co/bitstreams/ae27eeb0-c85f-4e27-b0ff-eb4b5a8fa49f/download
https://red.uao.edu.co/bitstreams/fef47d68-d6d0-4617-94ab-9370fb59613e/download
https://red.uao.edu.co/bitstreams/7fc7eb4f-4e09-4553-9527-92716a789981/download
https://red.uao.edu.co/bitstreams/d4546e68-0bbf-4022-bf11-f2451170b646/download
https://red.uao.edu.co/bitstreams/671715f1-f620-419f-8910-4bc9400a9a4e/download
bitstream.checksum.fl_str_mv 6987b791264a2b5525252450f99b10d1
40cd1d4c9e0bfa9efd2795bcb57514af
d5179a4156736a4ca25c7bc1e6a409df
9e1cad87e0a0050aac3832439c7c42f2
228a529f25a22d2952a2a513e8d88e23
ba9c73a0123d278c666c0b92914e9efd
2dcfc115e88a8d60b56beb4aa8d0a371
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Digital Universidad Autonoma de Occidente
repository.mail.fl_str_mv repositorio@uao.edu.co
_version_ 1831928795380056064
spelling López Sotelo, Jesús Alfonsovirtual::5841-1Figueroa Sánchez, Fabian FelipeUniversidad Autónoma de OccidentePulgarín Giraldo, Juan Diegovirtual::5842-12024-12-13T19:24:39Z2024-12-13T19:24:39Z2024-11-12Figueroa Sánchez, F. F. (2024). Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15937https://hdl.handle.net/10614/15937Universidad Autónoma de OccidenteRespositorio Educativo Digital UAOhttps://red.uao.edu.co/El objetivo principal de este trabajo fue implementar un modelo de Vision Transformers para la clasificación de imágenes de tejido de cáncer de mama, comparándolo con modelos tradicionales como las redes neuronales convolucionales (CNNs), y desplegar el modelo con una interfaz fácil de utilizar. La importancia de herramientas innovadoras en el diagnóstico médico del cáncer de mama radica en la reducción de falsos positivos y negativos, así como en la mejora de la precisión diagnóstica. Se implementaron cuatro modelos: dos modelos base o personalizados, entrenados desde cero, y dos modelos preentrenados (DeiT-Tiny y EfficientNet-B0) para comparar su desempeño utilizando métricas definidas. Para el desarrollo de este trabajo, se utilizó la base de datos "BreastHIS", que contiene imágenes de microscopía de tejido mamario de 82 pacientes, con tumores malignos y benignos. La base de datos fue preprocesada con librerías de Python. Los modelos se implementaron usando PyTorch, y el despliegue del modelo se realizó con Gradio y Hugging Face. Los resultados demuestran que los modelos preentrenados superan a los modelos base entrenados desde cero. En particular, el modelo DeiT-Tiny fue el que obtuvo mejores resultados en las métricas, alcanzando una precisión del 99%, una sensibilidad del 99%, y una especificidad del 98%, contribuyendo a una significativa disminución de diagnósticos erróneos.The main objective of this work was to implement a Vision Transformers model for the classification of breast cancer tumors, compare it with traditional models such as Convolutional Neural Networks (CNNs), and deploy the model with an easy-to-use interface. The importance of innovative tools in the medical diagnosis of breast cancer lies in reducing false positives and negatives, as well as improving diagnostic accuracy. Four models were implemented: two base or custom models trained from scratch and two pre-trained models (DeiT-Tiny and EfficientNet-B0) to compare their performance using defined metrics. For this work, the "BreastHIS" database was used, which contains microscopy images of breast tissue from 82 patients with both malignant and benign tumors. The database was preprocessed using Python libraries. The models were implemented using PyTorch, and the model deployment was done with Gradio and Hugging Face. The results show that pre-trained models outperform base models trained from scratch. In particular, the DeiT-Tiny model achieved the best results in the metrics, with an accuracy of 99%, a sensitivity of 99%, and a specificity of 98%, contributing to a significant reduction in diagnostic errorsProyecto de grado (Ingeniero Biomédico)-- Universidad Autónoma de Occidente, 2024PregradoIngeniero(a) Biomédico(a)72 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería BiomédicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2024https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopiaTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a851] Organización Mundial de la Salud, “Cáncer de mama”. [En línea]. Disponible en: https://www.who.int/es/news-room/fact-sheets/detail/breast-cancer [Consultado: el 15 de septiembre de 2024].[2] A. M. Solano C, N. Guerra N., “Retraso en el diagnóstico de cáncer de mama en mujeres que reciben tratamiento en la ciudad de Bogotá”, Trabajo de Maestría. Fac. Ciencias Económicas y Administrativas Univ. Jorge Tadeo Lozano. Bogotá 2020.Disponible en: https://expeditiorepositorio.utadeo.edu.co/handle/20.500.12010/10170?localeattribute=en[3] American Cancer Society, “Limitaciones de los mamogramas”. [En línea]. Disponible en: https://www.cancer.org/es/cancer/tipos/cancer-de-seno/pruebasde-deteccion-y-deteccion-temprana-del-cancer-deseno/mamogramas/limitaciones-de-los-mamogramas.html[4] K. de la Cruz A., et al., “Costos médicos directos de la atención médica de pacientes con cáncer de mama”, Rev. Med. Inst. Mex. Seguro Soc. vol. 60, 2021. [En línea]. Disponible en: http://revistamedica.imss.gob.mx/[5] C. Wiesner, “La atención del cáncer desde la perspectiva de la sostenibilidad financiera del Sistema General de Seguridad Social en Colombia”, Rev. Col. De Cancerología. Vol. 20, no. 2, pp. 49-51, 2016. [En línea]. Disponible en:https://www.revistacancercol.org/index.php/cancer/article/view/244/101[6] Altim, “Los nuevos paradigmas de la inteligencia artificial: Avances y desaf íos”. [Enlínea]. Disponible en: https://www.altim.es/blog-noticias-tic/los-nuevosparadigmas-de-la-inteligencia-artificial-avances-y-desafios/ [ Consultado: el 15 de septiembre de 2024][7] V. T.DeVita Jr., et al., “Cancer: Principles and Practice of Oncology”. 12a ed., vol. 7. [En línea]. Disponible en: https://www.wolterskluwer.com/en/know/cancerprinciples-and-practice-of-oncology[8] A. F. Dalley, M. R. Anne, “Moore’s Clinically Oriented Anatomy. [En línea].Disponible en: https://shop.lww.com/Moore-s-Clinically-OrientedAnatomy/p/9781975209544[9] J. F. Mora, et al., “Compendio de Anatomía Patológica de la Glándula Mamaria. [En línea]. Disponible en: https://es.studenta.com/content/128840834/compendio-deanatomia-patologica-de-la-glandula-mamaria[10] Ro. I. Sánchez Reyes, “Tipos de cáncer de mama - etapas y tipos de tumores”. [Enlínea]. Disponible en: https://brexia.com.mx/cancer-de-mama/tipos-de-cancer-demama [Consultado: el 15 de septiembre de 2024].[11] DataScientest, “Inteligencia artificial: definición, historia, usos, peligros”. [En línea]. Disponible en: https://datascientest.com/es/inteligencia-artificial-definicion [Consultado: el 15 de septiembre de 2024].[12] A. Moreno E. et al., “Aprendizaje automático”, Politext 36 Ediciones UPC. [En línea]. Disponible en: www.edicionsupc.es [Consultado: el 15 de septiembre de 2024][13] Matlab, “Machine learning en MATLAB - MATLAB & Simulink”. [En línea]. Disponible en: https://la.mathworks.com/help/stats/machine-learning-inmatlab.html#bvni0hw-1 [Consultado: el 15 de septiembre de 2024].[14] J. A. López Sotelo, “Deep Learning: Teoria y aplicaciones”, 1a ed. 2021. [En línea].Disponible en: https://www.alphaeditorial.com/Papel/9789587786866/Deep+Learning [Consultado: el 15 de septiembre de 2024.][15] K. O’Shea, R. Nash, “An Introduction to Convolutional Neural Networks”, Int J Res Appl Sci Eng Technol, vol. 10, no. 12, pp. 943–947, nov. 2015, doi: 10.22214/ijraset.2022.47789. Disponible en: https://arxiv.org/pdf/1511.08458v2 [Consultado: el 15 de septiembre de 2024][16] A. Vaswani et al., “Attention Is All You Need”, Adv Neural Inf Process Syst, vol. 2017-December, pp. 5999–6009, jun. 2017. [En línea]. Disponible en: https://arxiv.org/abs/1706.03762v [Consultado: el 15 de septiembre de 2024][17] A. Dosovitskiy et al., “An image is worth 16x16 words: transformers for image recognition at scale”, Consultado: el 15 de septiembre de 2024. [En línea]. Disponible en: https://github.com/ [Consultado: el 15 de septiembre de 2024][18] E. A. Bermúdez, et al., “Nivel de ruido en resonancias magnéticas del cerebro humano”. Trabajo de investigación. Fac. de Ingeniería, Prog. Ing. De Sistemas. Pontificia Univ. Javeriana. Bogotá, D.C. 2023. [En línea]. Disponible en:https://repository.javeriana.edu.co/handle/10554/64951?locale-attribute=it [Consultado: el 15 de septiembre de 2024].[19] A. V. Mera Giraldo, “Segmentación y visualización de bordes en cáncer de mama utilizando herramientas de inteligencia artificial”. Trabajo de Investigación. Fac. Ing., Dpto. Automática y Electrónica. Univ. Autónoma de Occidente, Santiago deCali, Valle, 2023. Disponible en: https://red.uao.edu.co/server/api/core/bitstreams/a5b72316-4352-40c1-a701-87edb096d275/content[20] S. Alp, et al., “Joint transformer architecture in brain 3D MRI classification: its application in Alzheimer’s disease classification”, Scientific Reports, vol. 14, no. 8996, 2024. Disponible en: https://www.nature.com/articles/s41598-024-59578-3[21] L. Hu et al., “An Observational Study of Deep Learning and Automated Evaluation of Cervical Images for Cancer Screening”, J Natl Cancer Inst, vol. 111, no. 9, pp. 923–932, sep. 2019, doi: 10.1093/JNCI/DJY225.[22] F. A. Spanhol, L. S. Oliveira, et al., “A Dataset for Breast Cancer Histopathological Image Classification”, IEEE Trans. Biomed. Eng, vol. 63, no. 7, pp. 1455–1462, jul. 2016, doi: 10.1109/TBME.2015.2496264.[23] M. Tan y Q. V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks”, 36th International Conference on Machine Learning, ICML 2019, jun. 2019, pp. 10691–10700, [En línea]. Disponible en: https://arxiv.org/abs/1905.11946v5[24] M. Álvaro Díaz, “Optimización de una red neuronal convolucional para la detección de melanomas en imágenes dermoscópicas”, Trabajo de investigacion, Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación.[25] M. Ijaz, “DeiT Data-Efficient Image Transformer | AIGuys”. 22 feb. 2022 [En línea].Disponible en: https://medium.com/aiguys/deit-training-data-efficient-imagetransformer-distillation-through-attention-facebook-ai-9b60aea3da07 [Consultado: el 15 de septiembre de 2024.][26] G. Hinton, J. Dean, “Distilling the Knowledge in a Neural Network”, 2015.[27] A. S. Mohan. Lizy Abraham, “An ensemble deep learning approach for air quality estimation in Delhi, India. Research Article,22 nov. 2023. [En línea]. Disponible en: https://www.researchgate.net/publication/375848860_An_ensemble_deep_learning_approach_for_air_quality_estimation_in_Delhi_India [Consultado: el 27 de septiembre de 2024][28] Medium, “All About DeiT: Investigating the Innovations and Insights from DeiT &DeiT III. [En línea]. Disponible en: https://medium.com/@nayounghoon0223/allabout-deit-investigating-the-innovations-and-insights-from-deit-deit-iii-251f7cf5ff20 [Consultado: el 5 de octubre de 2024][29] DataScientest, “¿Cómo aprovechar el rendimiento de la matriz de confusión?”. [En línea]. Disponible en: https://datascientest.com/es/matriz-de-confusion [Consultado: el 15 de septiembre de 2024.][30] J. I. Barrios Arce. “La matriz de confusión y sus métricas”. 29 jul. 2019 [En línea]. Disponible en: https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/ [Consultado: el 15 de septiembre de 2024.][31] K. Pykes, “Cross-Entropy Loss Function in Machine Learning: Enhancing Model Accuracy”. [En línea]. Disponible en: https://www.datacamp.com/tutorial/the-crossentropy-loss-function-in-machine-learning [Consultado: el 15 de septiembre de2024][32] J. Luis, “Entendiendo el Sobreajuste en los Modelos de Machine Learning”. [Enlínea]. Disponible en: https://jorgedataengineer.medium.com/entendiendo-elsobreajuste-en-los-modelos-de-machine-learning-115c63e906d [Consultado: el 15 de septiembre de 2024]Ingeniería BiomédicaClasificación de imágenes de tumores mamarios con Vision TransformersClasificación de imágenes con Vision TransformersModelos deep learning para clasificación imágenes médicasCáncer de mamaImágenes tejido mamarioRedes neuronales convolucionalesClassification of breast tumor images with Vision TransformersImage classification with Vision TransformersDeep learning models for medical image classificationBreast cancerBreast tissue imagesConvolutional neural networksComunidad generalPublicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::5841-1https://scholar.google.com.co/citations?user=Bwuc2BkAAAAJ&hl=envirtual::5842-10000-0002-9731-8458virtual::5841-10000-0002-6409-5104virtual::5842-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::5841-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000207497virtual::5842-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::5841-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::5841-133e9b6b4-bd6d-4b86-b500-ae237e1e9a98virtual::5842-133e9b6b4-bd6d-4b86-b500-ae237e1e9a98virtual::5842-1LICENSElicense.txtlicense.txttext/plain; charset=utf-81672https://red.uao.edu.co/bitstreams/282b84d1-c923-4b96-ba2f-0fdf55c0390c/download6987b791264a2b5525252450f99b10d1MD53ORIGINALT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdfT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdfArchivo texto completo del trabajo de grado, PDFapplication/pdf3156917https://red.uao.edu.co/bitstreams/6592e857-4d8f-4c4b-ba15-39ef4d0245c1/download40cd1d4c9e0bfa9efd2795bcb57514afMD54TA11273_Autorización trabajo de grado.pdfTA11273_Autorización trabajo de grado.pdfAutorización para publicación del trabajo de gradoapplication/pdf565037https://red.uao.edu.co/bitstreams/ae27eeb0-c85f-4e27-b0ff-eb4b5a8fa49f/downloadd5179a4156736a4ca25c7bc1e6a409dfMD55TEXTT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.txtT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.txtExtracted texttext/plain74642https://red.uao.edu.co/bitstreams/fef47d68-d6d0-4617-94ab-9370fb59613e/download9e1cad87e0a0050aac3832439c7c42f2MD56TA11273_Autorización trabajo de grado.pdf.txtTA11273_Autorización trabajo de grado.pdf.txtExtracted texttext/plain5243https://red.uao.edu.co/bitstreams/7fc7eb4f-4e09-4553-9527-92716a789981/download228a529f25a22d2952a2a513e8d88e23MD58THUMBNAILT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.jpgT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.jpgGenerated Thumbnailimage/jpeg6475https://red.uao.edu.co/bitstreams/d4546e68-0bbf-4022-bf11-f2451170b646/downloadba9c73a0123d278c666c0b92914e9efdMD57TA11273_Autorización trabajo de grado.pdf.jpgTA11273_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg13005https://red.uao.edu.co/bitstreams/671715f1-f620-419f-8910-4bc9400a9a4e/download2dcfc115e88a8d60b56beb4aa8d0a371MD5910614/15937oai:red.uao.edu.co:10614/159372024-12-14 03:01:48.686https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2024open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coPHA+RUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS48L3A+Cg==