Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia
El objetivo principal de este trabajo fue implementar un modelo de Vision Transformers para la clasificación de imágenes de tejido de cáncer de mama, comparándolo con modelos tradicionales como las redes neuronales convolucionales (CNNs), y desplegar el modelo con una interfaz fácil de utilizar. La...
- Autores:
-
Figueroa Sánchez, Fabian Felipe
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad Autónoma de Occidente
- Repositorio:
- RED: Repositorio Educativo Digital UAO
- Idioma:
- spa
- OAI Identifier:
- oai:red.uao.edu.co:10614/15937
- Acceso en línea:
- https://hdl.handle.net/10614/15937
https://red.uao.edu.co/
- Palabra clave:
- Ingeniería Biomédica
Clasificación de imágenes de tumores mamarios con Vision Transformers
Clasificación de imágenes con Vision Transformers
Modelos deep learning para clasificación imágenes médicas
Cáncer de mama
Imágenes tejido mamario
Redes neuronales convolucionales
Classification of breast tumor images with Vision Transformers
Image classification with Vision Transformers
Deep learning models for medical image classification
Breast cancer
Breast tissue images
Convolutional neural networks
- Rights
- openAccess
- License
- Derechos reservados - Universidad Autónoma de Occidente, 2024
id |
REPOUAO2_8efebe185236882cd61b90623d67a306 |
---|---|
oai_identifier_str |
oai:red.uao.edu.co:10614/15937 |
network_acronym_str |
REPOUAO2 |
network_name_str |
RED: Repositorio Educativo Digital UAO |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia |
title |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia |
spellingShingle |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia Ingeniería Biomédica Clasificación de imágenes de tumores mamarios con Vision Transformers Clasificación de imágenes con Vision Transformers Modelos deep learning para clasificación imágenes médicas Cáncer de mama Imágenes tejido mamario Redes neuronales convolucionales Classification of breast tumor images with Vision Transformers Image classification with Vision Transformers Deep learning models for medical image classification Breast cancer Breast tissue images Convolutional neural networks |
title_short |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia |
title_full |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia |
title_fullStr |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia |
title_full_unstemmed |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia |
title_sort |
Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia |
dc.creator.fl_str_mv |
Figueroa Sánchez, Fabian Felipe |
dc.contributor.advisor.none.fl_str_mv |
López Sotelo, Jesús Alfonso |
dc.contributor.author.none.fl_str_mv |
Figueroa Sánchez, Fabian Felipe |
dc.contributor.corporatename.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.contributor.jury.none.fl_str_mv |
Pulgarín Giraldo, Juan Diego |
dc.subject.proposal.spa.fl_str_mv |
Ingeniería Biomédica Clasificación de imágenes de tumores mamarios con Vision Transformers Clasificación de imágenes con Vision Transformers Modelos deep learning para clasificación imágenes médicas Cáncer de mama Imágenes tejido mamario Redes neuronales convolucionales |
topic |
Ingeniería Biomédica Clasificación de imágenes de tumores mamarios con Vision Transformers Clasificación de imágenes con Vision Transformers Modelos deep learning para clasificación imágenes médicas Cáncer de mama Imágenes tejido mamario Redes neuronales convolucionales Classification of breast tumor images with Vision Transformers Image classification with Vision Transformers Deep learning models for medical image classification Breast cancer Breast tissue images Convolutional neural networks |
dc.subject.proposal.eng.fl_str_mv |
Classification of breast tumor images with Vision Transformers Image classification with Vision Transformers Deep learning models for medical image classification Breast cancer Breast tissue images Convolutional neural networks |
description |
El objetivo principal de este trabajo fue implementar un modelo de Vision Transformers para la clasificación de imágenes de tejido de cáncer de mama, comparándolo con modelos tradicionales como las redes neuronales convolucionales (CNNs), y desplegar el modelo con una interfaz fácil de utilizar. La importancia de herramientas innovadoras en el diagnóstico médico del cáncer de mama radica en la reducción de falsos positivos y negativos, así como en la mejora de la precisión diagnóstica. Se implementaron cuatro modelos: dos modelos base o personalizados, entrenados desde cero, y dos modelos preentrenados (DeiT-Tiny y EfficientNet-B0) para comparar su desempeño utilizando métricas definidas. Para el desarrollo de este trabajo, se utilizó la base de datos "BreastHIS", que contiene imágenes de microscopía de tejido mamario de 82 pacientes, con tumores malignos y benignos. La base de datos fue preprocesada con librerías de Python. Los modelos se implementaron usando PyTorch, y el despliegue del modelo se realizó con Gradio y Hugging Face. Los resultados demuestran que los modelos preentrenados superan a los modelos base entrenados desde cero. En particular, el modelo DeiT-Tiny fue el que obtuvo mejores resultados en las métricas, alcanzando una precisión del 99%, una sensibilidad del 99%, y una especificidad del 98%, contribuyendo a una significativa disminución de diagnósticos erróneos. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-12-13T19:24:39Z |
dc.date.available.none.fl_str_mv |
2024-12-13T19:24:39Z |
dc.date.issued.none.fl_str_mv |
2024-11-12 |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coarversion.fl_str_mv |
http://purl.org/coar/version/c_970fb48d4fbd8a85 |
dc.type.coar.eng.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.eng.fl_str_mv |
Text |
dc.type.driver.eng.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.eng.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
dc.type.version.eng.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
publishedVersion |
dc.identifier.citation.spa.fl_str_mv |
Figueroa Sánchez, F. F. (2024). Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15937 |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/10614/15937 |
dc.identifier.instname.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.identifier.reponame.spa.fl_str_mv |
Respositorio Educativo Digital UAO |
dc.identifier.repourl.spa.fl_str_mv |
https://red.uao.edu.co/ |
identifier_str_mv |
Figueroa Sánchez, F. F. (2024). Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15937 Universidad Autónoma de Occidente Respositorio Educativo Digital UAO |
url |
https://hdl.handle.net/10614/15937 https://red.uao.edu.co/ |
dc.language.iso.spa.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
1] Organización Mundial de la Salud, “Cáncer de mama”. [En línea]. Disponible en: https://www.who.int/es/news-room/fact-sheets/detail/breast-cancer [Consultado: el 15 de septiembre de 2024]. [2] A. M. Solano C, N. Guerra N., “Retraso en el diagnóstico de cáncer de mama en mujeres que reciben tratamiento en la ciudad de Bogotá”, Trabajo de Maestría. Fac. Ciencias Económicas y Administrativas Univ. Jorge Tadeo Lozano. Bogotá 2020. Disponible en: https://expeditiorepositorio.utadeo.edu.co/handle/20.500.12010/10170?localeattribute=en [3] American Cancer Society, “Limitaciones de los mamogramas”. [En línea]. Disponible en: https://www.cancer.org/es/cancer/tipos/cancer-de-seno/pruebasde-deteccion-y-deteccion-temprana-del-cancer-deseno/mamogramas/limitaciones-de-los-mamogramas.html [4] K. de la Cruz A., et al., “Costos médicos directos de la atención médica de pacientes con cáncer de mama”, Rev. Med. Inst. Mex. Seguro Soc. vol. 60, 2021. [En línea]. Disponible en: http://revistamedica.imss.gob.mx/ [5] C. Wiesner, “La atención del cáncer desde la perspectiva de la sostenibilidad financiera del Sistema General de Seguridad Social en Colombia”, Rev. Col. De Cancerología. Vol. 20, no. 2, pp. 49-51, 2016. [En línea]. Disponible en: https://www.revistacancercol.org/index.php/cancer/article/view/244/101 [6] Altim, “Los nuevos paradigmas de la inteligencia artificial: Avances y desaf íos”. [En línea]. Disponible en: https://www.altim.es/blog-noticias-tic/los-nuevosparadigmas-de-la-inteligencia-artificial-avances-y-desafios/ [ Consultado: el 15 de septiembre de 2024] [7] V. T.DeVita Jr., et al., “Cancer: Principles and Practice of Oncology”. 12a ed., vol. 7. [En línea]. Disponible en: https://www.wolterskluwer.com/en/know/cancerprinciples-and-practice-of-oncology [8] A. F. Dalley, M. R. Anne, “Moore’s Clinically Oriented Anatomy. [En línea]. Disponible en: https://shop.lww.com/Moore-s-Clinically-OrientedAnatomy/p/9781975209544 [9] J. F. Mora, et al., “Compendio de Anatomía Patológica de la Glándula Mamaria. [En línea]. Disponible en: https://es.studenta.com/content/128840834/compendio-deanatomia-patologica-de-la-glandula-mamaria [10] Ro. I. Sánchez Reyes, “Tipos de cáncer de mama - etapas y tipos de tumores”. [En línea]. Disponible en: https://brexia.com.mx/cancer-de-mama/tipos-de-cancer-demama [Consultado: el 15 de septiembre de 2024]. [11] DataScientest, “Inteligencia artificial: definición, historia, usos, peligros”. [En línea]. Disponible en: https://datascientest.com/es/inteligencia-artificial-definicion [Consultado: el 15 de septiembre de 2024]. [12] A. Moreno E. et al., “Aprendizaje automático”, Politext 36 Ediciones UPC. [En línea]. Disponible en: www.edicionsupc.es [Consultado: el 15 de septiembre de 2024] [13] Matlab, “Machine learning en MATLAB - MATLAB & Simulink”. [En línea]. Disponible en: https://la.mathworks.com/help/stats/machine-learning-inmatlab.html#bvni0hw-1 [Consultado: el 15 de septiembre de 2024]. [14] J. A. López Sotelo, “Deep Learning: Teoria y aplicaciones”, 1a ed. 2021. [En línea]. Disponible en: https://www.alphaeditorial.com/Papel/9789587786866/Deep+Learning [Consultado: el 15 de septiembre de 2024.] [15] K. O’Shea, R. Nash, “An Introduction to Convolutional Neural Networks”, Int J Res Appl Sci Eng Technol, vol. 10, no. 12, pp. 943–947, nov. 2015, doi: 10.22214/ijraset.2022.47789. Disponible en: https://arxiv.org/pdf/1511.08458v2 [Consultado: el 15 de septiembre de 2024] [16] A. Vaswani et al., “Attention Is All You Need”, Adv Neural Inf Process Syst, vol. 2017-December, pp. 5999–6009, jun. 2017. [En línea]. Disponible en: https://arxiv.org/abs/1706.03762v [Consultado: el 15 de septiembre de 2024] [17] A. Dosovitskiy et al., “An image is worth 16x16 words: transformers for image recognition at scale”, Consultado: el 15 de septiembre de 2024. [En línea]. Disponible en: https://github.com/ [Consultado: el 15 de septiembre de 2024] [18] E. A. Bermúdez, et al., “Nivel de ruido en resonancias magnéticas del cerebro humano”. Trabajo de investigación. Fac. de Ingeniería, Prog. Ing. De Sistemas. Pontificia Univ. Javeriana. Bogotá, D.C. 2023. [En línea]. Disponible en: https://repository.javeriana.edu.co/handle/10554/64951?locale-attribute=it [Consultado: el 15 de septiembre de 2024]. [19] A. V. Mera Giraldo, “Segmentación y visualización de bordes en cáncer de mama utilizando herramientas de inteligencia artificial”. Trabajo de Investigación. Fac. Ing., Dpto. Automática y Electrónica. Univ. Autónoma de Occidente, Santiago de Cali, Valle, 2023. Disponible en: https://red.uao.edu.co/server/api/core/bitstreams/a5b72316-4352-40c1-a701- 87edb096d275/content [20] S. Alp, et al., “Joint transformer architecture in brain 3D MRI classification: its application in Alzheimer’s disease classification”, Scientific Reports, vol. 14, no. 8996, 2024. Disponible en: https://www.nature.com/articles/s41598-024-59578-3 [21] L. Hu et al., “An Observational Study of Deep Learning and Automated Evaluation of Cervical Images for Cancer Screening”, J Natl Cancer Inst, vol. 111, no. 9, pp. 923–932, sep. 2019, doi: 10.1093/JNCI/DJY225. [22] F. A. Spanhol, L. S. Oliveira, et al., “A Dataset for Breast Cancer Histopathological Image Classification”, IEEE Trans. Biomed. Eng, vol. 63, no. 7, pp. 1455–1462, jul. 2016, doi: 10.1109/TBME.2015.2496264. [23] M. Tan y Q. V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks”, 36th International Conference on Machine Learning, ICML 2019, jun. 2019, pp. 10691–10700, [En línea]. Disponible en: https://arxiv.org/abs/1905.11946v5 [24] M. Álvaro Díaz, “Optimización de una red neuronal convolucional para la detección de melanomas en imágenes dermoscópicas”, Trabajo de investigacion, Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación. [25] M. Ijaz, “DeiT Data-Efficient Image Transformer | AIGuys”. 22 feb. 2022 [En línea]. Disponible en: https://medium.com/aiguys/deit-training-data-efficient-imagetransformer-distillation-through-attention-facebook-ai-9b60aea3da07 [Consultado: el 15 de septiembre de 2024.] [26] G. Hinton, J. Dean, “Distilling the Knowledge in a Neural Network”, 2015. [27] A. S. Mohan. Lizy Abraham, “An ensemble deep learning approach for air quality estimation in Delhi, India. Research Article,22 nov. 2023. [En línea]. Disponible en: https://www.researchgate.net/publication/375848860_An_ensemble_deep_learnin g_approach_for_air_quality_estimation_in_Delhi_India [Consultado: el 27 de septiembre de 2024] [28] Medium, “All About DeiT: Investigating the Innovations and Insights from DeiT & DeiT III. [En línea]. Disponible en: https://medium.com/@nayounghoon0223/allabout-deit-investigating-the-innovations-and-insights-from-deit-deit-iii-251f7cf5ff20 [Consultado: el 5 de octubre de 2024] [29] DataScientest, “¿Cómo aprovechar el rendimiento de la matriz de confusión?”. [En línea]. Disponible en: https://datascientest.com/es/matriz-de-confusion [Consultado: el 15 de septiembre de 2024.] [30] J. I. Barrios Arce. “La matriz de confusión y sus métricas”. 29 jul. 2019 [En línea]. Disponible en: https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/ [Consultado: el 15 de septiembre de 2024.] [31] K. Pykes, “Cross-Entropy Loss Function in Machine Learning: Enhancing Model Accuracy”. [En línea]. Disponible en: https://www.datacamp.com/tutorial/the-crossentropy-loss-function-in-machine-learning [Consultado: el 15 de septiembre de 2024] [32] J. Luis, “Entendiendo el Sobreajuste en los Modelos de Machine Learning”. [En línea]. Disponible en: https://jorgedataengineer.medium.com/entendiendo-elsobreajuste-en-los-modelos-de-machine-learning-115c63e906d [Consultado: el 15 de septiembre de 2024] |
dc.rights.spa.fl_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2024 |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.eng.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.rights.accessrights.eng.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.creativecommons.spa.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
rights_invalid_str_mv |
Derechos reservados - Universidad Autónoma de Occidente, 2024 https://creativecommons.org/licenses/by-nc-nd/4.0/ Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.spa.fl_str_mv |
72 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad Autónoma de Occidente |
dc.publisher.program.spa.fl_str_mv |
Ingeniería Biomédica |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.place.spa.fl_str_mv |
Cali |
institution |
Universidad Autónoma de Occidente |
bitstream.url.fl_str_mv |
https://red.uao.edu.co/bitstreams/282b84d1-c923-4b96-ba2f-0fdf55c0390c/download https://red.uao.edu.co/bitstreams/6592e857-4d8f-4c4b-ba15-39ef4d0245c1/download https://red.uao.edu.co/bitstreams/ae27eeb0-c85f-4e27-b0ff-eb4b5a8fa49f/download https://red.uao.edu.co/bitstreams/fef47d68-d6d0-4617-94ab-9370fb59613e/download https://red.uao.edu.co/bitstreams/7fc7eb4f-4e09-4553-9527-92716a789981/download https://red.uao.edu.co/bitstreams/d4546e68-0bbf-4022-bf11-f2451170b646/download https://red.uao.edu.co/bitstreams/671715f1-f620-419f-8910-4bc9400a9a4e/download |
bitstream.checksum.fl_str_mv |
6987b791264a2b5525252450f99b10d1 40cd1d4c9e0bfa9efd2795bcb57514af d5179a4156736a4ca25c7bc1e6a409df 9e1cad87e0a0050aac3832439c7c42f2 228a529f25a22d2952a2a513e8d88e23 ba9c73a0123d278c666c0b92914e9efd 2dcfc115e88a8d60b56beb4aa8d0a371 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Digital Universidad Autonoma de Occidente |
repository.mail.fl_str_mv |
repositorio@uao.edu.co |
_version_ |
1831928795380056064 |
spelling |
López Sotelo, Jesús Alfonsovirtual::5841-1Figueroa Sánchez, Fabian FelipeUniversidad Autónoma de OccidentePulgarín Giraldo, Juan Diegovirtual::5842-12024-12-13T19:24:39Z2024-12-13T19:24:39Z2024-11-12Figueroa Sánchez, F. F. (2024). Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia. (Proyecto de grado). Universidad Autónoma de Occidente. Cali. Colombia. https://hdl.handle.net/10614/15937https://hdl.handle.net/10614/15937Universidad Autónoma de OccidenteRespositorio Educativo Digital UAOhttps://red.uao.edu.co/El objetivo principal de este trabajo fue implementar un modelo de Vision Transformers para la clasificación de imágenes de tejido de cáncer de mama, comparándolo con modelos tradicionales como las redes neuronales convolucionales (CNNs), y desplegar el modelo con una interfaz fácil de utilizar. La importancia de herramientas innovadoras en el diagnóstico médico del cáncer de mama radica en la reducción de falsos positivos y negativos, así como en la mejora de la precisión diagnóstica. Se implementaron cuatro modelos: dos modelos base o personalizados, entrenados desde cero, y dos modelos preentrenados (DeiT-Tiny y EfficientNet-B0) para comparar su desempeño utilizando métricas definidas. Para el desarrollo de este trabajo, se utilizó la base de datos "BreastHIS", que contiene imágenes de microscopía de tejido mamario de 82 pacientes, con tumores malignos y benignos. La base de datos fue preprocesada con librerías de Python. Los modelos se implementaron usando PyTorch, y el despliegue del modelo se realizó con Gradio y Hugging Face. Los resultados demuestran que los modelos preentrenados superan a los modelos base entrenados desde cero. En particular, el modelo DeiT-Tiny fue el que obtuvo mejores resultados en las métricas, alcanzando una precisión del 99%, una sensibilidad del 99%, y una especificidad del 98%, contribuyendo a una significativa disminución de diagnósticos erróneos.The main objective of this work was to implement a Vision Transformers model for the classification of breast cancer tumors, compare it with traditional models such as Convolutional Neural Networks (CNNs), and deploy the model with an easy-to-use interface. The importance of innovative tools in the medical diagnosis of breast cancer lies in reducing false positives and negatives, as well as improving diagnostic accuracy. Four models were implemented: two base or custom models trained from scratch and two pre-trained models (DeiT-Tiny and EfficientNet-B0) to compare their performance using defined metrics. For this work, the "BreastHIS" database was used, which contains microscopy images of breast tissue from 82 patients with both malignant and benign tumors. The database was preprocessed using Python libraries. The models were implemented using PyTorch, and the model deployment was done with Gradio and Hugging Face. The results show that pre-trained models outperform base models trained from scratch. In particular, the DeiT-Tiny model achieved the best results in the metrics, with an accuracy of 99%, a sensitivity of 99%, and a specificity of 98%, contributing to a significant reduction in diagnostic errorsProyecto de grado (Ingeniero Biomédico)-- Universidad Autónoma de Occidente, 2024PregradoIngeniero(a) Biomédico(a)72 páginasapplication/pdfspaUniversidad Autónoma de OccidenteIngeniería BiomédicaFacultad de IngenieríaCaliDerechos reservados - Universidad Autónoma de Occidente, 2024https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)http://purl.org/coar/access_right/c_abf2Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopiaTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/version/c_970fb48d4fbd8a851] Organización Mundial de la Salud, “Cáncer de mama”. [En línea]. Disponible en: https://www.who.int/es/news-room/fact-sheets/detail/breast-cancer [Consultado: el 15 de septiembre de 2024].[2] A. M. Solano C, N. Guerra N., “Retraso en el diagnóstico de cáncer de mama en mujeres que reciben tratamiento en la ciudad de Bogotá”, Trabajo de Maestría. Fac. Ciencias Económicas y Administrativas Univ. Jorge Tadeo Lozano. Bogotá 2020.Disponible en: https://expeditiorepositorio.utadeo.edu.co/handle/20.500.12010/10170?localeattribute=en[3] American Cancer Society, “Limitaciones de los mamogramas”. [En línea]. Disponible en: https://www.cancer.org/es/cancer/tipos/cancer-de-seno/pruebasde-deteccion-y-deteccion-temprana-del-cancer-deseno/mamogramas/limitaciones-de-los-mamogramas.html[4] K. de la Cruz A., et al., “Costos médicos directos de la atención médica de pacientes con cáncer de mama”, Rev. Med. Inst. Mex. Seguro Soc. vol. 60, 2021. [En línea]. Disponible en: http://revistamedica.imss.gob.mx/[5] C. Wiesner, “La atención del cáncer desde la perspectiva de la sostenibilidad financiera del Sistema General de Seguridad Social en Colombia”, Rev. Col. De Cancerología. Vol. 20, no. 2, pp. 49-51, 2016. [En línea]. Disponible en:https://www.revistacancercol.org/index.php/cancer/article/view/244/101[6] Altim, “Los nuevos paradigmas de la inteligencia artificial: Avances y desaf íos”. [Enlínea]. Disponible en: https://www.altim.es/blog-noticias-tic/los-nuevosparadigmas-de-la-inteligencia-artificial-avances-y-desafios/ [ Consultado: el 15 de septiembre de 2024][7] V. T.DeVita Jr., et al., “Cancer: Principles and Practice of Oncology”. 12a ed., vol. 7. [En línea]. Disponible en: https://www.wolterskluwer.com/en/know/cancerprinciples-and-practice-of-oncology[8] A. F. Dalley, M. R. Anne, “Moore’s Clinically Oriented Anatomy. [En línea].Disponible en: https://shop.lww.com/Moore-s-Clinically-OrientedAnatomy/p/9781975209544[9] J. F. Mora, et al., “Compendio de Anatomía Patológica de la Glándula Mamaria. [En línea]. Disponible en: https://es.studenta.com/content/128840834/compendio-deanatomia-patologica-de-la-glandula-mamaria[10] Ro. I. Sánchez Reyes, “Tipos de cáncer de mama - etapas y tipos de tumores”. [Enlínea]. Disponible en: https://brexia.com.mx/cancer-de-mama/tipos-de-cancer-demama [Consultado: el 15 de septiembre de 2024].[11] DataScientest, “Inteligencia artificial: definición, historia, usos, peligros”. [En línea]. Disponible en: https://datascientest.com/es/inteligencia-artificial-definicion [Consultado: el 15 de septiembre de 2024].[12] A. Moreno E. et al., “Aprendizaje automático”, Politext 36 Ediciones UPC. [En línea]. Disponible en: www.edicionsupc.es [Consultado: el 15 de septiembre de 2024][13] Matlab, “Machine learning en MATLAB - MATLAB & Simulink”. [En línea]. Disponible en: https://la.mathworks.com/help/stats/machine-learning-inmatlab.html#bvni0hw-1 [Consultado: el 15 de septiembre de 2024].[14] J. A. López Sotelo, “Deep Learning: Teoria y aplicaciones”, 1a ed. 2021. [En línea].Disponible en: https://www.alphaeditorial.com/Papel/9789587786866/Deep+Learning [Consultado: el 15 de septiembre de 2024.][15] K. O’Shea, R. Nash, “An Introduction to Convolutional Neural Networks”, Int J Res Appl Sci Eng Technol, vol. 10, no. 12, pp. 943–947, nov. 2015, doi: 10.22214/ijraset.2022.47789. Disponible en: https://arxiv.org/pdf/1511.08458v2 [Consultado: el 15 de septiembre de 2024][16] A. Vaswani et al., “Attention Is All You Need”, Adv Neural Inf Process Syst, vol. 2017-December, pp. 5999–6009, jun. 2017. [En línea]. Disponible en: https://arxiv.org/abs/1706.03762v [Consultado: el 15 de septiembre de 2024][17] A. Dosovitskiy et al., “An image is worth 16x16 words: transformers for image recognition at scale”, Consultado: el 15 de septiembre de 2024. [En línea]. Disponible en: https://github.com/ [Consultado: el 15 de septiembre de 2024][18] E. A. Bermúdez, et al., “Nivel de ruido en resonancias magnéticas del cerebro humano”. Trabajo de investigación. Fac. de Ingeniería, Prog. Ing. De Sistemas. Pontificia Univ. Javeriana. Bogotá, D.C. 2023. [En línea]. Disponible en:https://repository.javeriana.edu.co/handle/10554/64951?locale-attribute=it [Consultado: el 15 de septiembre de 2024].[19] A. V. Mera Giraldo, “Segmentación y visualización de bordes en cáncer de mama utilizando herramientas de inteligencia artificial”. Trabajo de Investigación. Fac. Ing., Dpto. Automática y Electrónica. Univ. Autónoma de Occidente, Santiago deCali, Valle, 2023. Disponible en: https://red.uao.edu.co/server/api/core/bitstreams/a5b72316-4352-40c1-a701-87edb096d275/content[20] S. Alp, et al., “Joint transformer architecture in brain 3D MRI classification: its application in Alzheimer’s disease classification”, Scientific Reports, vol. 14, no. 8996, 2024. Disponible en: https://www.nature.com/articles/s41598-024-59578-3[21] L. Hu et al., “An Observational Study of Deep Learning and Automated Evaluation of Cervical Images for Cancer Screening”, J Natl Cancer Inst, vol. 111, no. 9, pp. 923–932, sep. 2019, doi: 10.1093/JNCI/DJY225.[22] F. A. Spanhol, L. S. Oliveira, et al., “A Dataset for Breast Cancer Histopathological Image Classification”, IEEE Trans. Biomed. Eng, vol. 63, no. 7, pp. 1455–1462, jul. 2016, doi: 10.1109/TBME.2015.2496264.[23] M. Tan y Q. V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks”, 36th International Conference on Machine Learning, ICML 2019, jun. 2019, pp. 10691–10700, [En línea]. Disponible en: https://arxiv.org/abs/1905.11946v5[24] M. Álvaro Díaz, “Optimización de una red neuronal convolucional para la detección de melanomas en imágenes dermoscópicas”, Trabajo de investigacion, Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación.[25] M. Ijaz, “DeiT Data-Efficient Image Transformer | AIGuys”. 22 feb. 2022 [En línea].Disponible en: https://medium.com/aiguys/deit-training-data-efficient-imagetransformer-distillation-through-attention-facebook-ai-9b60aea3da07 [Consultado: el 15 de septiembre de 2024.][26] G. Hinton, J. Dean, “Distilling the Knowledge in a Neural Network”, 2015.[27] A. S. Mohan. Lizy Abraham, “An ensemble deep learning approach for air quality estimation in Delhi, India. Research Article,22 nov. 2023. [En línea]. Disponible en: https://www.researchgate.net/publication/375848860_An_ensemble_deep_learning_approach_for_air_quality_estimation_in_Delhi_India [Consultado: el 27 de septiembre de 2024][28] Medium, “All About DeiT: Investigating the Innovations and Insights from DeiT &DeiT III. [En línea]. Disponible en: https://medium.com/@nayounghoon0223/allabout-deit-investigating-the-innovations-and-insights-from-deit-deit-iii-251f7cf5ff20 [Consultado: el 5 de octubre de 2024][29] DataScientest, “¿Cómo aprovechar el rendimiento de la matriz de confusión?”. [En línea]. Disponible en: https://datascientest.com/es/matriz-de-confusion [Consultado: el 15 de septiembre de 2024.][30] J. I. Barrios Arce. “La matriz de confusión y sus métricas”. 29 jul. 2019 [En línea]. Disponible en: https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/ [Consultado: el 15 de septiembre de 2024.][31] K. Pykes, “Cross-Entropy Loss Function in Machine Learning: Enhancing Model Accuracy”. [En línea]. Disponible en: https://www.datacamp.com/tutorial/the-crossentropy-loss-function-in-machine-learning [Consultado: el 15 de septiembre de2024][32] J. Luis, “Entendiendo el Sobreajuste en los Modelos de Machine Learning”. [Enlínea]. Disponible en: https://jorgedataengineer.medium.com/entendiendo-elsobreajuste-en-los-modelos-de-machine-learning-115c63e906d [Consultado: el 15 de septiembre de 2024]Ingeniería BiomédicaClasificación de imágenes de tumores mamarios con Vision TransformersClasificación de imágenes con Vision TransformersModelos deep learning para clasificación imágenes médicasCáncer de mamaImágenes tejido mamarioRedes neuronales convolucionalesClassification of breast tumor images with Vision TransformersImage classification with Vision TransformersDeep learning models for medical image classificationBreast cancerBreast tissue imagesConvolutional neural networksComunidad generalPublicationhttps://scholar.google.com.au/citations?user=7PIjh_MAAAAJ&hl=envirtual::5841-1https://scholar.google.com.co/citations?user=Bwuc2BkAAAAJ&hl=envirtual::5842-10000-0002-9731-8458virtual::5841-10000-0002-6409-5104virtual::5842-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000249106virtual::5841-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000207497virtual::5842-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::5841-1fc227fb1-22ec-47f0-afe7-521c61fddd32virtual::5841-133e9b6b4-bd6d-4b86-b500-ae237e1e9a98virtual::5842-133e9b6b4-bd6d-4b86-b500-ae237e1e9a98virtual::5842-1LICENSElicense.txtlicense.txttext/plain; charset=utf-81672https://red.uao.edu.co/bitstreams/282b84d1-c923-4b96-ba2f-0fdf55c0390c/download6987b791264a2b5525252450f99b10d1MD53ORIGINALT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdfT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdfArchivo texto completo del trabajo de grado, PDFapplication/pdf3156917https://red.uao.edu.co/bitstreams/6592e857-4d8f-4c4b-ba15-39ef4d0245c1/download40cd1d4c9e0bfa9efd2795bcb57514afMD54TA11273_Autorización trabajo de grado.pdfTA11273_Autorización trabajo de grado.pdfAutorización para publicación del trabajo de gradoapplication/pdf565037https://red.uao.edu.co/bitstreams/ae27eeb0-c85f-4e27-b0ff-eb4b5a8fa49f/downloadd5179a4156736a4ca25c7bc1e6a409dfMD55TEXTT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.txtT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.txtExtracted texttext/plain74642https://red.uao.edu.co/bitstreams/fef47d68-d6d0-4617-94ab-9370fb59613e/download9e1cad87e0a0050aac3832439c7c42f2MD56TA11273_Autorización trabajo de grado.pdf.txtTA11273_Autorización trabajo de grado.pdf.txtExtracted texttext/plain5243https://red.uao.edu.co/bitstreams/7fc7eb4f-4e09-4553-9527-92716a789981/download228a529f25a22d2952a2a513e8d88e23MD58THUMBNAILT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.jpgT11273_Clasificación de tumores mamarios con Vision Transformers a partir de imágenes de microscopia.pdf.jpgGenerated Thumbnailimage/jpeg6475https://red.uao.edu.co/bitstreams/d4546e68-0bbf-4022-bf11-f2451170b646/downloadba9c73a0123d278c666c0b92914e9efdMD57TA11273_Autorización trabajo de grado.pdf.jpgTA11273_Autorización trabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg13005https://red.uao.edu.co/bitstreams/671715f1-f620-419f-8910-4bc9400a9a4e/download2dcfc115e88a8d60b56beb4aa8d0a371MD5910614/15937oai:red.uao.edu.co:10614/159372024-12-14 03:01:48.686https://creativecommons.org/licenses/by-nc-nd/4.0/Derechos reservados - Universidad Autónoma de Occidente, 2024open.accesshttps://red.uao.edu.coRepositorio Digital Universidad Autonoma de Occidenterepositorio@uao.edu.coPHA+RUwgQVVUT1IgYXV0b3JpemEgYSBsYSBVbml2ZXJzaWRhZCBBdXTDs25vbWEgZGUgT2NjaWRlbnRlLCBkZSBmb3JtYSBpbmRlZmluaWRhLCBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgbGEgTGV5IDQ0IGRlIDE5OTMsIGxhIERlY2lzacOzbiBhbmRpbmEgMzUxIGRlIDE5OTMsIGVsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbGV5ZXMgeSBqdXJpc3BydWRlbmNpYSB2aWdlbnRlIGFsIHJlc3BlY3RvLCBoYWdhIHB1YmxpY2FjacOzbiBkZSBlc3RlIGNvbiBmaW5lcyBlZHVjYXRpdm9zLiBQQVJBR1JBRk86IEVzdGEgYXV0b3JpemFjacOzbiBhZGVtw6FzIGRlIHNlciB2w6FsaWRhIHBhcmEgbGFzIGZhY3VsdGFkZXMgeSBkZXJlY2hvcyBkZSB1c28gc29icmUgbGEgb2JyYSBlbiBmb3JtYXRvIG8gc29wb3J0ZSBtYXRlcmlhbCwgdGFtYmnDqW4gcGFyYSBmb3JtYXRvIGRpZ2l0YWwsIGVsZWN0csOzbmljbywgdmlydHVhbCwgcGFyYSB1c29zIGVuIHJlZCwgSW50ZXJuZXQsIGV4dHJhbmV0LCBpbnRyYW5ldCwgYmlibGlvdGVjYSBkaWdpdGFsIHkgZGVtw6FzIHBhcmEgY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4gRUwgQVVUT1IsIGV4cHJlc2EgcXVlIGVsIGRvY3VtZW50byAodHJhYmFqbyBkZSBncmFkbywgcGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIGVsYWJvcsOzIHNpbiBxdWVicmFudGFyIG5pIHN1cGxhbnRhciBsb3MgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHkgZGUgdGFsIGZvcm1hLCBlbCBkb2N1bWVudG8gKHRyYWJham8gZGUgZ3JhZG8sIHBhc2FudMOtYSwgY2Fzb3MgbyB0ZXNpcykgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgw6lzdGUuIFBBUkFHUkFGTzogZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBhbGd1bmEgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybywgcmVmZXJlbnRlIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGVsIGRvY3VtZW50byAoVHJhYmFqbyBkZSBncmFkbywgUGFzYW50w61hLCBjYXNvcyBvIHRlc2lzKSBlbiBjdWVzdGnDs24sIEVMIEFVVE9SLCBhc3VtaXLDoSBsYSByZXNwb25zYWJpbGlkYWQgdG90YWwsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvczsgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgbGEgVW5pdmVyc2lkYWQgIEF1dMOzbm9tYSBkZSBPY2NpZGVudGUgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4gVG9kYSBwZXJzb25hIHF1ZSBjb25zdWx0ZSB5YSBzZWEgZW4gbGEgYmlibGlvdGVjYSBvIGVuIG1lZGlvIGVsZWN0csOzbmljbyBwb2Ryw6EgY29waWFyIGFwYXJ0ZXMgZGVsIHRleHRvIGNpdGFuZG8gc2llbXByZSBsYSBmdWVudGUsIGVzIGRlY2lyIGVsIHTDrXR1bG8gZGVsIHRyYWJham8geSBlbCBhdXRvci4gRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGllbmUgRUwgQVVUT1IgZGUgcHVibGljYXIgdG90YWwgbyBwYXJjaWFsbWVudGUgbGEgb2JyYS48L3A+Cg== |