Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales
Este documento describe el desarrollo de un sistema de visión por computadora basado en redes neuronales convolucionales, diseñado para facilitar la identificación de especies de Philodendron. El objetivo principal de este estudio fue desarrollar un sistema de clasificación de imágenes de Philodendr...
- Autores:
-
Andrade Jiménez, Luis Felipe
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad de Ibagué
- Repositorio:
- Repositorio Universidad de Ibagué
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unibague.edu.co:20.500.12313/4751
- Acceso en línea:
- https://hdl.handle.net/20.500.12313/4751
- Palabra clave:
- redes neuronales convolucionales
Philodendron - Clasificación
Redes neuronales
Philodendrum
Plantas
Aprendizaje de máquinas
Entrenamiento
Neural networks
Philodendrum
Plants
Machine Learning
Training.
- Rights
- openAccess
- License
- http://purl.org/coar/access_right/c_abf2
| id |
UNIBAGUE2_cdeaa56c03ed8fbac9b67f79498b1181 |
|---|---|
| oai_identifier_str |
oai:repositorio.unibague.edu.co:20.500.12313/4751 |
| network_acronym_str |
UNIBAGUE2 |
| network_name_str |
Repositorio Universidad de Ibagué |
| repository_id_str |
|
| dc.title.spa.fl_str_mv |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales |
| title |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales |
| spellingShingle |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales redes neuronales convolucionales Philodendron - Clasificación Redes neuronales Philodendrum Plantas Aprendizaje de máquinas Entrenamiento Neural networks Philodendrum Plants Machine Learning Training. |
| title_short |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales |
| title_full |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales |
| title_fullStr |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales |
| title_full_unstemmed |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales |
| title_sort |
Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales |
| dc.creator.fl_str_mv |
Andrade Jiménez, Luis Felipe |
| dc.contributor.advisor.none.fl_str_mv |
Forero Vargas, Manuel Guillermo |
| dc.contributor.author.none.fl_str_mv |
Andrade Jiménez, Luis Felipe |
| dc.contributor.jury.none.fl_str_mv |
Fernández, José Armando |
| dc.subject.armarc.none.fl_str_mv |
redes neuronales convolucionales Philodendron - Clasificación |
| topic |
redes neuronales convolucionales Philodendron - Clasificación Redes neuronales Philodendrum Plantas Aprendizaje de máquinas Entrenamiento Neural networks Philodendrum Plants Machine Learning Training. |
| dc.subject.proposal.spa.fl_str_mv |
Redes neuronales Philodendrum Plantas Aprendizaje de máquinas Entrenamiento |
| dc.subject.proposal.eng.fl_str_mv |
Neural networks Philodendrum Plants Machine Learning Training. |
| description |
Este documento describe el desarrollo de un sistema de visión por computadora basado en redes neuronales convolucionales, diseñado para facilitar la identificación de especies de Philodendron. El objetivo principal de este estudio fue desarrollar un sistema de clasificación de imágenes de Philodendron utilizando redes neuronales convolucionales. Se abordaron los desafíos asociados a la adquisición y preprocesamiento de datos, así como al diseño y entrenamiento de la red neuronal. Los resultados de esta investigación contribuyen al avance de herramientas automatizadas para la taxonomía vegetal y tienen el potencial de ser aplicadas en diversas áreas, como la horticultura y la conservación de la biodiversidad. |
| publishDate |
2024 |
| dc.date.issued.none.fl_str_mv |
2024 |
| dc.date.accessioned.none.fl_str_mv |
2025-02-27T22:11:15Z |
| dc.date.available.none.fl_str_mv |
2025-02-27T22:11:15Z |
| dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
| dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
| dc.type.content.none.fl_str_mv |
Text |
| dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
| dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
| format |
http://purl.org/coar/resource_type/c_7a1f |
| status_str |
acceptedVersion |
| dc.identifier.citation.none.fl_str_mv |
Andrade Jiménez, L. F. (2025). Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4751 |
| dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12313/4751 |
| identifier_str_mv |
Andrade Jiménez, L. F. (2025). Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4751 |
| url |
https://hdl.handle.net/20.500.12313/4751 |
| dc.language.iso.none.fl_str_mv |
spa |
| language |
spa |
| dc.relation.references.none.fl_str_mv |
Mayo, S. J.; Bogner, J.; Boyce, P. C. The genera of Araceae. Royal Botanic Gardens, Kew, 1997. NASA. Interior Landscape Plants for Indoor Air Pollution Abatement. National Aeronautics and Space Administration, 1989. Boyce, P. C.; Croat, T. B. The Überlist of Araceae. Botanical Research Institute of Texas, 2018. Brown, D. Aroids: Plants of the Arum Family. Timber Press, 2002. Brickell, C.; Zuk, J. D. The American Horticultural Society A-Z Encyclopedia of Garden Plants. DK Publishing, 1997. Wolverton, B. C.; Johson, A.; Bounds, K. Interior Plants: Their Influence on Airborne Microbes Inside Energy-efficient Buildings. NASA, 1989. Mchoy, P. The Complete Guide to Houseplants: The Easy Way to Choose and Grow Happy, Healthy Houseplants. Lorenz Books, 2000. PlantSnap, Inc. (2024). PlantSnap: Plant Identification (Versión 5.02) [Aplicación móvil]. Plataforma: Android/iOS. Disponible en: https://www.plantsnap.com. Barahona Carvajal, M. E. Estudio morfológico comparativo de las inflorescencias de dos especies de Araceae: Anthurium denudatum Engler y Philodendron radiatum Schott. Revista de Biología Tropical, 25(2), 301–333, dic. 1977. Granda, I. A. Estudio preliminar del género Philodendron Schott en Cuba: I - Patrones foliares. Revista del Jardín Botánico Nacional, 9(3), 59–68, 1988. Disponible en: http://www.jstor.org/stable/42597564. Goodfellow, I.; Bengio, Y.; Courville, A. Deep Learning. MIT Press, 2016. Lecun, Y.; Bottou, L.; Bengio, Y.; Haffner, P. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278-2324, 1998 Szeliski, R. Computer Vision: Algorithms and Applications. 2.ª ed. Springer, 2022. Mora, E. A. H.; Huitrón, V. G.; Rangel, H. R.; Sosa, L. E. A. Detección de enfermedades foliares con arquitecturas de redes neuronales convolucionales. Rinderesu, 5, 2021. Hernández Calvario, O. M. A. R. Conteo de plantas de agave usando redes neuronales convolucionales. s.f., 2022. Malqui Liñan, L. M.; Sánchez Chumpitaz, J. V. Redes neuronales convolucionales para el diagnóstico de hongos en hojas de plantas a través de fotografías. s.f., 2023 Croat, T. B. A Revision of the Genus Philodendron (Araceae) for Colombia. Missouri Botanical Garden, 1979. Wolverton, B. C. How to Grow Fresh Air: 50 Houseplants That Purify Your Home or Office. Penguin Books, 1996. Mayo, S. J.; Boyce, P. C. The diversity and ecology of the Araceae in the Tropics. Annals of the Missouri Botanical Garden, 93(2), 442-487, 2006. Thaumatophyllum bipinnatifidum. (2024, 28 de junio). Wikipedia, la enciclopedia libre. Fecha de consulta: 28 de junio de 2024, 16:10. Disponible en: https://es.wikipedia.org/w/index.php?title=Thaumatophyllum_bipinnatifidum&oldid=161010 369. Wikipedia contributors. (2023, 13 de julio). Anthurium veitchii. En Wikipedia, The Free Encyclopedia. Fecha de consulta: 28 de julio de 2024, 02:09. Disponible en: https://en.wikipedia.org/w/index.php?title=Anthurium_veitchii&oldid=1165219216. Plant Delight Nursery, INC. Philodendron giganteum. Plant Delights Nursery. Fecha de consulta: 29 de julio de 2024. Disponible en: https://www.plantdelights.com. Wikipedia contributors. (s.f.). Philodendron hederaceum. En Wikipedia, The Free Encyclopedia. Fecha de consulta: 29 de julio de 2024. Disponible en: https://en.wikipedia.org/wiki/Philodendron_hederaceum Plant Delight Nursery, INC. Philodendron medusa. Plant Delights Nursery. Fecha de consulta: 29 de julio de 2024. Disponible en: https://www.plantdelights.com. Plant Delight Nursery, INC. Philodendron pertusum. Plant Delights Nursery. Fecha de consulta: 29 de agosto de 2024. Disponible en: https://www.plantdelights.com. Gu, J.; Wang, Z.; Kuen, J.; Ma, L.; Wang, G. Recent advances in convolutional neural networks. Pattern Recognition, https://doi.org/10.1016/j.patcog.2017.10.013 Simonyan, K.; Zisserman, A. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014. Litjengs, G.; Kooi, T.; Bejnordi, B. E.; Setio, A. A. A.; Ciompi, F.; Ghafoorian, M.; Van Der Laak, J. A. A survey on deep learning in medical image analysis. Medical Image Analysis, 42, 60-88, 2017. https://doi.org/10.1016/j.media.2017.07.005 Choi, D.; Bell, W.; Kim, D.; Kim, J. UAV-Driven Structural Crack Detection and Location Determination Using Convolutional Neural Networks. Sensors, 21, 2650, 2021. https://doi.org/10.3390/s21082650. Bengio, Y.; Lecun, Y.; Goodfellow, I. Deep Learning. MIT Press, 2016. Russell, B.; Adelson, E.; LI, H.; Lipton, Z. Convolutional Neural Networks for Object Detection. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 1600-1610, 2016. Disponible en: https://doi.org/10.1109/ICCV.2016.174. Huang, G.; Liu, Z.; Van Der Maaten, L.; Weiss, S.; Meng, S.; Sarkar, R. Densely Connected Convolutional Networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 4700-4708, 2017. Disponible en: https://doi.org/10.1109/CVPR.2017.243. Shi, L.; Yang, Z.; Liu, Y.; Xu, Y. A Survey of Convolutional Neural Networks and Their Applications in Medical Imaging. Journal of Medical Imaging, 8(4), 230-240, 2019. Disponible en: https://doi.org/10.1002/jmi2.108. Girshick, R.; Donahue, J.; Darrell, T.; Malik, J. Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 580-587, 2014. Disponible en: https://doi.org/10.1109/CVPR.2014.81. Mostafiz, R.; Rahman, M. M.; Islam, A.; Belkasim, S. Focal liver lesion detection in ultrasound image using deep feature fusions and super resolution. Machine Learning and Knowledge Extraction, 2, 10, 2020. https://doi.org/10.3390/make2030010. Tan, M.; Le, Q. V. EfficientNet: Rethinking model scaling for convolutional neural networks. Proceedings of the 36th International Conference on Machine Learning (ICML), 97, 6105-6114, 2019. Disponible en: https://arxiv.org/abs/1905.11946. Judd, W. S.; C. S. Campbell, E. A. Kellogg, P. F. Stevens, M. J. Donoghue (2007). «Araceae». Plant Systematics: A Phylogenetic Approach, Third edition. Sunderland, Massachusetts: Sinauer Associates. pp. 250-252. ISBN 978-0-87893-407-2. Simpson, Michael G. (2005). «Araceae». Plant Systematics. Elsevier Inc. p. 160. ISBN 0-12-644460-9 ISBN 978-0-12-644460-5. Stevens, P. F. (2001 en adelante). «Angiosperm Phylogeny Website (Versión 9, junio de 2008, y actualizado desde entonces)» (en inglés). Consultado el 12 de enero de 2009. Jimenez Cueva, Karla Yacely, 2024. [Título del documento] [en línea]. Universidad Nacional de Loja. Disponible en: https://dspace.unl.edu.ec/jspui/bitstream/123456789/26414/1/KarlaYacely_Jim%C3%A9ne zCueva.pdf Datahacker, s.f. Deep Learning: VGG-16 vs VGG-19 [en línea]. Disponible en: https://datahacker.rs/deep-learning-vgg-16-vs-vgg-19/ Keras, 2024. VGG - Keras Applications [en línea]. Disponible en: https://keras.io/api/applications/vgg/ Shah, Syed Rehan, et al., s.f. Comparing Inception V3, VGG 16, VGG 19, CNN, and ResNet 50: A Case Study on Early Detection of a Rice Disease [en línea]. Agronomy. 13(6), 1633. Disponible en: https://www.mdpi.com/2073-4395/13/6/1633 Autoridad Nacional de Telemedicina. (2021). Redes Neuronales Convolucionales para la Clasificación de Componentes Independientes en Imágenes de Resonancia Magnética Funcional en Estado de Reposo. Revista Colombiana de Neurología, 30(1), 21–29. Recuperado de https://www.scielo.org.co. Universidad Complutense de Madrid. (s.f.). Redes Neuronales Convolucionales y Aplicaciones. Recuperado de https://docta.ucm.es. López, J., & García, M. (2023). Análisis de la Aplicación de Redes Neuronales Convolucionales en el Área de la Visión Artificial. Revista de Tecnología Avanzada, 45(3), 55–68. Recuperado de https://www.researchgate.net. Rojas, M. y Pérez, J. (2016). Redes Neuronales Convolucionales Aplicadas a la Traducción del Lenguaje de Señas Boliviano. Revista Boliviana de Informática y Tecnología, 22(2), 35–42. Recuperado de https://www.scielo.org.bo. Ramírez, D., González, A., & Sánchez, R. (2021). Redes Neuronales Convolucionales para Clasificación de Componentes Electrónicos. Revista Internacional de Ingeniería y Tecnología, 13(1), 12–18. Recuperado de https://www.camjol.info. Maeda Gutiérrez, M. A. (2020). Redes neuronales convolucionales para la detección y clasificación de enfermedades de plantas basadas en imágenes digitales [en línea]. Universidad Autónoma de Zacatecas. Disponible en: https://ricaxcan.uaz.edu.mx/jspui/handle/20.500.11845/1910 [Consulta: 28 de enero de 2025]. Simonyan, K.; Zisserman, A. Very Deep Convolutional Networks for Large-Scale Image Recognition. Advances in Neural Information Processing Systems (NIPS), 27, 1-9, 2014. Disponible en: https://arxiv.org/abs/1409.1556. Chollet, F. Deep Learning with Python. 2.ª ed. Manning Publications, 2021. Gu, J.; Wang, Z.; Kuen, J.; Ma, L.; Wang, G. Recent advances in convolutional neural networks. Pattern Recognition, https://doi.org/10.1016/j.patcog.2017.10.013. 77, 354-377, Liu, Z.; Lin, Y.; Cao, Y.; Hu, H.; Wei, Y.; Zhang, Z.; Lin, S.; Guo, B. Efficient vision transformers: A survey on recent advances and applications. arXiv preprint arXiv:2104.05702, 2021. Disponible en: https://arxiv.org/abs/2104.05702. |
| dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
| dc.rights.license.none.fl_str_mv |
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) |
| dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://purl.org/coar/access_right/c_abf2 Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) https://creativecommons.org/licenses/by-nc/4.0/ |
| dc.format.extent.none.fl_str_mv |
80 páginas |
| dc.format.mimetype.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidad de Ibagué |
| dc.publisher.faculty.none.fl_str_mv |
Ingeniería |
| dc.publisher.place.none.fl_str_mv |
Ibagué |
| dc.publisher.program.none.fl_str_mv |
Ingenieria Electrónica |
| publisher.none.fl_str_mv |
Universidad de Ibagué |
| institution |
Universidad de Ibagué |
| bitstream.url.fl_str_mv |
https://repositorio.unibague.edu.co/bitstreams/2c006118-2092-4747-a1ea-96c72022f6ff/download https://repositorio.unibague.edu.co/bitstreams/51694865-0c04-4a04-9f22-eddb91188fd4/download https://repositorio.unibague.edu.co/bitstreams/88ed4769-9c90-4534-9ba8-b6531cc29d87/download https://repositorio.unibague.edu.co/bitstreams/e52960a4-6d72-442a-ac22-4d8798dfe674/download https://repositorio.unibague.edu.co/bitstreams/a5bfbe6c-c408-43d1-ba18-661fc0f7cee7/download https://repositorio.unibague.edu.co/bitstreams/862f0b62-b918-4d59-a9fb-1de8602e3cea/download https://repositorio.unibague.edu.co/bitstreams/fc6c97c9-ff0a-43b4-8237-c7330ee822cb/download |
| bitstream.checksum.fl_str_mv |
2eb8fd33c76d67e47de7806f70639fd2 0260442250dddc7a48c0ddff7d6d4634 993203419c63da536a7f1564f305bfc4 cf7348f6070bf2cf7bea6aa4b4e8f2ef 143e73c6ee9115f89bf6c17f00fdf30b 0749343edcd375dfa6c556e3f255b97d 2fa3e590786b9c0f3ceba1b9656b7ac3 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Institucional Universidad de Ibagué |
| repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
| _version_ |
1851059986733465600 |
| spelling |
Forero Vargas, Manuel Guillermo187e7d0d-8326-49bc-8824-d0c7660437b7-1Andrade Jiménez, Luis Felipe71f33fcc-79bc-4569-9a6b-06548d2d2f1f-1Fernández, José Armandod4523d80-87d7-47e9-94fe-2b3b99f156ae-12025-02-27T22:11:15Z2025-02-27T22:11:15Z2024Este documento describe el desarrollo de un sistema de visión por computadora basado en redes neuronales convolucionales, diseñado para facilitar la identificación de especies de Philodendron. El objetivo principal de este estudio fue desarrollar un sistema de clasificación de imágenes de Philodendron utilizando redes neuronales convolucionales. Se abordaron los desafíos asociados a la adquisición y preprocesamiento de datos, así como al diseño y entrenamiento de la red neuronal. Los resultados de esta investigación contribuyen al avance de herramientas automatizadas para la taxonomía vegetal y tienen el potencial de ser aplicadas en diversas áreas, como la horticultura y la conservación de la biodiversidad.This paper describes the development of a computer vision system based on convolutional neural networks, designed to facilitate the identification of Philodendron species. The primary objective of this study was to develop an image classification system for Philodendron using convolutional neural networks. Challenges associated with data acquisition, preprocessing, and neural network design and training were addressed. The results of this research contribute to the advancement of automated tools for plant taxonomy and have the potential to be applied in various fields, such as horticulture and biodiversity conservation.PregradoIngeniero ElectrónicoIntroducción.....8 Planteamiento del problema.....11 Justificación.....11 1. Objetivos.....13 1.1. Objetivo General.....13 1.2. Objetivos Específicos.....13 2. Marco Teórico.....14 2.1. Aráceas.....14 2.2. Philodendron.....17 2.3. Philodendron bipinnatifidum.....17 2.4. Philodendron anthurium veitchii.....18 2.5. Philodendron giganteum.....19 2.6. Philodendron hederaceum.....19 2.7. Philodendron medisa.....20 2.8. Philodendron pertusum.....20 2.9. Procesamiento de imágenes.....21 2.10. Redes neuronales convolucionales.....21 2.11. Arquitectura VGG16.....24 2.12. Arquitectura VGG19.....25 2.13. Arquitectura EfficientNet.....26 2.14. Arquitectura EfficientNetB0.....27 2.15. Arquitectura EfficientNet B1.....29 3. Estado del Arte.....32 4. Metodología.....36 4.1. Construcción de la base de datos.....36 4.2. Hardware y software empleado.....40 4.3. Implementación de los modelos.....41 5. Resultados.....47 5.1. Red neuronal VGG19.....47 5.2. Red neuronal VGG16.....48 5.3. Redes neuronales EfficientNet B0 y B1.....48 5.5 Resultados Prácticos.....50 6. Conclusiones y recomendaciones.....50 6.1. Conclusiones.....50 6.2. Recomendaciones.....51 Referencias bibliográficas.....52 Anexos.....57 1. EfficientNet B1.....57 2. EfficientNet B0.....7180 páginasapplication/pdfAndrade Jiménez, L. F. (2025). Clasificación de philodendron mediante la aplicación de redes neuronales convolucionales. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/4751https://hdl.handle.net/20.500.12313/4751spaUniversidad de IbaguéIngenieríaIbaguéIngenieria ElectrónicaMayo, S. J.; Bogner, J.; Boyce, P. C. The genera of Araceae. Royal Botanic Gardens, Kew, 1997.NASA. Interior Landscape Plants for Indoor Air Pollution Abatement. National Aeronautics and Space Administration, 1989.Boyce, P. C.; Croat, T. B. The Überlist of Araceae. Botanical Research Institute of Texas, 2018.Brown, D. Aroids: Plants of the Arum Family. Timber Press, 2002.Brickell, C.; Zuk, J. D. The American Horticultural Society A-Z Encyclopedia of Garden Plants. DK Publishing, 1997.Wolverton, B. C.; Johson, A.; Bounds, K. Interior Plants: Their Influence on Airborne Microbes Inside Energy-efficient Buildings. NASA, 1989.Mchoy, P. The Complete Guide to Houseplants: The Easy Way to Choose and Grow Happy, Healthy Houseplants. Lorenz Books, 2000.PlantSnap, Inc. (2024). PlantSnap: Plant Identification (Versión 5.02) [Aplicación móvil]. Plataforma: Android/iOS. Disponible en: https://www.plantsnap.com.Barahona Carvajal, M. E. Estudio morfológico comparativo de las inflorescencias de dos especies de Araceae: Anthurium denudatum Engler y Philodendron radiatum Schott. Revista de Biología Tropical, 25(2), 301–333, dic. 1977.Granda, I. A. Estudio preliminar del género Philodendron Schott en Cuba: I - Patrones foliares. Revista del Jardín Botánico Nacional, 9(3), 59–68, 1988. Disponible en: http://www.jstor.org/stable/42597564.Goodfellow, I.; Bengio, Y.; Courville, A. Deep Learning. MIT Press, 2016.Lecun, Y.; Bottou, L.; Bengio, Y.; Haffner, P. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278-2324, 1998Szeliski, R. Computer Vision: Algorithms and Applications. 2.ª ed. Springer, 2022.Mora, E. A. H.; Huitrón, V. G.; Rangel, H. R.; Sosa, L. E. A. Detección de enfermedades foliares con arquitecturas de redes neuronales convolucionales. Rinderesu, 5, 2021.Hernández Calvario, O. M. A. R. Conteo de plantas de agave usando redes neuronales convolucionales. s.f., 2022.Malqui Liñan, L. M.; Sánchez Chumpitaz, J. V. Redes neuronales convolucionales para el diagnóstico de hongos en hojas de plantas a través de fotografías. s.f., 2023Croat, T. B. A Revision of the Genus Philodendron (Araceae) for Colombia. Missouri Botanical Garden, 1979.Wolverton, B. C. How to Grow Fresh Air: 50 Houseplants That Purify Your Home or Office. Penguin Books, 1996.Mayo, S. J.; Boyce, P. C. The diversity and ecology of the Araceae in the Tropics. Annals of the Missouri Botanical Garden, 93(2), 442-487, 2006.Thaumatophyllum bipinnatifidum. (2024, 28 de junio). Wikipedia, la enciclopedia libre. Fecha de consulta: 28 de junio de 2024, 16:10. Disponible en: https://es.wikipedia.org/w/index.php?title=Thaumatophyllum_bipinnatifidum&oldid=161010 369.Wikipedia contributors. (2023, 13 de julio). Anthurium veitchii. En Wikipedia, The Free Encyclopedia. Fecha de consulta: 28 de julio de 2024, 02:09. Disponible en: https://en.wikipedia.org/w/index.php?title=Anthurium_veitchii&oldid=1165219216.Plant Delight Nursery, INC. Philodendron giganteum. Plant Delights Nursery. Fecha de consulta: 29 de julio de 2024. Disponible en: https://www.plantdelights.com.Wikipedia contributors. (s.f.). Philodendron hederaceum. En Wikipedia, The Free Encyclopedia. Fecha de consulta: 29 de julio de 2024. Disponible en: https://en.wikipedia.org/wiki/Philodendron_hederaceumPlant Delight Nursery, INC. Philodendron medusa. Plant Delights Nursery. Fecha de consulta: 29 de julio de 2024. Disponible en: https://www.plantdelights.com.Plant Delight Nursery, INC. Philodendron pertusum. Plant Delights Nursery. Fecha de consulta: 29 de agosto de 2024. Disponible en: https://www.plantdelights.com.Gu, J.; Wang, Z.; Kuen, J.; Ma, L.; Wang, G. Recent advances in convolutional neural networks. Pattern Recognition, https://doi.org/10.1016/j.patcog.2017.10.013Simonyan, K.; Zisserman, A. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556, 2014.Litjengs, G.; Kooi, T.; Bejnordi, B. E.; Setio, A. A. A.; Ciompi, F.; Ghafoorian, M.; Van Der Laak, J. A. A survey on deep learning in medical image analysis. Medical Image Analysis, 42, 60-88, 2017. https://doi.org/10.1016/j.media.2017.07.005Choi, D.; Bell, W.; Kim, D.; Kim, J. UAV-Driven Structural Crack Detection and Location Determination Using Convolutional Neural Networks. Sensors, 21, 2650, 2021. https://doi.org/10.3390/s21082650.Bengio, Y.; Lecun, Y.; Goodfellow, I. Deep Learning. MIT Press, 2016.Russell, B.; Adelson, E.; LI, H.; Lipton, Z. Convolutional Neural Networks for Object Detection. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 1600-1610, 2016. Disponible en: https://doi.org/10.1109/ICCV.2016.174.Huang, G.; Liu, Z.; Van Der Maaten, L.; Weiss, S.; Meng, S.; Sarkar, R. Densely Connected Convolutional Networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 4700-4708, 2017. Disponible en: https://doi.org/10.1109/CVPR.2017.243.Shi, L.; Yang, Z.; Liu, Y.; Xu, Y. A Survey of Convolutional Neural Networks and Their Applications in Medical Imaging. Journal of Medical Imaging, 8(4), 230-240, 2019. Disponible en: https://doi.org/10.1002/jmi2.108.Girshick, R.; Donahue, J.; Darrell, T.; Malik, J. Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 580-587, 2014. Disponible en: https://doi.org/10.1109/CVPR.2014.81.Mostafiz, R.; Rahman, M. M.; Islam, A.; Belkasim, S. Focal liver lesion detection in ultrasound image using deep feature fusions and super resolution. Machine Learning and Knowledge Extraction, 2, 10, 2020. https://doi.org/10.3390/make2030010.Tan, M.; Le, Q. V. EfficientNet: Rethinking model scaling for convolutional neural networks. Proceedings of the 36th International Conference on Machine Learning (ICML), 97, 6105-6114, 2019. Disponible en: https://arxiv.org/abs/1905.11946.Judd, W. S.; C. S. Campbell, E. A. Kellogg, P. F. Stevens, M. J. Donoghue (2007). «Araceae». Plant Systematics: A Phylogenetic Approach, Third edition. Sunderland, Massachusetts: Sinauer Associates. pp. 250-252. ISBN 978-0-87893-407-2.Simpson, Michael G. (2005). «Araceae». Plant Systematics. Elsevier Inc. p. 160. ISBN 0-12-644460-9 ISBN 978-0-12-644460-5.Stevens, P. F. (2001 en adelante). «Angiosperm Phylogeny Website (Versión 9, junio de 2008, y actualizado desde entonces)» (en inglés). Consultado el 12 de enero de 2009.Jimenez Cueva, Karla Yacely, 2024. [Título del documento] [en línea]. Universidad Nacional de Loja. Disponible en: https://dspace.unl.edu.ec/jspui/bitstream/123456789/26414/1/KarlaYacely_Jim%C3%A9ne zCueva.pdfDatahacker, s.f. Deep Learning: VGG-16 vs VGG-19 [en línea]. Disponible en: https://datahacker.rs/deep-learning-vgg-16-vs-vgg-19/Keras, 2024. VGG - Keras Applications [en línea]. Disponible en: https://keras.io/api/applications/vgg/Shah, Syed Rehan, et al., s.f. Comparing Inception V3, VGG 16, VGG 19, CNN, and ResNet 50: A Case Study on Early Detection of a Rice Disease [en línea]. Agronomy. 13(6), 1633. Disponible en: https://www.mdpi.com/2073-4395/13/6/1633Autoridad Nacional de Telemedicina. (2021). Redes Neuronales Convolucionales para la Clasificación de Componentes Independientes en Imágenes de Resonancia Magnética Funcional en Estado de Reposo. Revista Colombiana de Neurología, 30(1), 21–29. Recuperado de https://www.scielo.org.co.Universidad Complutense de Madrid. (s.f.). Redes Neuronales Convolucionales y Aplicaciones. Recuperado de https://docta.ucm.es.López, J., & García, M. (2023). Análisis de la Aplicación de Redes Neuronales Convolucionales en el Área de la Visión Artificial. Revista de Tecnología Avanzada, 45(3), 55–68. Recuperado de https://www.researchgate.net.Rojas, M. y Pérez, J. (2016). Redes Neuronales Convolucionales Aplicadas a la Traducción del Lenguaje de Señas Boliviano. Revista Boliviana de Informática y Tecnología, 22(2), 35–42. Recuperado de https://www.scielo.org.bo.Ramírez, D., González, A., & Sánchez, R. (2021). Redes Neuronales Convolucionales para Clasificación de Componentes Electrónicos. Revista Internacional de Ingeniería y Tecnología, 13(1), 12–18. Recuperado de https://www.camjol.info.Maeda Gutiérrez, M. A. (2020). Redes neuronales convolucionales para la detección y clasificación de enfermedades de plantas basadas en imágenes digitales [en línea]. Universidad Autónoma de Zacatecas. Disponible en: https://ricaxcan.uaz.edu.mx/jspui/handle/20.500.11845/1910 [Consulta: 28 de enero de 2025].Simonyan, K.; Zisserman, A. Very Deep Convolutional Networks for Large-Scale Image Recognition. Advances in Neural Information Processing Systems (NIPS), 27, 1-9, 2014. Disponible en: https://arxiv.org/abs/1409.1556.Chollet, F. Deep Learning with Python. 2.ª ed. Manning Publications, 2021.Gu, J.; Wang, Z.; Kuen, J.; Ma, L.; Wang, G. Recent advances in convolutional neural networks. Pattern Recognition, https://doi.org/10.1016/j.patcog.2017.10.013. 77, 354-377,Liu, Z.; Lin, Y.; Cao, Y.; Hu, H.; Wei, Y.; Zhang, Z.; Lin, S.; Guo, B. Efficient vision transformers: A survey on recent advances and applications. arXiv preprint arXiv:2104.05702, 2021. Disponible en: https://arxiv.org/abs/2104.05702.info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)https://creativecommons.org/licenses/by-nc/4.0/redes neuronales convolucionalesPhilodendron - ClasificaciónRedes neuronalesPhilodendrumPlantasAprendizaje de máquinasEntrenamientoNeural networksPhilodendrumPlantsMachine LearningTraining.Clasificación de philodendron mediante la aplicación de redes neuronales convolucionalesTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionPublicationTEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain101361https://repositorio.unibague.edu.co/bitstreams/2c006118-2092-4747-a1ea-96c72022f6ff/download2eb8fd33c76d67e47de7806f70639fd2MD58Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain3741https://repositorio.unibague.edu.co/bitstreams/51694865-0c04-4a04-9f22-eddb91188fd4/download0260442250dddc7a48c0ddff7d6d4634MD510THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgIM Thumbnailimage/jpeg7274https://repositorio.unibague.edu.co/bitstreams/88ed4769-9c90-4534-9ba8-b6531cc29d87/download993203419c63da536a7f1564f305bfc4MD59Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgIM Thumbnailimage/jpeg23140https://repositorio.unibague.edu.co/bitstreams/e52960a4-6d72-442a-ac22-4d8798dfe674/downloadcf7348f6070bf2cf7bea6aa4b4e8f2efMD511ORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf2469915https://repositorio.unibague.edu.co/bitstreams/a5bfbe6c-c408-43d1-ba18-661fc0f7cee7/download143e73c6ee9115f89bf6c17f00fdf30bMD51Formato de autorización.pdfFormato de autorización.pdfapplication/pdf152372https://repositorio.unibague.edu.co/bitstreams/862f0b62-b918-4d59-a9fb-1de8602e3cea/download0749343edcd375dfa6c556e3f255b97dMD52LICENSElicense.txtlicense.txttext/plain; charset=utf-8134https://repositorio.unibague.edu.co/bitstreams/fc6c97c9-ff0a-43b4-8237-c7330ee822cb/download2fa3e590786b9c0f3ceba1b9656b7ac3MD5320.500.12313/4751oai:repositorio.unibague.edu.co:20.500.12313/47512025-08-13 01:14:20.437https://creativecommons.org/licenses/by-nc/4.0/https://repositorio.unibague.edu.coRepositorio Institucional Universidad de Ibaguébdigital@metabiblioteca.comQ3JlYXRpdmUgQ29tbW9ucyBBdHRyaWJ1dGlvbi1Ob25Db21tZXJjaWFsLU5vRGVyaXZhdGl2ZXMgNC4wIEludGVybmF0aW9uYWwgTGljZW5zZQ0KaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8= |
