Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea

Dada la importancia que representa el sector agrícola para Colombia y los distintos avances e investigaciones que se han realizado con respecto a la agricultura de precisión, para el presente proyecto se decidió hacer uso de tecnologías que permitieran realizar la exploración de un cultivo simulado,...

Full description

Autores:
Prieto Pedraza, Diego Alejandro
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2021
Institución:
Universidad Militar Nueva Granada
Repositorio:
Repositorio UMNG
Idioma:
spa
OAI Identifier:
oai:repository.unimilitar.edu.co:10654/41111
Acceso en línea:
http://hdl.handle.net/10654/41111
Palabra clave:
CULTIVOS
DETECCION POR RADAR
PROCESAMIENTO DE IMAGENES
detection
follow
crop
furrow
obstacle
aerial platform
map
simulation
YOLO
image processing
A*
detección
seguimiento
cultivo
surco
obstáculo
plataforma aérea
mapa
simulación
YOLO
procesamiento de imagen
inteligencia artificial
A*
artificial intelligence
Rights
openAccess
License
http://creativecommons.org/licenses/by-nc-nd/4.0/
id UNIMILTAR2_5c1cacdaead7b6d109a14c021e96f512
oai_identifier_str oai:repository.unimilitar.edu.co:10654/41111
network_acronym_str UNIMILTAR2
network_name_str Repositorio UMNG
repository_id_str
dc.title.spa.fl_str_mv Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
dc.title.translated.spa.fl_str_mv Identification of furrows, follow and mapping of crops supported by an aerial platform
title Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
spellingShingle Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
CULTIVOS
DETECCION POR RADAR
PROCESAMIENTO DE IMAGENES
detection
follow
crop
furrow
obstacle
aerial platform
map
simulation
YOLO
image processing
A*
detección
seguimiento
cultivo
surco
obstáculo
plataforma aérea
mapa
simulación
YOLO
procesamiento de imagen
inteligencia artificial
A*
artificial intelligence
title_short Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
title_full Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
title_fullStr Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
title_full_unstemmed Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
title_sort Identificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aérea
dc.creator.fl_str_mv Prieto Pedraza, Diego Alejandro
dc.contributor.advisor.none.fl_str_mv Solaque Guzmán, Leonardo Enrique
Riveros Guevara, Adriana
dc.contributor.author.none.fl_str_mv Prieto Pedraza, Diego Alejandro
dc.subject.lemb.spa.fl_str_mv CULTIVOS
DETECCION POR RADAR
PROCESAMIENTO DE IMAGENES
topic CULTIVOS
DETECCION POR RADAR
PROCESAMIENTO DE IMAGENES
detection
follow
crop
furrow
obstacle
aerial platform
map
simulation
YOLO
image processing
A*
detección
seguimiento
cultivo
surco
obstáculo
plataforma aérea
mapa
simulación
YOLO
procesamiento de imagen
inteligencia artificial
A*
artificial intelligence
dc.subject.keywords.spa.fl_str_mv detection
follow
crop
furrow
obstacle
aerial platform
map
simulation
YOLO
image processing
A*
dc.subject.proposal.spa.fl_str_mv detección
seguimiento
cultivo
surco
obstáculo
plataforma aérea
mapa
simulación
YOLO
procesamiento de imagen
inteligencia artificial
A*
artificial intelligence
description Dada la importancia que representa el sector agrícola para Colombia y los distintos avances e investigaciones que se han realizado con respecto a la agricultura de precisión, para el presente proyecto se decidió hacer uso de tecnologías que permitieran realizar la exploración de un cultivo simulado, apoyado en un vehículo aéreo. En este trabajo se emplearon técnicas de procesamiento de imagen (Operaciones morfológicas, segmentación por color, filtro de promedio) y algoritmos de inteligencia artificial (redes convolucionales, YOLOv4) para identificar líneas de cultivo y posibles obstáculos que se puedan encontrar en un cultivo simulado, estas imágenes fueron obtenidas a partir de una cámara embarcada en un dron. A medida que se realiza este proceso, se genera una trayectoria la cual es seguida por el dron para posteriormente continuar con la toma de imágenes y el desplazamiento hasta llegar al final de cultivo. Los datos de ubicaciones de los surcos, trayectoria y obstáculos son guardados para ser procesados y generar un mapa. Como resultado se obtuvo una precisión de validación de 0.87 en la detección de elementos del cultivo y una precisión en la detección de obstáculos de 0.91. La trayectoria generada mediante la identificación de surcos y el uso del algoritmo A* fue óptima para evadir los obstáculos presentes en el cultivo. Finalmente, las gráficas de error en el desplazamiento del vehículo aéreo con respecto a las posiciones deseadas tienden a un valor de 0. Estos resultados permitirán brindar información del cultivo a la plataforma terrestre Ceres_Agrobot.
publishDate 2021
dc.date.issued.none.fl_str_mv 2021-10-25
dc.date.accessioned.none.fl_str_mv 2022-06-13T17:32:21Z
dc.date.available.none.fl_str_mv 2022-06-13T17:32:21Z
dc.type.local.spa.fl_str_mv Tesis/Trabajo de grado - Monografía - Pregrado
dc.type.driver.spa.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.*.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/10654/41111
dc.identifier.instname.spa.fl_str_mv instname:Universidad Militar Nueva Granada
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad Militar Nueva Granada
dc.identifier.repourl.spa.fl_str_mv repourl:https://repository.unimilitar.edu.co
url http://hdl.handle.net/10654/41111
identifier_str_mv instname:Universidad Militar Nueva Granada
reponame:Repositorio Institucional Universidad Militar Nueva Granada
repourl:https://repository.unimilitar.edu.co
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv [1] "El 17% del total de la fuerza laboral del país trabaja en el campo", Portafolio.co, 2021. [Online]. Disponible: https://www.portafolio.co/economia/el-panorama-de-la-agricultura-en-colombia-en-su-dia-internacional-de-la-agricultura-544437. [Accedido 10 Julio 2021].
[2] T. Moribe, H. Okada, K. Kobayashl and M. Katayama, "Combination of a wireless sensor network and dron using infrared thermometers for smart agriculture," 2018 15th IEEE Annual Consumer Communications & Networking Conference (CCNC), Las Vegas, NV, 2018, pp. 1-2.
[3] D. Murugan, A. Garg and D. Singh, "Development of an Adaptive Approach for Precision Agriculture Monitoring with Dron and Satellite Data," in IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 10, no. 12, pp. 5322-5328, Dic. 2017.
[4] C. Cadena et al., "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age," in IEEE Transactions on Robotics, vol. 32, no. 6, pp. 1309-1332, Dic. 2016.
[5] J. Park, S. Im, K. Lee and J. Lee, "Vision-Based SLAM System for Small UAVs in GPS-Denied Environments", Journal of Aerospace Engineering, vol. 25, no. 4, pp. 519-529, 2012. Disponible: 10.1061/(asce)as.1943-5525.0000160 [Accedido 20 enero 2020].
[6] T. Zuo, H. Min, Q. Tang and Q. Tao, "A Robot SLAM Improved by Quantum-Behaved Particles Swarm Optimization", Mathematical Problems in Engineering, vol. 2018, pp. 1-11, 2018. Disponible: 10.1155/2018/1596080 [Accedido 20 enero 2020].
[7] D. Murugan, A. Garg, T. Ahmed and D. Singh, "Fusion of dron and satellite data for precision agriculture monitoring", 2016 11th International Conference on Industrial and Information Systems (ICIIS), 2016. Disponible: 10.1109/iciinfs.2016.8263068 [Accedido 30 julio 2019].
[8] P. Tripicchio, M. Satler, G. Dabisias, E. Ruffaldi and C. Avizzano, "Towards Smart Farming and Sustainable Agriculture with Drones", 2015 International Conference on Intelligent Environments, 2015. Disponible: 10.1109/ie.2015.29 [Accedido 30 julio 2019].
[9] J. Stafford, "Implementing Precision Agriculture in the 21st Century", Journal of Agricultural Engineering Research, vol. 76, no. 3, pp. 267-275, 2000. Disponible: 10.1006/jaer.2000.0577 [Accedido 25 julio 2019].
[10] D. Avendaño, A. Molina, C. Pulido y N. Velasco, “Control y estabilización de altura de un Quadrotor por Modos Deslizantes”, en IV Congreso internacional de Ingeniería Mecatrónica y Automatización, 2015, pp. 2074-282.
[11] M. Molina, D. Avendaño, C. Pulido y L. Solaque, “Sistema de Transporte Cooperativo Desarrollado Para un Grupo de Robots Móviles No-Holonómicos Usando el Método Líder Virtual”, en IV Congreso internacional de Ingeniería Mecatrónica y Automatización, 2015, pp. 264-272.
[12] D. Sogamoso, G. Solaque, y J. Aponte, “Integración de la mecatrónica al desarrollo de la agricultura de precisión aplicada al control mecánico de maleza”, en IV Congreso internacional de Ingeniería Mecatrónica y Automatización, 2015, pp. 302-312.
[13] C. Pulido-Rojas, M. Molina-Villa and L. Solaque-Guzmán, "Machine vision system for weed detection using image filtering in vegetables crops", Revista Facultad de Ingeniería Universidad de Antioquia, no. 80, 2016. Disponible: 10.17533/udea.redin.n80a13 [Accedido 15 mayo 2020].
[14] Dron para toma de imágenes aéreas Matrice 600. Aeroexpo.
[15] D. Yallappa, M. Veerangouda, D. Maski, V. Palled and M. Bheemanna, "Development and evaluation of dron mounted sprayer for pesticide applications to crops", 2017 IEEE Global Humanitarian Technology Conference (GHTC), 2017. Disponible: 10.1109/ghtc.2017.8239330 [Accedido 15 agosto 2019].
[16] Tecnovant.co. “Quienes Somos? – Tecnovant”. [Online]. Disponible: https://www.tecnovant.co/index.php/quienes-somos/.
[17] PwC. (2017). “Soluciones basadas en drones para la agricultura”. [Online]. Disponible: https://www.pwc.com/co/es/assets/document/Soluciones%20basada%20en%20drones%20para%20agricultura%20VF1.pdf
[18] J. Berrío, B. Posso, J. Perafan y E. Caicedo, “Mapeo y localización simultánea de un robot móvil en ambientes estructurados basado en integración sensorial”. MEng. tesis, Universidad del Valle, Cali, Valle del Cauca, 2015.
[19] C. Velásquez, J. Chávez, y E. Córdoba. “Implementación de sistemas de navegación autónomo en robot móvil experimental para reconstrucción y exploración de entornos desconocidos”. en IV Congreso Internacional De Ingeniería Mecatrónica Y Automatización -CIIMA 2015, 2015, pp. 73-74.
[20] J. Berrío, E. Caicedo, y L. Paz, “Mapeo y localización simultáneo de un robot para levantamiento de mapas en interiores”, en Eleventh LACCEI Latin American and Caribbean Conference for Engineering and Technology (LACCEI’2013), Cancún, México, 2018.
[21] R. Mardiyanto, J. Anggoro and F. Budiman, "2D map creator for robot navigation by utilizing Kinect and rotary encoder", 2015 International Seminar on Intelligent Technology and Its Applications (ISITIA), 2015. Disponible: 10.1109/isitia.2015.7219957 [Accedido 31 julio 2019].
[22] N. Habibie, A. Nugraha, A. Anshori, M. Ma'sum and W. Jatmiko, "Fruit mapping mobile robot on simulated agricultural area in Gazebo simulator using simultaneous localization and mapping (SLAM)", 2017 International Symposium on Micro-NanoMechatronics and Human Science (MHS), 2017. Disponible: 10.1109/mhs.2017.8305235 [Accedido 18 agosto 2019].
[23] J. Moonrinta, S. Chaivivatrakul, M. Dailey and M. Ekpanyapong, "Fruit detection, tracking, and 3D reconstruction for crop mapping and yield estimation", 2010 11th International Conference on Control Automation Robotics & Vision, 2010. Disponible: 10.1109/icarcv.2010.5707436 [Accedido 20 agosto 2019].
[24] D. Andritoiu, L. Bazavan, F. Besnea, H. Roibu and N. Bizdoaca, "Agriculture autonomous monitoring and decisional mechatronic system", 2018 19th International Carpathian Control Conference (ICCC), 2018. Disponible: 10.1109/carpathiancc.2018.8399635 [Accedido 04 septiembre 2019].
[25] H. Cho, E. Kim and S. Kim, "Indoor SLAM application using geometric and ICP matching methods based online features", Robotics and Autonomous Systems, vol. 100, pp. 206-224, 2018. Disponible: 10.1016/j.robot.2017.11.011 [Accedido 14 febrero 2020].
[26] J. Zhang, S. Liu, B. Gao and C. Zhong, "An Improvement Algorithm for OctoMap Based on RGB-D SLAM", 2018 Chinese Control And Decision Conference (CCDC), 2018. Disponible: 10.1109/ccdc.2018.8407999 [Accedido 18 febrero 2021].
[27] S. Kajal. (2017). Improved visual SLAM: a novel approach to mapping and localization using visual landmarks in consecutive fotogramas, In Multimed Tools Appl, 2018. pp.7955–7958
[28] H. He, Y. Jia and L. Sun, "Simultaneous Location and Map Construction Based on RBPF-SLAM Algorithm", 2018 Chinese Control And Decision Conference (CCDC), 2018. Disponible: 10.1109/ccdc.2018.8407981 [Accedido 10 abril 2020].
[29] E. Hamuda, B. Mc Ginley, M. Glavin and E. Jones, "Automatic crop detection under field conditions using the HSV colour space and morphological operations", Computers and Electronics in Agriculture, vol. 133, pp. 97-107, 2017. Disponible: 10.1016/j.compag.2016.11.021 [Accedido 12 abril 2020].
[30] D. M. Woebbecke, G. E. Meyer, K. Von Bargen and D. A. Mortensen, "Shape Features for Identifying Young Weeds Using Image Analysis", Transactions of the ASAE, vol. 38, no. 1, pp. 271-281, 1995. Disponible: 10.13031/2013.27839 [Accedido 22 julio 2020].
[31] G. Meyer and J. Neto, "Verification of color vegetation indices for automated crop imaging applications", Computers and Electronics in Agriculture, vol. 63, no. 2, pp. 282-293, 2008. Disponible: 10.1016/j.compag.2008.03.009 [Accedido 22 julio 2020].
[32] J. Guerrero, G. Pajares, M. Montalvo, J. Romeo and M. Guijarro, "Support Vector Machines for crop/weeds identification in maize fields", Expert Systems with Applications, vol. 39, no. 12, pp. 11149-11155, 2012. Disponible: 10.1016/j.eswa.2012.03.040 [Accedido 25 julio 2020].
[32] J. Guerrero, G. Pajares, M. Montalvo, J. Romeo and M. Guijarro, "Support Vector Machines for crop/weeds identification in maize fields", Expert Systems with Applications, vol. 39, no. 12, pp. 11149-11155, 2012. Disponible: 10.1016/j.eswa.2012.03.040 [Accedido 25 julio 2020].
[34] X. Burgos-Artizzu, A. Ribeiro, M. Guijarro and G. Pajares, "Real-time image processing for crop/weed discrimination in maize fields", Computers and Electronics in Agriculture, vol. 75, no. 2, pp. 337-346, 2011. Disponible: 10.1016/j.compag.2010.12.011 [Accedido 02 septiembre 2020].
[35] L. Tian and D. Slaughter, "Environmentally adaptive segmentation algorithm for outdoor image segmentation", Computers and Electronics in Agriculture, vol. 21, no. 3, pp. 153-168, 1998. Disponible: 10.1016/s0168-1699(98)00037-4 [Accedido 10 octubre 2020].
[36] L. Zheng, J. Zhang and Q. Wang, "Mean-shift-based color segmentation of images containing green vegetation", Computers and Electronics in Agriculture, vol. 65, no. 1, pp. 93-98, 2009. Disponible: 10.1016/j.compag.2008.08.002 [Accedido 10 octubre 2020].
[37] L. Zheng, D. Shi and J. Zhang, "Segmentation of green vegetation of crop canopy images based on mean shift and Fisher linear discriminant", Pattern Recognition Letters, vol. 31, no. 9, pp. 920-925, 2010. Disponible: 10.1016/j.patrec.2010.01.016 [Accedido 10 octubre 2020].
[38] W. Guo, U. Rage and S. Ninomiya, "Illumination invariant segmentation of vegetation for time series wheat images based on decision tree model", Computers and Electronics in Agriculture, vol. 96, pp. 58-66, 2013. Disponible: 10.1016/j.compag.2013.04.010 [Accedido 10 octubre 2020].
[39] X. Bai et al., "Vegetation segmentation robust to illumination variations based on clustering and morphology modelling", Biosystems Engineering, vol. 125, pp. 80-97, 2014. Disponible: 10.1016/j.biosystemseng.2014.06.015 [Accedido 21 octubre 2020].
[40] L. Xu, Y. Song, W. Zhang, Y. An, Y. Wang and H. Ning, "An efficient foreign objects detection network for power substation", Image and Vision Computing, vol. 109, p. 104159, 2021. Disponible: 10.1016/j.imavis.2021.104159 [Accedido 21 octubre 2020].
[41] C. Li, Z. Qu, S. Wang and L. Liu, "A method of cross-layer fusion multi-object detection and recognition based on improved faster R-CNN model in complex traffic environment", Pattern Recognition Letters, vol. 145, pp. 127-134, 2021. Disponible: 10.1016/j.patrec.2021.02.003 [Accedido 21 octubre 2020].
[42] M. García-Domínguez, C. Domínguez, J. Heras, E. Mata and V. Pascual, "UFOD: An AutoML framework for the construction, comparison, and combination of object detection models", Pattern Recognition Letters, vol. 145, pp. 135-140, 2021. Disponible: 10.1016/j.patrec.2021.01.022 [Accedido 21 octubre 2020].
[43] Techzizou. (2021, febrero, 23). YOLOv4 VS YOLOv4-tiny [Online]. Disponible: from https://medium.com/analytics-vidhya/yolov4-vs-yolov4-tiny-97932b6ec8ec
[44] A. Bochkovskiy, C. Wang and H. Liao, (2020, Abril, 23). YOLOv4: Optimal Speed and Accuracy of Object Detection [Online]. Disponible: https://arxiv.org/pdf/2004.10934v1.pdf
[45] A. Morbekar, A. Parihar and R. Jadhav, "Crop Disease Detection Using YOLO", 2020 International Conference for Emerging Technology (INCET), 2020. Disponible: 10.1109/incet49848.2020.9153986 [Accedido 10 marzo 2021].
[46] C. Fairchild and T. Harman, ROS robotics by example. Birmingham: Packt Publishing Ltd, 2016, pp. 13-14.
[47] "msg - ROS Wiki", Wiki.ros.org, 2021. [Online]. Disponible: http://wiki.ros.org/msg. [Accedido 10 septiembre 2021].
[48] "Topics - ROS Wiki", Wiki.ros.org, 2021. [Online]. Disponible: http://wiki.ros.org/msg. [Accedido: 10 septiembre 2021].
[49] A. Koubaa, Robot operating systems (ros) - the complete reference. Springer, 2016, pp. 1-9.
[50] "Grayscale to RGB Conversion", Tutorialspoint.com, 2021. [Online]. Disponible: https://www.tutorialspoint.com/dip/grayscale_to_rgb_conversion.htm. [Accedido 09 Noviembre 2021].
[51] "rgb2gray", https://www.mathworks.com, 2021. [Online]. Disponible: https://www.mathworks.com/help/matlab/ref/rgb2gray.html. [Accedido 09 Noviembre 2021].
[52] "Types of Morphological Operations", mathWorks, 2021. [Online]. Disponible: https://www.mathworks.com/help/images/morphological-dilation-and-erosion.html. [Accedido 23 Octubre 2021].
[53] R. Gonzales, R. Woods and S. Eddins, Digital image processing using MATLAB, 2nd ed. Berkshire: McGraw Hill, 2009, pp. 491,492,497,499.
[54] M. Sekhon, "Image Filters in Python", towards data science, 2021. [Online]. Disponible: https://towardsdatascience.com/image-filters-in-python-26ee938e57d2. [Accedido 12 Noviembre 2021].
[55] A. Shah. (2018, Junio 17). "Through The Eyes of Gabor Filter". [Online]. Disponible: https://medium.com/@anuj_shah/through-the-eyes-of-gabor-filter-17d1fdb3ac97
[56] L. Moraru, C. Obreja, N. Dey and A. Ashour, "Dempster-Shafer Fusion for Effective Retinal Vessels’ Diameter Measurement", Soft Computing Based Medical Image Analysis, pp. 149-160, 2018. Disponible: 10.1016/b978-0-12-813087-2.00008-7 [Accedido 12 Noviembre 2021].
[57] "imhist", mathworks.com, 2021. [Online]. Disponible: https://www.mathworks.com/help/images/ref/imhist.html. [Accedido 09 Noviembre 2021].
[58] "entropyfilt", mathworks, 2021. [Online]. Disponible: https://www.mathworks.com/help/images/ref/entropyfilt.html#mw_2347bab0-aec8-47a0-9664-d045c09822b1. [Accedido 09 Noviembre 2021].
[59] "Texture Analysis Using the Gray-Level Co-Occurrence Matrix (GLCM)- MATLAB & Simulink- MathWorks United Kingdom", Uk.mathworks.com, 2021. [Online]. Disponible: https://uk.mathworks.com/help/images/texture-analysis-using-the-gray-level-co-occurrence-matrix-glcm.html. [Accedido: 12 marzo 2021].
[60] M. Hall-Beyer, "GLCM Texture: A Tutorial v. 3.0 March 2017", Dx.doi.org, 2021. [Online]. Disponible: http://dx.doi.org/10.11575/PRISM/33280. [Accedido 12 marzo 2021].
[61] Universidad de Sevilla. Métodos estadísticos basados en la transformada Wavelet [Online]. Disponible: http://bibing.us.es/proyectos/abreproy/11494/fichero/PROYECTO%252FCapitulo+5.pdf
[62] M. Oliveira, V. Santos and A. Sappa, "Multimodal inverse perspective mapping", Information Fusion, vol. 24, pp. 108-121, 2015. Disponible: 10.1016/j.inffus.2014.09.003 [Accedido 15 marzo 2021].
[63] CV-Tricks.com. Zero to Hero: Guide to Object Detection using Deep Learning: Faster R-CNN, YOLO, SSD [Online]. Disponible: https://cv-tricks.com/object-detection/faster-r-cnn-yolo-ssd/.
[64] "¿Qué es una API de REST?", 2020. [Online]. Disponible: https://www.redhat.com/es/topics/api/what-is-a-rest-api. [Accedido 11 septiembre 2021].
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.spa.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.accessrights.*.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.creativecommons.spa.fl_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International
dc.rights.local.spa.fl_str_mv Acceso abierto
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
http://purl.org/coar/access_right/c_abf2
Attribution-NonCommercial-NoDerivatives 4.0 International
Acceso abierto
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv applicaction/pdf
dc.coverage.sede.spa.fl_str_mv Calle 100
dc.publisher.program.spa.fl_str_mv Ingeniería en Mecatrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.grantor.spa.fl_str_mv Universidad Militar Nueva Granada
institution Universidad Militar Nueva Granada
bitstream.url.fl_str_mv http://repository.unimilitar.edu.co/bitstream/10654/41111/1/PrietoPedrazaDiegoAlejandro2021.pdf
http://repository.unimilitar.edu.co/bitstream/10654/41111/2/license.txt
http://repository.unimilitar.edu.co/bitstream/10654/41111/3/PrietoPedrazaDiegoAlejandro2021.pdf.jpg
bitstream.checksum.fl_str_mv 371ea1d6d2f81816ee73a53153a509ed
a609d7e369577f685ce98c66b903b91b
fabd3ce8c94baf89f23730b77ce33ec8
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional UMNG
repository.mail.fl_str_mv bibliodigital@unimilitar.edu.co
_version_ 1837098416144908288
spelling Solaque Guzmán, Leonardo EnriqueRiveros Guevara, AdrianaPrieto Pedraza, Diego AlejandroIngeniero en Mecatrónica2022-06-13T17:32:21Z2022-06-13T17:32:21Z2021-10-25http://hdl.handle.net/10654/41111instname:Universidad Militar Nueva Granadareponame:Repositorio Institucional Universidad Militar Nueva Granadarepourl:https://repository.unimilitar.edu.coDada la importancia que representa el sector agrícola para Colombia y los distintos avances e investigaciones que se han realizado con respecto a la agricultura de precisión, para el presente proyecto se decidió hacer uso de tecnologías que permitieran realizar la exploración de un cultivo simulado, apoyado en un vehículo aéreo. En este trabajo se emplearon técnicas de procesamiento de imagen (Operaciones morfológicas, segmentación por color, filtro de promedio) y algoritmos de inteligencia artificial (redes convolucionales, YOLOv4) para identificar líneas de cultivo y posibles obstáculos que se puedan encontrar en un cultivo simulado, estas imágenes fueron obtenidas a partir de una cámara embarcada en un dron. A medida que se realiza este proceso, se genera una trayectoria la cual es seguida por el dron para posteriormente continuar con la toma de imágenes y el desplazamiento hasta llegar al final de cultivo. Los datos de ubicaciones de los surcos, trayectoria y obstáculos son guardados para ser procesados y generar un mapa. Como resultado se obtuvo una precisión de validación de 0.87 en la detección de elementos del cultivo y una precisión en la detección de obstáculos de 0.91. La trayectoria generada mediante la identificación de surcos y el uso del algoritmo A* fue óptima para evadir los obstáculos presentes en el cultivo. Finalmente, las gráficas de error en el desplazamiento del vehículo aéreo con respecto a las posiciones deseadas tienden a un valor de 0. Estos resultados permitirán brindar información del cultivo a la plataforma terrestre Ceres_Agrobot.1. Introducción 9 2. Planteamiento del problema 11 3. Objetivos 12 3.1. Objetivo General 12 3.2. Objetivos Específicos 12 4. Estado del arte 13 4.1. Aplicación de los drones en investigación 14 4.2. Algoritmos usados en conjunto con UAVs 15 4.3. SLAM 15 4.4. Procesamiento de imagen 18 4.4.1. Incidencia de las condiciones de iluminación 21 5. De la simulación y sus elementos 27 5.2. El ambiente de simulación 28 5.3. El cultivo en Gazebo: 28 5.4. El hexacóptero 29 5.5. Integración con la cámara 29 5.6. El desplazamiento de la aeronave 30 6. De la detección de cultivos 32 6.1. Segmentación de grises por valor umbral 32 6.2. Segmentación de colores - Matlab 34 6.3. Operaciones morfológicas 36 6.3.1. Erosión 36 6.3.2. Dilatación 38 6.4. Filtro de promedio 40 6.5. Segmentación por valor umbral II 41 7. Las texturas y cultivos con bolsas de plástico 43 7.1. Segmentación de textura por filtro de Gabor 43 7.2. Segmentación de textura por filtro de entropía 44 7.3. Matriz de co-ocurrencia GLCM 45 7.4. División de imagen y clasificación de texturas 48 7.5. Red Neuronal para propiedades de imagen – matriz de co-ocurrencia 49 7.6. Redes convolucionales: 51 7.7. Resultado final del proceso de detección de cultivos desde Gazebo: 54 8. Delimitación del camino de cultivo 56 8.2. Detección de límites de cultivo 58 8.3. Detección de centros de surco a partir de límites de cultivo 60 8.4. El problema de la perspectiva 61 8.4.1. Mapeo inverso de perspectiva 61 9. Detección de objetos 63 9.1. Detección de objetos con Red Convolucional 63 9.2. Detección de objetos con Modelo YOLO 64 9.2.1. Carga y etiqueta de las clases 65 9.2.2. Dataset de entrenamiento 66 9.2.3. Entrenamiento del algoritmo 68 9.2.4. Ejecución del algoritmo 68 9.2.5. Detección realizada por el algoritmo 70 10. Evasión de obstáculos 71 11. Integración del simulador con el proceso de detección de cultivos 77 11.2. Equivalencia Píxel – Distancia 78 12. Generación de mapa 81 13. Resultados 82 14. Conclusiones y trabajos futuros 87 15. Bibliografía 89Given the importance that the agricultural sector represents for Colombia and the different advances and research that have been carried out with respect to precision agriculture, for this project it was decided to use technologies that would allow the exploration of a simulated crop, supported by an aerial vehicle. In this work, image processing techniques (morphological operations, color segmentation, average filter) and artificial intelligence algorithms (convolutional networks, YOLOv4) were used to identify crop lines and possible obstacles that can be found in a simulated crop. These images were obtained from a camera on a drone. As this process is carried out, a trajectory is generated which is followed by the drone to continue taking images and moving until it reaches the end of the crop. The location data of the furrows, trajectory and obstacles are saved to be processed and then generate a map. As a result, a validation accuracy of 0.87 was obtained in the detection of crop elements and an accuracy of 0.91 in the detection of obstacles. The trajectory generated through the identification of furrows and the use of the A* algorithm was optimal to avoid the obstacles present in the crop. Finally, the error graphs in the displacement of the aerial vehicle with respect to the desired positions tends to a value of 0. These results will allow providing crop information to the Ceres_Agrobot ground platform.Pregradoapplicaction/pdfspahttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Attribution-NonCommercial-NoDerivatives 4.0 InternationalAcceso abiertoIdentificación de surcos, seguimiento y mapeo de cultivos apoyado en una plataforma aéreaIdentification of furrows, follow and mapping of crops supported by an aerial platformCULTIVOSDETECCION POR RADARPROCESAMIENTO DE IMAGENESdetectionfollowcropfurrowobstacleaerial platformmapsimulationYOLOimage processingA*detecciónseguimientocultivosurcoobstáculoplataforma aéreamapasimulaciónYOLOprocesamiento de imageninteligencia artificialA*artificial intelligenceTesis/Trabajo de grado - Monografía - Pregradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fIngeniería en MecatrónicaFacultad de IngenieríaUniversidad Militar Nueva Granada[1] "El 17% del total de la fuerza laboral del país trabaja en el campo", Portafolio.co, 2021. [Online]. Disponible: https://www.portafolio.co/economia/el-panorama-de-la-agricultura-en-colombia-en-su-dia-internacional-de-la-agricultura-544437. [Accedido 10 Julio 2021].[2] T. Moribe, H. Okada, K. Kobayashl and M. Katayama, "Combination of a wireless sensor network and dron using infrared thermometers for smart agriculture," 2018 15th IEEE Annual Consumer Communications & Networking Conference (CCNC), Las Vegas, NV, 2018, pp. 1-2.[3] D. Murugan, A. Garg and D. Singh, "Development of an Adaptive Approach for Precision Agriculture Monitoring with Dron and Satellite Data," in IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 10, no. 12, pp. 5322-5328, Dic. 2017.[4] C. Cadena et al., "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age," in IEEE Transactions on Robotics, vol. 32, no. 6, pp. 1309-1332, Dic. 2016.[5] J. Park, S. Im, K. Lee and J. Lee, "Vision-Based SLAM System for Small UAVs in GPS-Denied Environments", Journal of Aerospace Engineering, vol. 25, no. 4, pp. 519-529, 2012. Disponible: 10.1061/(asce)as.1943-5525.0000160 [Accedido 20 enero 2020].[6] T. Zuo, H. Min, Q. Tang and Q. Tao, "A Robot SLAM Improved by Quantum-Behaved Particles Swarm Optimization", Mathematical Problems in Engineering, vol. 2018, pp. 1-11, 2018. Disponible: 10.1155/2018/1596080 [Accedido 20 enero 2020].[7] D. Murugan, A. Garg, T. Ahmed and D. Singh, "Fusion of dron and satellite data for precision agriculture monitoring", 2016 11th International Conference on Industrial and Information Systems (ICIIS), 2016. Disponible: 10.1109/iciinfs.2016.8263068 [Accedido 30 julio 2019].[8] P. Tripicchio, M. Satler, G. Dabisias, E. Ruffaldi and C. Avizzano, "Towards Smart Farming and Sustainable Agriculture with Drones", 2015 International Conference on Intelligent Environments, 2015. Disponible: 10.1109/ie.2015.29 [Accedido 30 julio 2019].[9] J. Stafford, "Implementing Precision Agriculture in the 21st Century", Journal of Agricultural Engineering Research, vol. 76, no. 3, pp. 267-275, 2000. Disponible: 10.1006/jaer.2000.0577 [Accedido 25 julio 2019].[10] D. Avendaño, A. Molina, C. Pulido y N. Velasco, “Control y estabilización de altura de un Quadrotor por Modos Deslizantes”, en IV Congreso internacional de Ingeniería Mecatrónica y Automatización, 2015, pp. 2074-282.[11] M. Molina, D. Avendaño, C. Pulido y L. Solaque, “Sistema de Transporte Cooperativo Desarrollado Para un Grupo de Robots Móviles No-Holonómicos Usando el Método Líder Virtual”, en IV Congreso internacional de Ingeniería Mecatrónica y Automatización, 2015, pp. 264-272.[12] D. Sogamoso, G. Solaque, y J. Aponte, “Integración de la mecatrónica al desarrollo de la agricultura de precisión aplicada al control mecánico de maleza”, en IV Congreso internacional de Ingeniería Mecatrónica y Automatización, 2015, pp. 302-312.[13] C. Pulido-Rojas, M. Molina-Villa and L. Solaque-Guzmán, "Machine vision system for weed detection using image filtering in vegetables crops", Revista Facultad de Ingeniería Universidad de Antioquia, no. 80, 2016. Disponible: 10.17533/udea.redin.n80a13 [Accedido 15 mayo 2020].[14] Dron para toma de imágenes aéreas Matrice 600. Aeroexpo.[15] D. Yallappa, M. Veerangouda, D. Maski, V. Palled and M. Bheemanna, "Development and evaluation of dron mounted sprayer for pesticide applications to crops", 2017 IEEE Global Humanitarian Technology Conference (GHTC), 2017. Disponible: 10.1109/ghtc.2017.8239330 [Accedido 15 agosto 2019].[16] Tecnovant.co. “Quienes Somos? – Tecnovant”. [Online]. Disponible: https://www.tecnovant.co/index.php/quienes-somos/.[17] PwC. (2017). “Soluciones basadas en drones para la agricultura”. [Online]. Disponible: https://www.pwc.com/co/es/assets/document/Soluciones%20basada%20en%20drones%20para%20agricultura%20VF1.pdf[18] J. Berrío, B. Posso, J. Perafan y E. Caicedo, “Mapeo y localización simultánea de un robot móvil en ambientes estructurados basado en integración sensorial”. MEng. tesis, Universidad del Valle, Cali, Valle del Cauca, 2015.[19] C. Velásquez, J. Chávez, y E. Córdoba. “Implementación de sistemas de navegación autónomo en robot móvil experimental para reconstrucción y exploración de entornos desconocidos”. en IV Congreso Internacional De Ingeniería Mecatrónica Y Automatización -CIIMA 2015, 2015, pp. 73-74.[20] J. Berrío, E. Caicedo, y L. Paz, “Mapeo y localización simultáneo de un robot para levantamiento de mapas en interiores”, en Eleventh LACCEI Latin American and Caribbean Conference for Engineering and Technology (LACCEI’2013), Cancún, México, 2018.[21] R. Mardiyanto, J. Anggoro and F. Budiman, "2D map creator for robot navigation by utilizing Kinect and rotary encoder", 2015 International Seminar on Intelligent Technology and Its Applications (ISITIA), 2015. Disponible: 10.1109/isitia.2015.7219957 [Accedido 31 julio 2019].[22] N. Habibie, A. Nugraha, A. Anshori, M. Ma'sum and W. Jatmiko, "Fruit mapping mobile robot on simulated agricultural area in Gazebo simulator using simultaneous localization and mapping (SLAM)", 2017 International Symposium on Micro-NanoMechatronics and Human Science (MHS), 2017. Disponible: 10.1109/mhs.2017.8305235 [Accedido 18 agosto 2019].[23] J. Moonrinta, S. Chaivivatrakul, M. Dailey and M. Ekpanyapong, "Fruit detection, tracking, and 3D reconstruction for crop mapping and yield estimation", 2010 11th International Conference on Control Automation Robotics & Vision, 2010. Disponible: 10.1109/icarcv.2010.5707436 [Accedido 20 agosto 2019].[24] D. Andritoiu, L. Bazavan, F. Besnea, H. Roibu and N. Bizdoaca, "Agriculture autonomous monitoring and decisional mechatronic system", 2018 19th International Carpathian Control Conference (ICCC), 2018. Disponible: 10.1109/carpathiancc.2018.8399635 [Accedido 04 septiembre 2019].[25] H. Cho, E. Kim and S. Kim, "Indoor SLAM application using geometric and ICP matching methods based online features", Robotics and Autonomous Systems, vol. 100, pp. 206-224, 2018. Disponible: 10.1016/j.robot.2017.11.011 [Accedido 14 febrero 2020].[26] J. Zhang, S. Liu, B. Gao and C. Zhong, "An Improvement Algorithm for OctoMap Based on RGB-D SLAM", 2018 Chinese Control And Decision Conference (CCDC), 2018. Disponible: 10.1109/ccdc.2018.8407999 [Accedido 18 febrero 2021].[27] S. Kajal. (2017). Improved visual SLAM: a novel approach to mapping and localization using visual landmarks in consecutive fotogramas, In Multimed Tools Appl, 2018. pp.7955–7958[28] H. He, Y. Jia and L. Sun, "Simultaneous Location and Map Construction Based on RBPF-SLAM Algorithm", 2018 Chinese Control And Decision Conference (CCDC), 2018. Disponible: 10.1109/ccdc.2018.8407981 [Accedido 10 abril 2020].[29] E. Hamuda, B. Mc Ginley, M. Glavin and E. Jones, "Automatic crop detection under field conditions using the HSV colour space and morphological operations", Computers and Electronics in Agriculture, vol. 133, pp. 97-107, 2017. Disponible: 10.1016/j.compag.2016.11.021 [Accedido 12 abril 2020].[30] D. M. Woebbecke, G. E. Meyer, K. Von Bargen and D. A. Mortensen, "Shape Features for Identifying Young Weeds Using Image Analysis", Transactions of the ASAE, vol. 38, no. 1, pp. 271-281, 1995. Disponible: 10.13031/2013.27839 [Accedido 22 julio 2020].[31] G. Meyer and J. Neto, "Verification of color vegetation indices for automated crop imaging applications", Computers and Electronics in Agriculture, vol. 63, no. 2, pp. 282-293, 2008. Disponible: 10.1016/j.compag.2008.03.009 [Accedido 22 julio 2020].[32] J. Guerrero, G. Pajares, M. Montalvo, J. Romeo and M. Guijarro, "Support Vector Machines for crop/weeds identification in maize fields", Expert Systems with Applications, vol. 39, no. 12, pp. 11149-11155, 2012. Disponible: 10.1016/j.eswa.2012.03.040 [Accedido 25 julio 2020].[32] J. Guerrero, G. Pajares, M. Montalvo, J. Romeo and M. Guijarro, "Support Vector Machines for crop/weeds identification in maize fields", Expert Systems with Applications, vol. 39, no. 12, pp. 11149-11155, 2012. Disponible: 10.1016/j.eswa.2012.03.040 [Accedido 25 julio 2020].[34] X. Burgos-Artizzu, A. Ribeiro, M. Guijarro and G. Pajares, "Real-time image processing for crop/weed discrimination in maize fields", Computers and Electronics in Agriculture, vol. 75, no. 2, pp. 337-346, 2011. Disponible: 10.1016/j.compag.2010.12.011 [Accedido 02 septiembre 2020].[35] L. Tian and D. Slaughter, "Environmentally adaptive segmentation algorithm for outdoor image segmentation", Computers and Electronics in Agriculture, vol. 21, no. 3, pp. 153-168, 1998. Disponible: 10.1016/s0168-1699(98)00037-4 [Accedido 10 octubre 2020].[36] L. Zheng, J. Zhang and Q. Wang, "Mean-shift-based color segmentation of images containing green vegetation", Computers and Electronics in Agriculture, vol. 65, no. 1, pp. 93-98, 2009. Disponible: 10.1016/j.compag.2008.08.002 [Accedido 10 octubre 2020].[37] L. Zheng, D. Shi and J. Zhang, "Segmentation of green vegetation of crop canopy images based on mean shift and Fisher linear discriminant", Pattern Recognition Letters, vol. 31, no. 9, pp. 920-925, 2010. Disponible: 10.1016/j.patrec.2010.01.016 [Accedido 10 octubre 2020].[38] W. Guo, U. Rage and S. Ninomiya, "Illumination invariant segmentation of vegetation for time series wheat images based on decision tree model", Computers and Electronics in Agriculture, vol. 96, pp. 58-66, 2013. Disponible: 10.1016/j.compag.2013.04.010 [Accedido 10 octubre 2020].[39] X. Bai et al., "Vegetation segmentation robust to illumination variations based on clustering and morphology modelling", Biosystems Engineering, vol. 125, pp. 80-97, 2014. Disponible: 10.1016/j.biosystemseng.2014.06.015 [Accedido 21 octubre 2020].[40] L. Xu, Y. Song, W. Zhang, Y. An, Y. Wang and H. Ning, "An efficient foreign objects detection network for power substation", Image and Vision Computing, vol. 109, p. 104159, 2021. Disponible: 10.1016/j.imavis.2021.104159 [Accedido 21 octubre 2020].[41] C. Li, Z. Qu, S. Wang and L. Liu, "A method of cross-layer fusion multi-object detection and recognition based on improved faster R-CNN model in complex traffic environment", Pattern Recognition Letters, vol. 145, pp. 127-134, 2021. Disponible: 10.1016/j.patrec.2021.02.003 [Accedido 21 octubre 2020].[42] M. García-Domínguez, C. Domínguez, J. Heras, E. Mata and V. Pascual, "UFOD: An AutoML framework for the construction, comparison, and combination of object detection models", Pattern Recognition Letters, vol. 145, pp. 135-140, 2021. Disponible: 10.1016/j.patrec.2021.01.022 [Accedido 21 octubre 2020].[43] Techzizou. (2021, febrero, 23). YOLOv4 VS YOLOv4-tiny [Online]. Disponible: from https://medium.com/analytics-vidhya/yolov4-vs-yolov4-tiny-97932b6ec8ec[44] A. Bochkovskiy, C. Wang and H. Liao, (2020, Abril, 23). YOLOv4: Optimal Speed and Accuracy of Object Detection [Online]. Disponible: https://arxiv.org/pdf/2004.10934v1.pdf[45] A. Morbekar, A. Parihar and R. Jadhav, "Crop Disease Detection Using YOLO", 2020 International Conference for Emerging Technology (INCET), 2020. Disponible: 10.1109/incet49848.2020.9153986 [Accedido 10 marzo 2021].[46] C. Fairchild and T. Harman, ROS robotics by example. Birmingham: Packt Publishing Ltd, 2016, pp. 13-14.[47] "msg - ROS Wiki", Wiki.ros.org, 2021. [Online]. Disponible: http://wiki.ros.org/msg. [Accedido 10 septiembre 2021].[48] "Topics - ROS Wiki", Wiki.ros.org, 2021. [Online]. Disponible: http://wiki.ros.org/msg. [Accedido: 10 septiembre 2021].[49] A. Koubaa, Robot operating systems (ros) - the complete reference. Springer, 2016, pp. 1-9.[50] "Grayscale to RGB Conversion", Tutorialspoint.com, 2021. [Online]. Disponible: https://www.tutorialspoint.com/dip/grayscale_to_rgb_conversion.htm. [Accedido 09 Noviembre 2021].[51] "rgb2gray", https://www.mathworks.com, 2021. [Online]. Disponible: https://www.mathworks.com/help/matlab/ref/rgb2gray.html. [Accedido 09 Noviembre 2021].[52] "Types of Morphological Operations", mathWorks, 2021. [Online]. Disponible: https://www.mathworks.com/help/images/morphological-dilation-and-erosion.html. [Accedido 23 Octubre 2021].[53] R. Gonzales, R. Woods and S. Eddins, Digital image processing using MATLAB, 2nd ed. Berkshire: McGraw Hill, 2009, pp. 491,492,497,499.[54] M. Sekhon, "Image Filters in Python", towards data science, 2021. [Online]. Disponible: https://towardsdatascience.com/image-filters-in-python-26ee938e57d2. [Accedido 12 Noviembre 2021].[55] A. Shah. (2018, Junio 17). "Through The Eyes of Gabor Filter". [Online]. Disponible: https://medium.com/@anuj_shah/through-the-eyes-of-gabor-filter-17d1fdb3ac97[56] L. Moraru, C. Obreja, N. Dey and A. Ashour, "Dempster-Shafer Fusion for Effective Retinal Vessels’ Diameter Measurement", Soft Computing Based Medical Image Analysis, pp. 149-160, 2018. Disponible: 10.1016/b978-0-12-813087-2.00008-7 [Accedido 12 Noviembre 2021].[57] "imhist", mathworks.com, 2021. [Online]. Disponible: https://www.mathworks.com/help/images/ref/imhist.html. [Accedido 09 Noviembre 2021].[58] "entropyfilt", mathworks, 2021. [Online]. Disponible: https://www.mathworks.com/help/images/ref/entropyfilt.html#mw_2347bab0-aec8-47a0-9664-d045c09822b1. [Accedido 09 Noviembre 2021].[59] "Texture Analysis Using the Gray-Level Co-Occurrence Matrix (GLCM)- MATLAB & Simulink- MathWorks United Kingdom", Uk.mathworks.com, 2021. [Online]. Disponible: https://uk.mathworks.com/help/images/texture-analysis-using-the-gray-level-co-occurrence-matrix-glcm.html. [Accedido: 12 marzo 2021].[60] M. Hall-Beyer, "GLCM Texture: A Tutorial v. 3.0 March 2017", Dx.doi.org, 2021. [Online]. Disponible: http://dx.doi.org/10.11575/PRISM/33280. [Accedido 12 marzo 2021].[61] Universidad de Sevilla. Métodos estadísticos basados en la transformada Wavelet [Online]. Disponible: http://bibing.us.es/proyectos/abreproy/11494/fichero/PROYECTO%252FCapitulo+5.pdf[62] M. Oliveira, V. Santos and A. Sappa, "Multimodal inverse perspective mapping", Information Fusion, vol. 24, pp. 108-121, 2015. Disponible: 10.1016/j.inffus.2014.09.003 [Accedido 15 marzo 2021].[63] CV-Tricks.com. Zero to Hero: Guide to Object Detection using Deep Learning: Faster R-CNN, YOLO, SSD [Online]. Disponible: https://cv-tricks.com/object-detection/faster-r-cnn-yolo-ssd/.[64] "¿Qué es una API de REST?", 2020. [Online]. Disponible: https://www.redhat.com/es/topics/api/what-is-a-rest-api. [Accedido 11 septiembre 2021].Calle 100ORIGINALPrietoPedrazaDiegoAlejandro2021.pdfPrietoPedrazaDiegoAlejandro2021.pdfTesisapplication/pdf3614572http://repository.unimilitar.edu.co/bitstream/10654/41111/1/PrietoPedrazaDiegoAlejandro2021.pdf371ea1d6d2f81816ee73a53153a509edMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-83420http://repository.unimilitar.edu.co/bitstream/10654/41111/2/license.txta609d7e369577f685ce98c66b903b91bMD52THUMBNAILPrietoPedrazaDiegoAlejandro2021.pdf.jpgPrietoPedrazaDiegoAlejandro2021.pdf.jpgIM Thumbnailimage/jpeg5640http://repository.unimilitar.edu.co/bitstream/10654/41111/3/PrietoPedrazaDiegoAlejandro2021.pdf.jpgfabd3ce8c94baf89f23730b77ce33ec8MD5310654/41111oai:repository.unimilitar.edu.co:10654/411112022-06-14 01:04:10.418Repositorio Institucional UMNGbibliodigital@unimilitar.edu.coRWwgYXV0b3IgZGUgbGEgb2JyYSAodGVzaXMsIG1vbm9ncmFmw61hLCB0cmFiYWpvIGRlIGdyYWRvIG8gY3VhbHF1aWVyIG90cm8gZG9jdW1lbnRvCmNvbiBjYXLDoWN0ZXIgYWNhZMOpbWljbyksIGFjdHVhbmRvIGVuIG5vbWJyZSBwcm9waW8sIGhhY2UgZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2bwp5IGRlIHN1cyBhbmV4b3MgZW4gZm9ybWF0byBkaWdpdGFsIG8gZWxlY3Ryw7NuaWNvLgoKRUwgRVNUVURJQU5URSAtIEFVVE9SLCBtYW5pZmllc3RhIHF1ZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuCmVzIG9yaWdpbmFsIHkgbGEgcmVhbGl6w7Mgc2luIHZpb2xhciBvIHVzdXJwYXIgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHBvcgpsbyB0YW50bywgbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KCkVuIGNhc28gZGUgcHJlc2VudGFyc2UgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBvIGFjY2nDs24gcG9yIHBhcnRlIGRlIHVuIHRlcmNlcm8gZW4KY3VhbnRvIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGxhIG9icmEgZW4gY3Vlc3Rpw7NuLCBFTCBFU1RVRElBTlRFIC0gQVVUT1IsCmFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7CnBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCkFkZW3DoXMsICJMQSBVTklWRVJTSURBRCBNSUxJVEFSIE5VRVZBIEdSQU5BREEgY29tbyBpbnN0aXR1Y2nDs24gcXVlIGFsbWFjZW5hLCB5CnJlY29sZWN0YSBkYXRvcyBwZXJzb25hbGVzLCBhdGVuZGllbmRvIGxvIHByZWNlcHR1YWRvIGVuIGxhIGxleSAxNTgxIGRlIDIwMTIgeSBlbApEZWNyZXRvIDEzNzcgZGUgMjAxMywgcXVlIGRlc2Fycm9sbGFuIGVsIHByaW5jaXBpbyBjb25zdGl0dWNpb25hbCBxdWUgdGllbmVuIHRvZGFzCmxhcyBwZXJzb25hcyBhIGNvbm9jZXIsIGFjdHVhbGl6YXIgeSByZWN0aWZpY2FyIHRvZG8gdGlwbyBkZSBpbmZvcm1hY2nDs24gcmVjb2dpZGEKbywgcXVlIGhheWEgc2lkbyBvYmpldG8gZGUgdHJhdGFtaWVudG8gZGUgZGF0b3MgcGVyc29uYWxlcyBlbiBiYW5jb3MgbyBiYXNlcyBkZQpkYXRvcyB5IGVuIGdlbmVyYWwgZW4gYXJjaGl2b3MgZGUgZW50aWRhZGVzIHDDumJsaWNhcyBvIHByaXZhZGFzLCByZXF1aWVyZSBvYnRlbmVyCnN1IGF1dG9yaXphY2nDs24sIHBhcmEgcXVlLCBkZSBtYW5lcmEgbGlicmUsIHByZXZpYSwgZXhwcmVzYSwgdm9sdW50YXJpYSwgeQpkZWJpZGFtZW50ZSBpbmZvcm1hZGEsIHBlcm1pdGEgYSB0b2RhcyBudWVzdHJhcyBkZXBlbmRlbmNpYXMgYWNhZMOpbWljYXMgeQphZG1pbmlzdHJhdGl2YXMsIHJlY29sZWN0YXIsIHJlY2F1ZGFyLCBhbG1hY2VuYXIsIHVzYXIsIGNpcmN1bGFyLCBzdXByaW1pciwgcHJvY2VzYXIsCmNvbXBpbGFyLCBpbnRlcmNhbWJpYXIsIGRhciB0cmF0YW1pZW50bywgYWN0dWFsaXphciB5IGRpc3BvbmVyIGRlIGxvcyBkYXRvcyBxdWUKaGFuIHNpZG8gc3VtaW5pc3RyYWRvcyB5IHF1ZSBzZSBoYW4gaW5jb3Jwb3JhZG8gZW4gbnVlc3RyYXMgYmFzZXMgbyBiYW5jb3MgZGUKZGF0b3MsIG8gZW4gcmVwb3NpdG9yaW9zIGVsZWN0csOzbmljb3MgZGUgdG9kbyB0aXBvIGNvbiBxdWUgY3VlbnRhIGxhIFVuaXZlcnNpZGFkLgoKRXN0YSBpbmZvcm1hY2nDs24gZXMgeSBzZXLDoSB1dGlsaXphZGEgZW4gZWwgZGVzYXJyb2xsbyBkZSBsYXMgZnVuY2lvbmVzIHByb3BpYXMgZGUKbGEgVW5pdmVyc2lkYWQgZW4gc3UgY29uZGljacOzbiBkZSBpbnN0aXR1Y2nDs24gZGUgZWR1Y2FjacOzbiBzdXBlcmlvciwgZGUgZm9ybWEKZGlyZWN0YSBvIGEgdHJhdsOpcyBkZSB0ZXJjZXJvcyIuCgpTaSBzdSBkb2N1bWVudG8gZXMgZGUgYWNjZXNvIHJlc3RyaW5naWRvICwgc3UgdHJhYmFqbyBzZSBkZXBvc2l0YXLDoSBlbiBlbApSZXBvc2l0b3JpbyBVTU5HIMO6bmljYW1lbnRlIGNvbiBwcm9ww7NzaXRvcyBkZSBwcmVzZXJ2YWNpw7NuIGRvY3VtZW50YWwgeSBtZW1vcmlhCmluc3RpdHVjaW9uYWwsIGVudGVuZGllbmRvIHF1ZSwgc2Vyw6EgY29uc3VsdGFkbyBkZSBmb3JtYSBjb250cm9sYWRhIHNvbGFtZW50ZSBwb3IKbGEgY29tdW5pZGFkIE5lb2dyYW5hZGluYS4KClNpIHN1IGRvY3VtZW50byBlcyBkZSBhY2Nlc28gYWJpZXJ0bywgcGFyYSBwZXJtaXRpciBhbCBSZXBvc2l0b3JpbyBVTU5HIHJlcHJvZHVjaXIsCnRyYWR1Y2lyIHkgZGlzdHJpYnVpciBzdSBlbnbDrW8gYSB0cmF2w6lzIGRlbCBtdW5kbywgbmVjZXNpdGFtb3Mgc3UgY29uZm9ybWlkYWQgZW4KbG9zIHNpZ3VpZW50ZXMgdMOpcm1pbm9zOgoKWSBhdXRvcml6YSBhIGxhIFVOSVZFUlNJREFEIE1JTElUQVIgTlVFVkEgR1JBTkFEQSwgcGFyYSBxdWUgZW4gbG9zIHTDqXJtaW5vcwplc3RhYmxlY2lkb3MgZW46CgpMZXkgMjMgZGUgMTk4Mi0gTGV5IDQ0IGRlIDE5OTMgLUxleSAxOTE1IGRlIDIwMTggLSBEZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzLQpEZWNyZXRvIDQ2MCBkZSAxOTk1IHkgZGVtw6FzIG5vcm1hcyBnZW5lcmFsZXMgc29icmUgbGEgbWF0ZXJpYSwgdXRpbGljZSB5IHVzZSBwb3IKY3VhbHF1aWVyIG1lZGlvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sCmNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlCmRvY3VtZW50by4KCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc8OzbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlCnVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byB2aXJ0dWFsLAplbGVjdHLDs25pY28sIGRpZ2l0YWwsIHkgY3V5byB1c28gc2UgZGUgZW4gcmVkLCBpbnRlcm5ldCwgZXh0cmFuZXQsIGludHJhbmV0LCBldGMuLAp5IGVuIGdlbmVyYWwgZW4gY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4KClNpIHRpZW5lIGFsZ3VuYSBkdWRhIHNvYnJlIGxvcyBUw6lybWlub3MgeSBjb25kaWNpb25lcywgcG9yIGZhdm9yLCBjb250YWN0ZSBjb24gZWwKYWRtaW5pc3RyYWRvciBkZWwgc2lzdGVtYSBiaWJsaW9kaWdpdGFsQHVuaW1pbGl0YXIuZWR1LmNvCgpBY2VwdGUgVMOpcm1pbm9zIHkgY29uZGljaW9uZXMgc2VsZWNjaW9uYW5kbyAiQWNlcHRvIiB5IHB1bHNhbmRvICJDb21wbGV0YXIgZW52w61vIi4K