Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador

Actualmente, el programa de Ingeniería Mecatrónica de la UNAB carece de un vehículo autónomo con sistema de dirección Ackermann, lo cual limita significativamente la participación de sus estudiantes en competencias nacionales e internacionales como la competencia Bosch. Esta carencia reduce la oport...

Full description

Autores:
Carvajal Reyes, Miguel Ricardo
Contreras Salcedos, Carlos Daniel
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2025
Institución:
Universidad Autónoma de Bucaramanga - UNAB
Repositorio:
Repositorio UNAB
Idioma:
spa
OAI Identifier:
oai:repository.unab.edu.co:20.500.12749/31913
Acceso en línea:
http://hdl.handle.net/20.500.12749/31913
Palabra clave:
Mechatronic
Raspberry pi
Ackerman
Self driving car
signal recognition
Technological innovations
Prototype development
Programming (Electronic Computers)
Embedded computer systems
Cooperating objects (Computer systems)
Mecatrónica
Innovaciones tecnológicas
Desarrollo de prototipos
Programación (Computadores electrónicos)
Sistemas de computador embebidos
Objetos cooperantes (Sistemas de computador)
Carro Autónomo
Reconocimiento de señales
Rights
License
http://creativecommons.org/licenses/by-nc-nd/2.5/co/
id UNAB2_da572afa76b171e85fc3f832766c1133
oai_identifier_str oai:repository.unab.edu.co:20.500.12749/31913
network_acronym_str UNAB2
network_name_str Repositorio UNAB
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
dc.title.translated.spa.fl_str_mv Development of a traffic sign recognition system that enables level 2 autonomous navigation of an Ackerman-type mobile robot through the use of computer vision
title Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
spellingShingle Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
Mechatronic
Raspberry pi
Ackerman
Self driving car
signal recognition
Technological innovations
Prototype development
Programming (Electronic Computers)
Embedded computer systems
Cooperating objects (Computer systems)
Mecatrónica
Innovaciones tecnológicas
Desarrollo de prototipos
Programación (Computadores electrónicos)
Sistemas de computador embebidos
Objetos cooperantes (Sistemas de computador)
Carro Autónomo
Reconocimiento de señales
title_short Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
title_full Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
title_fullStr Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
title_full_unstemmed Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
title_sort Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador
dc.creator.fl_str_mv Carvajal Reyes, Miguel Ricardo
Contreras Salcedos, Carlos Daniel
dc.contributor.advisor.none.fl_str_mv Maradey Lázaro, Jessica Gissella
González Acuña, Hernán
dc.contributor.author.none.fl_str_mv Carvajal Reyes, Miguel Ricardo
Contreras Salcedos, Carlos Daniel
dc.contributor.cvlac.spa.fl_str_mv González Acuña, Hernán [0000774774]
Maradey Lázaro, Jessica Gissella [0000040553]
dc.contributor.googlescholar.spa.fl_str_mv González Acuña, Hernán [es&oi=ao]
dc.contributor.orcid.spa.fl_str_mv González Acuña, Hernán [0009-0001-0711-8170]
Maradey Lázaro, Jessica Gissella [000-0003-2319-1965]
dc.contributor.researchgate.spa.fl_str_mv Maradey Lázaro, Jessica Gissella [Jessica_Maradey_Lazaro]
dc.contributor.apolounab.spa.fl_str_mv González Acuña, Hernán [hernán-gonzález-acuña]
Maradey Lázaro, Jessica Gissella [jessica-gissella-maradey-lazaro-2]
dc.contributor.linkedin.spa.fl_str_mv Maradey Lázaro, Jessica Gissella [jessica-gissella-maradey-lazaro-b7831445]
dc.subject.keywords.spa.fl_str_mv Mechatronic
Raspberry pi
Ackerman
Self driving car
signal recognition
Technological innovations
Prototype development
Programming (Electronic Computers)
Embedded computer systems
Cooperating objects (Computer systems)
topic Mechatronic
Raspberry pi
Ackerman
Self driving car
signal recognition
Technological innovations
Prototype development
Programming (Electronic Computers)
Embedded computer systems
Cooperating objects (Computer systems)
Mecatrónica
Innovaciones tecnológicas
Desarrollo de prototipos
Programación (Computadores electrónicos)
Sistemas de computador embebidos
Objetos cooperantes (Sistemas de computador)
Carro Autónomo
Reconocimiento de señales
dc.subject.lemb.spa.fl_str_mv Mecatrónica
Innovaciones tecnológicas
Desarrollo de prototipos
Programación (Computadores electrónicos)
Sistemas de computador embebidos
Objetos cooperantes (Sistemas de computador)
dc.subject.proposal.spa.fl_str_mv Carro Autónomo
Reconocimiento de señales
description Actualmente, el programa de Ingeniería Mecatrónica de la UNAB carece de un vehículo autónomo con sistema de dirección Ackermann, lo cual limita significativamente la participación de sus estudiantes en competencias nacionales e internacionales como la competencia Bosch. Esta carencia reduce la oportunidad de aplicar conocimientos prácticos en áreas clave como la inteligencia artificial, la electrónica avanzada y la visión por computadora, todas ellas esenciales para enfrentar los desafíos de la industria 4.0. Este proyecto desarrolla un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador.
publishDate 2025
dc.date.accessioned.none.fl_str_mv 2025-10-22T20:46:48Z
dc.date.available.none.fl_str_mv 2025-10-22T20:46:48Z
dc.date.issued.none.fl_str_mv 2025-05-28
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.local.spa.fl_str_mv Trabajo de Grado
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.hasversion.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.12749/31913
dc.identifier.instname.spa.fl_str_mv instname:Universidad Autónoma de Bucaramanga - UNAB
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional UNAB
dc.identifier.repourl.spa.fl_str_mv repourl:https://repository.unab.edu.co
url http://hdl.handle.net/20.500.12749/31913
identifier_str_mv instname:Universidad Autónoma de Bucaramanga - UNAB
reponame:Repositorio Institucional UNAB
repourl:https://repository.unab.edu.co
dc.language.iso.spa.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv KILIYEN, N. A.; LEMNARIU, R. F.; MOIS, G. D.; CHEN, B. T.; MORRIS, Y.; MUNTEAN, I. The IEEE ITSS and Bosch Future Mobility Challenge: A hands-on start to autonomous driving [Technical activities]. IEEE Intelligent Transportation Systems Magazine, v. 13, n. 3, p. 276–282, sep. 2021. DOI: 10.1109/MITS.2021.3081939.
IEEE. 2018 IEEE International Conference on Electro/Information Technology (EIT): 3-5 May 2018. 2018.
IEEE. 2020 17th International Conference on Electrical Engineering/Electronics, Computer, Telecommunications and Information Technology. 2020.
FARKH, R.; QUASIM, M. T.; AL JALOUD, K.; ALHUWAIMEL, S.; SIDDIQUI, Y. S. T. Computer vision-control-based CNN-PID for mobile robot. Computers, Materials & Continua, v. 68, n. 1, p. 1065–1079, mar. 2021. DOI: 10.32604/cmc.2021.016600.
SYNOPSYS. Los 6 niveles de autonomía del vehículo explicados. [en línea]. Disponible en: https://www.synopsys.com/blogs/chip-design/autonomous-driving-levels.html. Consultado: 29 ago. 2024.
SHIVAYOGI, A. B.; DHARMENDRA, N. C. M.; RAMAKRISHNA, A. M.; SUBRAMANYA, K. N. Real-time traffic sign recognition using deep learning. Pertanika Journal of Science & Technology, v. 31, n. 1, p. 137–148, ene. 2023. DOI: 10.47836/pjst.31.1.09.
BARAHONA, A.; RIOS, K.; GAVILANES, J.; GAVILANES, J. Development of an Ackermann-type mobile platform for the validation of autonomous navigation algorithms within the ESPOCH campus. ESPOCH Congresses: The Ecuadorian Journal of S.T.E.A.M., v. 2, n. 4, p. 160-1173–160–1173, ago. 2022. DOI: 10.18502/espoch.v2i4.11744.
FARKH, R.; ALJALOUD, K. Vision navigation based PID control for line tracking robot. Intelligent Automation and Soft Computing, v. 35, n. 1, p. 901–911, 2023. DOI: 10.32604/iasc.2023.027614.
CHANG, B. R.; TSAI, H. F.; HSIEH, Y. C. W. Accelerating the response of self-driving control by using rapid object detection and steering angle prediction. Electronics (Switzerland), v. 12, n. 10, may 2023. DOI: 10.3390/electronics12102161.
Evaluación de rendimiento de YOLOv5 y algoritmos de seguimiento en una Jetson Nano 2GB.
SILVA LOZADA, Brayan Ricardo. Diseño e implementación de un algoritmo para la segmentación del carril en carretera que permita el manejo autónomo de un robot móvil usando visión por computador. Bucaramanga: Universidad Autónoma de Bucaramanga, 2024.
Zhang, Y., & Wang, Q. (2018). Advances in Vision-Based Lane Detection: Algorithms, Integration, and Evaluation. IEEE/CAA Journal of Automatica Sinica, 5(3), 485–497.
M. Benidir, A. Ayoub y B. Bouzouane, "Design of a Smart Car with Traffic Signal Recognition and Vehicle Control", International Journal of Advanced Computer Science and Applications (IJACSA), vol. 10, no. 8, pp. 387-392, 2019.
SOLANA, P. Las máquinas toman el control: efectos neurocognitivos de la conducción automatizada sobre la atención y cómo hacerles frente. 2021. DOI: 10.5281/zenodo.4515246.
DÍEZ RAMÍREZ, A. Conducción autónoma: estudio del estado del arte, impacto sobre la movilidad y desarrollo de simulador de tráfico. 2018.
VÍCTOR, R.; BARRIENTOS, S.; JOSÉ, R.; GARCÍA, S.; RAMÓN, S.; ORTIGOZA. Robots móviles: evolución y estado del arte. Polibits, 2007.
YESID, A.; ARDILA, M.; FRANCISCO, W. Sistema de reconocimiento autónomo de maduración de frutos de cacao mediante la técnica de visión artificial. Bucaramanga, 2019.
ENCISO SALAS, Luis Miguel. Diseño de un sistema de navegación autónomo para robots móviles usando fusión de sensores y controladores neuro difusos. Lima: Pontificia Universidad Católica del Perú, 2015. (Maestría en Ingeniería de Control y Automatización).
PÉREZ PÉREZ, J. Fernando; POR, A.; ODILIO, I. B.; MÉNDEZ, A. Diseño e implementación de un prototipo de vehículo autónomo desarrollado a partir de algoritmo de visión computarizada, redes neuronales y sensores. Guatemala, jul. 2021.
EDUTOOLS. OpenCV. [en línea]. Disponible en: https://edutools.tec.mx/es/colecciones/tecnologias/opencv. Consultado: 28 ago. 2024.
GOOGLE CLOUD. ¿Qué es el aprendizaje automático? Tipos y usos. [en línea]. Disponible en: https://cloud.google.com/learn/what-is-machine-learning?hl=es-419. Consultado: 29 ago. 2024.
CIENCIA COGNITIVA. En qué consiste el aprendizaje automático (machine learning) y qué está aportando a la neurociencia cognitiva. [en línea]. Disponible en: https://www.cienciacognitiva.org/?p=1697. Consultado: 29 ago. 2024.
JHAN, G.; ARTEAGA, P. R. Aplicación del aprendizaje profundo (‘deep learning’) al procesamiento de señales digitales. Santiago de Cali: Universidad Autónoma de Occidente, Facultad de Ingeniería, Departamento de Automática y Electrónica, Programa de Ingeniería Mecatrónica, 2015.
MICROSOFT AZURE. ¿Qué es el aprendizaje profundo? [en línea]. Disponible en: https://azure.microsoft.com/es-es/resources/cloud-computing-dictionary/what-is-deep-learning. Consultado: 29 ago. 2024.
PILOTO RODRÍGUEZ, R. Redes neuronales artificiales. Conceptos básicos y algunas aplicaciones en energía. 2017.
GÓMEZ SILVA, Leidy Daniela. Implementación de un sistema de visión artificial de detección y. Bucaramanga: Universidad Autónoma de Bucaramanga, 2023.
SAÚL, D.; RANEROS, R.; ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA DE TELECOMUNICACIÓN. Universidad de Valladolid: estudio de la arquitectura YOLO para la detección de objetos mediante deep learning.
TECNOLOGÍA EDUCATIVA UNAN – MANAGUA. Algoritmo A estrellas (A*). [en línea]. Disponible en: https://aeia.home.blog/algoritmo-a-estrellas-a/. Consultado: 29 ago. 2024.
A. Ollero, Robótica manipuladores y robots móviles, Primera edición. 2001.
“Kit de chasis de coche inteligente con rueda Mecanum y brazo robótico para robot ROS”. Yahboom. Accedido el 5 de mayo de 2025.
A. Fezari, "Introducing the Raspberry Pi 5: A Leap in Performance and Capabilities," Hackster.io, Oct. 02, 2023.
A. Süzen, B. Duman, y B. Şen, “Benchmark Analysis of Jetson TX2, Jetson Nano and Raspberry PI using Deep-CNN”, Isparta, 2020.
OpenCV, “Smoothing Images”, OpenCV documentation . Consultado: el 11 de marzo de 2023.
X. Cao, D. Liu, y X. Ren, “Detection method for auto guide vehicle’s walking deviation based on image thinning and Hough transform”, Measurement and 102 Control (United Kingdom), vol. 52, núm. 3–4, pp. 252–261, mar. 2019.
P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” in Proc. IEEE Computer Society Conf. Computer Vision and Pattern Recognition (CVPR), 2001.
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
dc.rights.local.spa.fl_str_mv Abierto (Texto Completo)
dc.rights.creativecommons.*.fl_str_mv Atribución-NoComercial-SinDerivadas 2.5 Colombia
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/co/
Abierto (Texto Completo)
Atribución-NoComercial-SinDerivadas 2.5 Colombia
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.spa.fl_str_mv application/pdf
dc.coverage.spatial.spa.fl_str_mv Colombia
dc.coverage.campus.spa.fl_str_mv UNAB Campus Bucaramanga
dc.publisher.grantor.spa.fl_str_mv Universidad Autónoma de Bucaramanga UNAB
dc.publisher.faculty.spa.fl_str_mv Facultad Ingeniería
dc.publisher.program.spa.fl_str_mv Pregrado Ingeniería Mecatrónica
dc.publisher.programid.none.fl_str_mv IMK-1789
institution Universidad Autónoma de Bucaramanga - UNAB
bitstream.url.fl_str_mv https://repository.unab.edu.co/bitstream/20.500.12749/31913/1/LIBRO_FINAL.pdf
https://repository.unab.edu.co/bitstream/20.500.12749/31913/6/Licencia.pdf
https://repository.unab.edu.co/bitstream/20.500.12749/31913/5/license.txt
https://repository.unab.edu.co/bitstream/20.500.12749/31913/7/LIBRO_FINAL.pdf.jpg
https://repository.unab.edu.co/bitstream/20.500.12749/31913/8/Licencia.pdf.jpg
bitstream.checksum.fl_str_mv 18b8dea5629d081ce51e8c12311e9325
e4d27e974ffa43831ae3511a908e6377
3755c0cfdb77e29f2b9125d7a45dd316
ef9f3d6e3b70e4b36a7551f964d4a748
698a75465e81a3a9efbacfd0548783aa
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional | Universidad Autónoma de Bucaramanga - UNAB
repository.mail.fl_str_mv repositorio@unab.edu.co
_version_ 1851051732561297408
spelling Maradey Lázaro, Jessica Gissellad6570851-23e5-44e4-8c29-fd312d351b94González Acuña, Hernán242675e5-3d95-4403-8202-fb9a6c966c93Carvajal Reyes, Miguel Ricardo3b4c76e9-0f92-4413-8247-cbb4d3c2b758Contreras Salcedos, Carlos Daniel773621a4-20bc-4fe4-a63d-7a373ea512baGonzález Acuña, Hernán [0000774774]Maradey Lázaro, Jessica Gissella [0000040553]González Acuña, Hernán [es&oi=ao]González Acuña, Hernán [0009-0001-0711-8170]Maradey Lázaro, Jessica Gissella [000-0003-2319-1965]Maradey Lázaro, Jessica Gissella [Jessica_Maradey_Lazaro]González Acuña, Hernán [hernán-gonzález-acuña]Maradey Lázaro, Jessica Gissella [jessica-gissella-maradey-lazaro-2]Maradey Lázaro, Jessica Gissella [jessica-gissella-maradey-lazaro-b7831445]ColombiaUNAB Campus Bucaramanga2025-10-22T20:46:48Z2025-10-22T20:46:48Z2025-05-28http://hdl.handle.net/20.500.12749/31913instname:Universidad Autónoma de Bucaramanga - UNABreponame:Repositorio Institucional UNABrepourl:https://repository.unab.edu.coActualmente, el programa de Ingeniería Mecatrónica de la UNAB carece de un vehículo autónomo con sistema de dirección Ackermann, lo cual limita significativamente la participación de sus estudiantes en competencias nacionales e internacionales como la competencia Bosch. Esta carencia reduce la oportunidad de aplicar conocimientos prácticos en áreas clave como la inteligencia artificial, la electrónica avanzada y la visión por computadora, todas ellas esenciales para enfrentar los desafíos de la industria 4.0. Este proyecto desarrolla un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computador.1. INTRODUCCIÓN 2. OBJETIVOS 2.1. OBJETIVO GENERAL 2.2. OBJETIVOS ESPECÍFICOS 3. ESTADO DEL ARTE 4. MARCO TEÓRICO 4.1. NIVELES DE CONDUCCIÓN AUTÓNOMA 4.2. ROBOTS MÓVILES 4.2.1 ROBOT MÓVIL TIPO ACKERMAN 4.3 VISIÓN POR COMPUTADOR EN ROBÓTICA MÓVIL 4.3.1 SOFTWARE VISIÓN POR COMPUTADOR – OPENCV 4.4. INTELIGENCIA ARTIFICIAL (IA): 4.4.1 APRENDIZAJE AUTOMÁTICO: 4.4.2 APRENDIZAJE PROFUNDO: 4.5. REDES NEURONALES ARTIFICIALES (RNA): 4.6. REDES NEURONALES CONVOLUCIONALES: 4.7. YOLO (YOU ONLY LOOK ONCE): 4.8. ALGORITMO A-STAR: 5. METODOLOGÍA 6. PRINCIPIO MECÁNICO DEL SISTEMA 6.1 CONFIGURACIÓN DEL CHASIS 6.2 CALCULO DEL ÁNGULO DE GIRO DEL CHASIS 7. DISEÑO ELECTRÓNICO DEL ROBOT 7.1 RECONOCIMIENTO DE LOS ELEMENTOS DEL CHASIS 7.1.1 MOTORES JGB-520 7.1.2 SERVOMOTOR YB-P20M 7.2 SELECCIÓN DE LA TARJETA DE PROCESAMIENTO 7.3 SELECCIÓN MÓDULO CÁMARA 7.4 SELECCIÓN MICROCONTROLADOR 7.5 SELECCIÓN DRIVER 7.5.1 CRITERIOS DE SELECCIÓN 7.6 SELECCIÓN DE LA BATERÍA 7.6.1 BATERÍA ACTUADORES Y MICROCONTROLADOR 7.6.2 BATERÍA PARA RASPBERRY PI 5 7.7 DIAGRAMA DE CONEXIONES DEL CIRCUITO 8. DESARROLLO DEL ALGORITMO DE DETECCIÓN DE CARRIL 8.1 SELECCIÓN DEL SOFTWARE A UTILIZAR 8.2 LIBRERIAS NECESARIAS PARA LA DETECCIÓN DE CARRIL 8.3 DESARROLLO DEL ALGORITMO DE CARRIL 8.3.1 PROCESAMIENTO DE IMÁGENES 8.3.2 DETECCIÓN DE CARRIL 8.3.3 TRANSFORMADA DE HOUGH 8.4 ESTIMACIÓN DE GIRO DEL VEHÍCULO 9. DETECCIÓN DE SEÑALES DE TRANSITO 9.1 SELECCIÓN DEL ALGORITMO DE DETECCIÓN 9.1.1 ALGORITMO DE DETECCIÓN 10. RESULTADOS 10.1 MONTAJE DE CONEXIONES DEL CIRCUITO 10.2 REESTRUCTURACIÓN DE LA PISTA 11. ANÁLISIS DE LOS RESULTADOS OBTENIDOS 11.1 PRUEBAS PARA DETECCIÓN DE CARRIL 11.2 PRUEBAS PARA DETECCIÓN DE SEÑALES 12. CONCLUSIONES 13. BIBLIOGRAFÍA 14. ANEXOSPregradoCurrently, UNAB's Mechatronics Engineering program lacks an autonomous vehicle with an Ackermann steering system, which significantly limits its students' participation in national and international competitions such as the Bosch competition. This lack reduces the opportunity to apply practical knowledge in key areas such as artificial intelligence, advanced electronics, and computer vision, all of which are essential to addressing the challenges of Industry 4.0. This project develops a traffic sign recognition system that enables Level 2 autonomous navigation of an Ackermann-type mobile robot using computer vision.Modalidad Presencialapplication/pdfspahttp://creativecommons.org/licenses/by-nc-nd/2.5/co/Abierto (Texto Completo)Atribución-NoComercial-SinDerivadas 2.5 Colombiahttp://purl.org/coar/access_right/c_abf2Desarrollo de un sistema de reconocimiento de señales de tránsito que permita la navegación autónoma nivel 2 de un robot móvil tipo Ackerman mediante el uso de visión por computadorDevelopment of a traffic sign recognition system that enables level 2 autonomous navigation of an Ackerman-type mobile robot through the use of computer visionIngeniero MecatrónicoUniversidad Autónoma de Bucaramanga UNABFacultad IngenieríaPregrado Ingeniería MecatrónicaIMK-1789info:eu-repo/semantics/bachelorThesisTrabajo de Gradohttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/acceptedVersionhttp://purl.org/redcol/resource_type/TPMechatronicRaspberry piAckermanSelf driving carsignal recognitionTechnological innovationsPrototype developmentProgramming (Electronic Computers)Embedded computer systemsCooperating objects (Computer systems)MecatrónicaInnovaciones tecnológicasDesarrollo de prototiposProgramación (Computadores electrónicos)Sistemas de computador embebidosObjetos cooperantes (Sistemas de computador)Carro AutónomoReconocimiento de señalesKILIYEN, N. A.; LEMNARIU, R. F.; MOIS, G. D.; CHEN, B. T.; MORRIS, Y.; MUNTEAN, I. The IEEE ITSS and Bosch Future Mobility Challenge: A hands-on start to autonomous driving [Technical activities]. IEEE Intelligent Transportation Systems Magazine, v. 13, n. 3, p. 276–282, sep. 2021. DOI: 10.1109/MITS.2021.3081939.IEEE. 2018 IEEE International Conference on Electro/Information Technology (EIT): 3-5 May 2018. 2018.IEEE. 2020 17th International Conference on Electrical Engineering/Electronics, Computer, Telecommunications and Information Technology. 2020.FARKH, R.; QUASIM, M. T.; AL JALOUD, K.; ALHUWAIMEL, S.; SIDDIQUI, Y. S. T. Computer vision-control-based CNN-PID for mobile robot. Computers, Materials & Continua, v. 68, n. 1, p. 1065–1079, mar. 2021. DOI: 10.32604/cmc.2021.016600.SYNOPSYS. Los 6 niveles de autonomía del vehículo explicados. [en línea]. Disponible en: https://www.synopsys.com/blogs/chip-design/autonomous-driving-levels.html. Consultado: 29 ago. 2024.SHIVAYOGI, A. B.; DHARMENDRA, N. C. M.; RAMAKRISHNA, A. M.; SUBRAMANYA, K. N. Real-time traffic sign recognition using deep learning. Pertanika Journal of Science & Technology, v. 31, n. 1, p. 137–148, ene. 2023. DOI: 10.47836/pjst.31.1.09.BARAHONA, A.; RIOS, K.; GAVILANES, J.; GAVILANES, J. Development of an Ackermann-type mobile platform for the validation of autonomous navigation algorithms within the ESPOCH campus. ESPOCH Congresses: The Ecuadorian Journal of S.T.E.A.M., v. 2, n. 4, p. 160-1173–160–1173, ago. 2022. DOI: 10.18502/espoch.v2i4.11744.FARKH, R.; ALJALOUD, K. Vision navigation based PID control for line tracking robot. Intelligent Automation and Soft Computing, v. 35, n. 1, p. 901–911, 2023. DOI: 10.32604/iasc.2023.027614.CHANG, B. R.; TSAI, H. F.; HSIEH, Y. C. W. Accelerating the response of self-driving control by using rapid object detection and steering angle prediction. Electronics (Switzerland), v. 12, n. 10, may 2023. DOI: 10.3390/electronics12102161.Evaluación de rendimiento de YOLOv5 y algoritmos de seguimiento en una Jetson Nano 2GB.SILVA LOZADA, Brayan Ricardo. Diseño e implementación de un algoritmo para la segmentación del carril en carretera que permita el manejo autónomo de un robot móvil usando visión por computador. Bucaramanga: Universidad Autónoma de Bucaramanga, 2024.Zhang, Y., & Wang, Q. (2018). Advances in Vision-Based Lane Detection: Algorithms, Integration, and Evaluation. IEEE/CAA Journal of Automatica Sinica, 5(3), 485–497.M. Benidir, A. Ayoub y B. Bouzouane, "Design of a Smart Car with Traffic Signal Recognition and Vehicle Control", International Journal of Advanced Computer Science and Applications (IJACSA), vol. 10, no. 8, pp. 387-392, 2019.SOLANA, P. Las máquinas toman el control: efectos neurocognitivos de la conducción automatizada sobre la atención y cómo hacerles frente. 2021. DOI: 10.5281/zenodo.4515246.DÍEZ RAMÍREZ, A. Conducción autónoma: estudio del estado del arte, impacto sobre la movilidad y desarrollo de simulador de tráfico. 2018.VÍCTOR, R.; BARRIENTOS, S.; JOSÉ, R.; GARCÍA, S.; RAMÓN, S.; ORTIGOZA. Robots móviles: evolución y estado del arte. Polibits, 2007.YESID, A.; ARDILA, M.; FRANCISCO, W. Sistema de reconocimiento autónomo de maduración de frutos de cacao mediante la técnica de visión artificial. Bucaramanga, 2019.ENCISO SALAS, Luis Miguel. Diseño de un sistema de navegación autónomo para robots móviles usando fusión de sensores y controladores neuro difusos. Lima: Pontificia Universidad Católica del Perú, 2015. (Maestría en Ingeniería de Control y Automatización).PÉREZ PÉREZ, J. Fernando; POR, A.; ODILIO, I. B.; MÉNDEZ, A. Diseño e implementación de un prototipo de vehículo autónomo desarrollado a partir de algoritmo de visión computarizada, redes neuronales y sensores. Guatemala, jul. 2021.EDUTOOLS. OpenCV. [en línea]. Disponible en: https://edutools.tec.mx/es/colecciones/tecnologias/opencv. Consultado: 28 ago. 2024.GOOGLE CLOUD. ¿Qué es el aprendizaje automático? Tipos y usos. [en línea]. Disponible en: https://cloud.google.com/learn/what-is-machine-learning?hl=es-419. Consultado: 29 ago. 2024.CIENCIA COGNITIVA. En qué consiste el aprendizaje automático (machine learning) y qué está aportando a la neurociencia cognitiva. [en línea]. Disponible en: https://www.cienciacognitiva.org/?p=1697. Consultado: 29 ago. 2024.JHAN, G.; ARTEAGA, P. R. Aplicación del aprendizaje profundo (‘deep learning’) al procesamiento de señales digitales. Santiago de Cali: Universidad Autónoma de Occidente, Facultad de Ingeniería, Departamento de Automática y Electrónica, Programa de Ingeniería Mecatrónica, 2015.MICROSOFT AZURE. ¿Qué es el aprendizaje profundo? [en línea]. Disponible en: https://azure.microsoft.com/es-es/resources/cloud-computing-dictionary/what-is-deep-learning. Consultado: 29 ago. 2024.PILOTO RODRÍGUEZ, R. Redes neuronales artificiales. Conceptos básicos y algunas aplicaciones en energía. 2017.GÓMEZ SILVA, Leidy Daniela. Implementación de un sistema de visión artificial de detección y. Bucaramanga: Universidad Autónoma de Bucaramanga, 2023.SAÚL, D.; RANEROS, R.; ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA DE TELECOMUNICACIÓN. Universidad de Valladolid: estudio de la arquitectura YOLO para la detección de objetos mediante deep learning.TECNOLOGÍA EDUCATIVA UNAN – MANAGUA. Algoritmo A estrellas (A*). [en línea]. Disponible en: https://aeia.home.blog/algoritmo-a-estrellas-a/. Consultado: 29 ago. 2024.A. Ollero, Robótica manipuladores y robots móviles, Primera edición. 2001.“Kit de chasis de coche inteligente con rueda Mecanum y brazo robótico para robot ROS”. Yahboom. Accedido el 5 de mayo de 2025.A. Fezari, "Introducing the Raspberry Pi 5: A Leap in Performance and Capabilities," Hackster.io, Oct. 02, 2023.A. Süzen, B. Duman, y B. Şen, “Benchmark Analysis of Jetson TX2, Jetson Nano and Raspberry PI using Deep-CNN”, Isparta, 2020.OpenCV, “Smoothing Images”, OpenCV documentation . Consultado: el 11 de marzo de 2023.X. Cao, D. Liu, y X. Ren, “Detection method for auto guide vehicle’s walking deviation based on image thinning and Hough transform”, Measurement and 102 Control (United Kingdom), vol. 52, núm. 3–4, pp. 252–261, mar. 2019.P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” in Proc. IEEE Computer Society Conf. Computer Vision and Pattern Recognition (CVPR), 2001.ORIGINALLIBRO_FINAL.pdfLIBRO_FINAL.pdfTesisapplication/pdf1415000https://repository.unab.edu.co/bitstream/20.500.12749/31913/1/LIBRO_FINAL.pdf18b8dea5629d081ce51e8c12311e9325MD51open accessLicencia.pdfLicencia.pdfLicenciaapplication/pdf457979https://repository.unab.edu.co/bitstream/20.500.12749/31913/6/Licencia.pdfe4d27e974ffa43831ae3511a908e6377MD56metadata only accessLICENSElicense.txtlicense.txttext/plain; charset=utf-8829https://repository.unab.edu.co/bitstream/20.500.12749/31913/5/license.txt3755c0cfdb77e29f2b9125d7a45dd316MD55open accessTHUMBNAILLIBRO_FINAL.pdf.jpgLIBRO_FINAL.pdf.jpgIM Thumbnailimage/jpeg4634https://repository.unab.edu.co/bitstream/20.500.12749/31913/7/LIBRO_FINAL.pdf.jpgef9f3d6e3b70e4b36a7551f964d4a748MD57open accessLicencia.pdf.jpgLicencia.pdf.jpgIM Thumbnailimage/jpeg12964https://repository.unab.edu.co/bitstream/20.500.12749/31913/8/Licencia.pdf.jpg698a75465e81a3a9efbacfd0548783aaMD58metadata only access20.500.12749/31913oai:repository.unab.edu.co:20.500.12749/319132025-10-22 22:00:59.273open accessRepositorio Institucional | Universidad Autónoma de Bucaramanga - UNABrepositorio@unab.edu.coRUwoTE9TKSBBVVRPUihFUyksIG1hbmlmaWVzdGEobWFuaWZlc3RhbW9zKSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuCgpFbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbi4gRWwgQVVUT1IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVTkFCIGFjdMO6YSBjb21vIHVuIHRlcmNlcm8gZGUgYnVlbmEgZmUuCgpFbCBBVVRPUiBhdXRvcml6YSBhIGxhIFVuaXZlcnNpZGFkIEF1dMOzbm9tYSBkZSBCdWNhcmFtYW5nYSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24uCg==