Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android

La integración de sistemas autónomos en nuestra vida cotidiana es una realidad cada vez más palpable. A medida que avanzamos en la era digital, las soluciones inteligentes para mejorar la seguridad y eficiencia se hacen indispensables. Sin embargo, la transición hacia la autonomía total presenta des...

Full description

Autores:
Guerra Jiménez, Carlos Andrés
Zarate Bello, Daniel Felipe
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Militar Nueva Granada
Repositorio:
Repositorio UMNG
Idioma:
spa
OAI Identifier:
oai:repository.umng.edu.co:10654/47159
Acceso en línea:
https://hdl.handle.net/10654/47159
Palabra clave:
SISTEMAS AVANZADOS DE ASISTENCIA A LA CONDUCCION (DAS) - DESARROLLO
DETECCION DE OBSTACULOS - TECNOLOGIA MOVIL
APLICACIONES MOVILES - DESARROLLO - ANDROID
SEGURIDAD VIAL - TECNOLOGÍA
ADAS
inteligencia artificial
vision por computadora
asistente de conduccion
android
driving assistant android
ADA
artificial intelligence
computer vision
Rights
openAccess
License
http://creativecommons.org/licenses/by-nc-nd/4.0/
id UNIMILTAR2_443419e2b9314bf48aa3a0f385673110
oai_identifier_str oai:repository.umng.edu.co:10654/47159
network_acronym_str UNIMILTAR2
network_name_str Repositorio UMNG
repository_id_str
dc.title.spa.fl_str_mv Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
dc.title.eng.fl_str_mv Development of a driver-oriented form, with obstacle detection using roidmobile application
title Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
spellingShingle Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
SISTEMAS AVANZADOS DE ASISTENCIA A LA CONDUCCION (DAS) - DESARROLLO
DETECCION DE OBSTACULOS - TECNOLOGIA MOVIL
APLICACIONES MOVILES - DESARROLLO - ANDROID
SEGURIDAD VIAL - TECNOLOGÍA
ADAS
inteligencia artificial
vision por computadora
asistente de conduccion
android
driving assistant android
ADA
artificial intelligence
computer vision
title_short Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
title_full Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
title_fullStr Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
title_full_unstemmed Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
title_sort Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil Android
dc.creator.fl_str_mv Guerra Jiménez, Carlos Andrés
Zarate Bello, Daniel Felipe
dc.contributor.advisor.none.fl_str_mv Rojas, Diego
dc.contributor.author.none.fl_str_mv Guerra Jiménez, Carlos Andrés
Zarate Bello, Daniel Felipe
dc.subject.lemb.spa.fl_str_mv SISTEMAS AVANZADOS DE ASISTENCIA A LA CONDUCCION (DAS) - DESARROLLO
DETECCION DE OBSTACULOS - TECNOLOGIA MOVIL
APLICACIONES MOVILES - DESARROLLO - ANDROID
SEGURIDAD VIAL - TECNOLOGÍA
topic SISTEMAS AVANZADOS DE ASISTENCIA A LA CONDUCCION (DAS) - DESARROLLO
DETECCION DE OBSTACULOS - TECNOLOGIA MOVIL
APLICACIONES MOVILES - DESARROLLO - ANDROID
SEGURIDAD VIAL - TECNOLOGÍA
ADAS
inteligencia artificial
vision por computadora
asistente de conduccion
android
driving assistant android
ADA
artificial intelligence
computer vision
dc.subject.proposal.spa.fl_str_mv ADAS
inteligencia artificial
vision por computadora
asistente de conduccion
android
driving assistant android
dc.subject.proposal.eng.fl_str_mv ADA
artificial intelligence
computer vision
description La integración de sistemas autónomos en nuestra vida cotidiana es una realidad cada vez más palpable. A medida que avanzamos en la era digital, las soluciones inteligentes para mejorar la seguridad y eficiencia se hacen indispensables. Sin embargo, la transición hacia la autonomía total presenta desafíos significativos, especialmente en el contexto de la seguridad vial. Este trabajo de grado aborda estos desafíos mediante el desarrollo de un aplicativo móvil para dispositivos Android, diseñado para detectar obstáculos y mejorar la seguridad de los conductores. Utilizando tecnologías avanzadas de procesamiento de imágenes y modelos de detección de objetos, este aplicativo ofrece alertas tempranas que permiten a los conductores tomar decisiones informadas y prevenir accidentes. Este proyecto no solo explora la funcionalidad de los aplicativos móviles como herramientas de asistencia al conductor, sino que también contribuye al desarrollo de tecnologías de inteligencia artificial adaptadas a dispositivos con capacidades de procesamiento limitadas. Se presenta como una solución crucial para hacer nuestras carreteras más seguras y responder a las demandas de una sociedad en constante evolución.
publishDate 2024
dc.date.issued.none.fl_str_mv 2024-04-22
dc.date.accessioned.none.fl_str_mv 2025-04-01T14:23:32Z
dc.date.available.none.fl_str_mv 2025-04-01T14:23:32Z
dc.type.local.spa.fl_str_mv Tesis/Trabajo de grado - Monografía - Pregrado
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/10654/47159
dc.identifier.instname.spa.fl_str_mv instname:Universidad Militar Nueva Granada
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad Militar Nueva Granada
dc.identifier.repourl.none.fl_str_mv repourl:https://repository.umng.edu.co
url https://hdl.handle.net/10654/47159
identifier_str_mv instname:Universidad Militar Nueva Granada
reponame:Repositorio Institucional Universidad Militar Nueva Granada
repourl:https://repository.umng.edu.co
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.spa.fl_str_mv AIT. (2023, June). lane_val_v6 Dataset. Roboflow. https://universe.roboflow.com/ait-4tkd5/lane_val_v6
API CONABIO ML. (2019). Cálculo de la Precisión Promedio y mAP. HackMD. https://hackmd.io/@api-conabio-ml/SyuWOKESU
ARCGIS. (2020). Cómo funciona Calcular precisión para la detección de objetos. ARCGIS. https://pro.arcgis.com/es/pro-app/latest/tool-reference/image-analyst/how-compute-accuracy-for-object-de tection-works.htm
Carlos Roberto Díaz. (2013). Modelado, simulación y control de un robot móvil tipo tracción diferencial.
Chaparro, J., & Mosquera, N. (2020). DETECCIÓN AUTOMÁTICA DE GESTOS DE CONDUCTORES COMO PARTE DEUNSISTEMAAVANZADODEASISTENCIAALCONDUCTORADAS.
Coleto, E. T., Rodríguez, J., Carlos, V., Pascual, S., & Cervera, C. (2020). Métodos de aprendizaje profundo para la segmentación semántica de personas Pascual Campoy Cervera COTUTORES DEL TRABAJO FIN DEGRADO.
David Plaza. (2012). Seguridad activa y pasiva: diferencias y elementos que la conforman. Motor.Es. https://www.motor.es/que-es/seguridad-activa-pasiva.
DGT. (2022). Las ADAS obligatorias desde julio 2022, una https://revista-org2.dgt.es/es/motor/tecnologia-seguridad/2021/0518-Landing-ADAS.shtml.
DGT. (2023). Sistemas avanzados de ayuda a la conducción a una. (ADAS). https://www.dgt.es/muevete-con-seguridad/conviertete-en-un-buen-conductor/Sistemas-avanzados-de-ayu da-a-la-conduccion-ADAS-/.
Ducati. (2021). Multistrada V4 S Recibe la Certificación de Radar en Norteamérica. Ducati. https://www.ducati.com/mx/es/noticias/multistrada-v4-s-recibe-la-certificacion-de-radar-en-norteamerica# 78 :~:text=Sunnyvale%2C%20Calif.%2C%201%20de,en%20una%20motocicleta%20de%20producci%C3% B3n.
Geniolandia. (2024). ¿Qué tan rápido es el parpadeo https://www.geniolandia.com/13158314/que-tan-rapido-es-el-parpadeo-de-un-ojo.
Geniolandia. (2024). ¿Qué tan rápido es el parpadeo https://www.geniolandia.com/13158314/que-tan-rapido-es-el-parpadeo-de-un-ojo.
Google Developers. (2022). Machine Learning, Classification: de Precision un and ojo?. Recall. https://developers.google.com/machine-learning/crash-course/classification/precision-and-recall?hl=en Google for Developers. (n.d.). ML KIT. ML KIT. Retrieved December 28, 2023, from https://developers.google.com/ml-kit?hl=es-419.
Hossain, M. S., Betts, J. M., & Paplinski, A. P. (2021). Dual Focal Loss to address class imbalance in semantic segmentation. Neurocomputing, 462, 69–87. https://doi.org/10.1016/j.neucom.2021.07.055.
Howard, A., Sandler, M., Chu, G., Chen, L.-C., Chen, B., Tan, M., Wang, W., Zhu, Y., Pang, R., Vasudevan, V., Le, Q. V., & Adam, H. (2019). Searching for MobileNetV3. http://arxiv.org/abs/1905.02244.
ICHI.PRO. (2020). Probabilidad de detección precisa: una métrica alternativa para la detección de objetos. ICHI.PRO.
IMF. (2021). ¿Qué es la matriz de confusión y cómo interpretarla? IMF Blog de Tecnologia. https://blogs.imf-formacion.com/blog/tecnologia/matriz-confusion-como-interpretarla-202106/.
Isahit. (2022, November 5). What is Intersection over Union in object detection? Isahit . https://www.isahit.com/blog/what-is-intersection-over-union-in-object-detection#:~:text=In%20object%20 detection%2CIntersection%20of,Its%20symbol%20is%20%24IoU%24.
Jonathan Hui. (2018, March 6). mAP (mean Average Precision) for Object Detection. Medium. https://jonathan-hui.medium.com/map-mean-average-precision-for-object-detection-45c121a31173.
JOSE CARLOS LUQUE. (2020). Un asistente de conducción para moto? SÍ, ya es una realidad. Car and Driver. https://www.caranddriver.com/es/estilo-de-vida/a34714364/asistente-conduccion-moto-ride-vision/.
Lin, T.-Y., Maire, M., Belongie, S., Bourdev, L., Girshick, R., Hays, J., Perona, P., Ramanan, D., Zitnick, C. L., &Dolí, P. (2015). Microsoft COCO: Common Objects in Context. https://cocodataset.org/#home
Manuel Santos. (2018, April 7). FLOPS: qué son las operaciones de coma flotante y por qué importan en tu tarjeta gráfica. Hardzone. https://hardzone.es/2018/04/07/operaciones-en-coma-flotante-flops/
Martinez Heras, J. (2023). IArtificial.net. https://www.iartificial.net
Motodinamia. (2021). Ride Vision: cómo funciona el sistema para evitar choques. https://motodinamia.com/ride-vision-como-funciona-el-sistema-para-evitar-choques-video/.
Paloma Recuerdo de los Santos. (2021, December 13). Cómo interpretar la matriz de confusión: ejemplo práctico. Telefónica https://telefonicatech.com/blog/como-interpretar-la-matriz-de-confusion-ejemplo-practico
PALOMA RECUERO DE LOS SANTOS. (2022, January 24). Datos de entrenamiento vs datos de test. Telefonicatech. https://telefonicatech.com/blog/datos-entrenamiento-vs-datos-de-test.
PyTorch. (n.d.). PyTorch Mobile. https://pytorch.org/mobile/home/
Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. http://arxiv.org/abs/1506.01497.
Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. http://arxiv.org/abs/1506.01497
(Semana), M. G. (2022). Las alarmantes cifras de accidentalidad de motos en Colombia. https://www.semana.com/enfoque/articulo/las-alarmantes-cifras-de-accidentalidad-de-motos-en-colombia/ 202253/
Tan, M., Pang, R., & Le, Q. V. (2019). EfficientDet: Scalable and Efficient Object Detection. http://arxiv.org/abs/1911.09070
TensorFlow. (n.d.). TensorFlow Lite. TensorFlow . Retrieved December 28, 2023, from https://www.tensorflow.org/lite?hl=es-419
Terven, J., & Cordova-Esparza, D. (2023). A Comprehensive Review of YOLO: From YOLOv1 and Beyond. http://arxiv.org/abs/2304.00501
Tesla. (n.d.). Autopilot and Full Self-Driving Capability. Retrieved January 4, 2024, from https://www.tesla.com/support/autopilot
The MIT License. (2023). Open Source Initiative. https://opensource.org/license/mit/
Ultralytics. (2023a). COCO- Ultralytics YOLOv8 Docs. https://docs.ultralytics.com/datasets/detect/coco/
Ultralytics. (2023b). NEW- YOLOv8. GitHub . https://github.com/ultralytics/ultralytics
Vargas Fajardo, J. V., & Barrera Campo, J. F. (2021). Sistema Háptico de Detección de Obstáculos para Invidentes. 2021 22nd Symposium on Image, Signal Processing and Artificial Vision, STSIVA 2021 Conference Proceedings. https://doi.org/10.1109/STSIVA53688.2021.9592020
Víctor Alonso. (2023, June 4). Licencia MIT: Propósito, comparativas y características. https://sistemasoperativos.info/software-libre/licencia-mit/#google_vignette
Nandavar, S., Kaye, S. A., Senserrick, T., & Oviedo-Trespalacios, O. (2023). Exploring the factors influencing acquisition and learning experiences of cars fitted with advanced driver assistance systems (ADAS). Transportation 81 Research Part F: Traffic Psychology and Behaviour, 94, 341–352. https://doi.org/10.1016/J.TRF.2023.02.006
Pérez-Sala, L., Curado, M., Tortosa, L., & Vicent, J. F. (2023). Deep learning model of convolutional neural networks powered by a genetic algorithm for prevention of traffic accidents severity. Chaos, Solitons & Fractals, 169, 113245. https://doi.org/10.1016/J.CHAOS.2023.113245
Ping, P., Huang, C., Ding, W., Liu, Y., Chiyomi, M., & Kazuya, T. (2023). Distracted driving detection based on the fusion of deep learning and causal reasoning. Information Fusion, 89, 121–142. https://doi.org/10.1016/J.INFFUS.2022.08.009
Raouf, I., Khan, A., Khalid, S., Sohail, M., Azad, M. M., & Kim, H. S. (2022). Sensor-Based Prognostic Health Management of Advanced Driver Assistance System for Autonomous Vehicles: A Recent Survey. Mathematics 2022, Vol. 10, Page 3233, 10(18), 3233. https://doi.org/10.3390/MATH10183233
Waykole, S., Shiwakoti, N., & Stasinopoulos, P. (2021). Review on Lane Detection and Tracking Algorithms of Advanced Driver Assistance System. Sustainability 2021, Vol. 13, Page 11417, 13(20), 11417. https://doi.org/10.3390/SU132011417
Wood, J. M., Henry, E., Kaye, S.-A., Black, A. A., Glaser, S., Anstey, K. J., & Rakotonirainy, A. (2024). Exploring perceptions of Advanced Driver Assistance Systems (ADAS) in older drivers with age-related declines. Transportation Research Part F: Psychology and Behaviour, 100, 1369–8478. https://doi.org/10.1016/j.trf.2023.12.006
Zhao, T., Guo, P., & Wei, Y. (2024). Road friction estimation based on vision for safe autonomous driving. Mechanical Systems and Signal Processing, 208, 111019. https://doi.org/10.1016/J.YMSSP.2023.111019
Zhao, W., Gong, S., Zhao, D., Liu, F., Sze, N. N., Quddus, M., & Huang, H. (2024). Developing a new integrated advanced driver assistance system in a connected vehicle environment. Expert Systems with Applications, 238, 121733. https://doi.org/10.1016/J.ESWA.2023.121733
Zhou, Y., & Zeng, X. (2024). Towards comprehensive understanding of pedestrians for autonomous driving: Efficient multi-task-learning-based pedestrian detection, tracking and attribute recognition. Robotics and Autonomous Systems, 171, 104580. https://doi.org/10.1016/J.ROBOT.2023.104580
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.creativecommons.*.fl_str_mv Attribution-NonCommercial-NoDerivatives 4.0 International
dc.rights.local.spa.fl_str_mv Acceso abierto
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
Attribution-NonCommercial-NoDerivatives 4.0 International
Acceso abierto
http://purl.org/coar/access_right/c_abf2
eu_rights_str_mv openAccess
dc.format.mimetype.spa.fl_str_mv applicaction/pdf
dc.coverage.sede.spa.fl_str_mv Campus UMNG
dc.publisher.program.spa.fl_str_mv Ingeniería en Mecatrónica
dc.publisher.faculty.spa.fl_str_mv Facultad de Ingeniería
dc.publisher.grantor.spa.fl_str_mv Universidad Militar Nueva Granada
institution Universidad Militar Nueva Granada
bitstream.url.fl_str_mv https://repository.umng.edu.co/bitstreams/3c8dc4a3-9c20-42ac-a515-88c60b76c99a/download
https://repository.umng.edu.co/bitstreams/b08fd4a5-99e3-4645-95ae-2a667fa620b3/download
https://repository.umng.edu.co/bitstreams/7974a8b1-1bb3-4c25-811d-5fd70725e83f/download
bitstream.checksum.fl_str_mv b3e606e000be9787b769ec300b60127b
a609d7e369577f685ce98c66b903b91b
855a78762cf562446f882ad11c1cd953
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional UMNG
repository.mail.fl_str_mv bibliodigital@unimilitar.edu.co
_version_ 1851052848855384064
spelling Rojas, DiegoGuerra Jiménez, Carlos AndrésZarate Bello, Daniel FelipeIngeniero en Mecatrónica2025-04-01T14:23:32Z2025-04-01T14:23:32Z2024-04-22https://hdl.handle.net/10654/47159instname:Universidad Militar Nueva Granadareponame:Repositorio Institucional Universidad Militar Nueva Granadarepourl:https://repository.umng.edu.coLa integración de sistemas autónomos en nuestra vida cotidiana es una realidad cada vez más palpable. A medida que avanzamos en la era digital, las soluciones inteligentes para mejorar la seguridad y eficiencia se hacen indispensables. Sin embargo, la transición hacia la autonomía total presenta desafíos significativos, especialmente en el contexto de la seguridad vial. Este trabajo de grado aborda estos desafíos mediante el desarrollo de un aplicativo móvil para dispositivos Android, diseñado para detectar obstáculos y mejorar la seguridad de los conductores. Utilizando tecnologías avanzadas de procesamiento de imágenes y modelos de detección de objetos, este aplicativo ofrece alertas tempranas que permiten a los conductores tomar decisiones informadas y prevenir accidentes. Este proyecto no solo explora la funcionalidad de los aplicativos móviles como herramientas de asistencia al conductor, sino que también contribuye al desarrollo de tecnologías de inteligencia artificial adaptadas a dispositivos con capacidades de procesamiento limitadas. Se presenta como una solución crucial para hacer nuestras carreteras más seguras y responder a las demandas de una sociedad en constante evolución.The integration of autonomous systems into our daily lives is increasingly evident. As we progress in the digital age, smart solutions to enhance safety and efficiency become essential. However, transitioning to full autonomy presents significant challenges, especially in the context of road safety. This thesis addresses these challenges by developing a mobile application for Android devices, designed to detect obstacles and improve driver safety. Using advanced image processing technologies and object detection models, this app provides early alerts, enabling drivers to make informed decisions and prevent accidents. This project not only explores the functionality of mobile apps as driver assistance tools but also contributes to the development of AI technologies tailored for devices with limited processing capabilities. It stands as a crucial solution to make our roads safer and meet the demands of an ever-evolving society.TABLADECONTENIDO INTRODUCCIÓN....................................................................................................................4 EstadodelArte.........................................................................................................................5 Justificación..............................................................................................................................9 Objetivos.................................................................................................................................10 ObjetivoGeneral:...............................................................................................................10 ObjetivosEspecíficos:........................................................................................................10 MarcoTeórico.........................................................................................................................11 ADAS:................................................................................................................................11 DeteccióndeObstáculos:...................................................................................................12 MarcoConceptual..................................................................................................................13 Matrizdeconfusión:...........................................................................................................13 ●Precisión:...................................................................................................................14 ●Recall:.......................................................................................................................14 IntersecciónsobreUnión(IoU):.........................................................................................15 PrecisiónPromedio(AP):...................................................................................................15 PrecisiónPromedioPromedio(mAP):...............................................................................16 RecuperaciónPromedioPromedio(mAR):.......................................................................17 FLOPs:...............................................................................................................................17 DatasetCOCO:...................................................................................................................17 LicenciadeSoftware:.........................................................................................................18 Sprint1.Análisis:...................................................................................................................19 Modelos:.............................................................................................................................20 EfficientDet:.................................................................................................................20 MobileNet:...................................................................................................................21 FasterR-CNN:..............................................................................................................22 YOLO:..........................................................................................................................24 Comparaciónentremodelos:..............................................................................................26 ModelosdedeteccióndeobjetosYOLO:..........................................................................30 ModelosdesegmentacióndeobjetosYOLO:....................................................................31 Sprint2.ImplementaciónyDesarrollo................................................................................33 Dataset:...............................................................................................................................33 Entrenamiento:...................................................................................................................36 BoxLoss:......................................................................................................................37 SegmentationLoss:......................................................................................................38 ClassificationLoss:......................................................................................................39 Precisión(B)-(M):......................................................................................................40 Recall(B)-(M):...........................................................................................................41 3 PrecisiónpromediopromediomAP50:........................................................................42 Exportación:.......................................................................................................................44 TensorFlow:..................................................................................................................44 PyTorch:.......................................................................................................................45 Keras:...........................................................................................................................46 Implementación:.................................................................................................................47 Sprint3.Pruebas:...................................................................................................................51 Sprint4.Integración:.............................................................................................................55 Sprint5.Evaluación:..............................................................................................................57 RobotDiferencial:..............................................................................................................57 Integración:.........................................................................................................................59 RESULTADOS.......................................................................................................................60 CONCLUSIONES..................................................................................................................64 REFERENCIAS.....................................................................................................................6Pregradoapplicaction/pdfspahttp://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessAttribution-NonCommercial-NoDerivatives 4.0 InternationalAcceso abiertohttp://purl.org/coar/access_right/c_abf2Desarrollo de una DAS orientado a conductores, con detección de obstáculos mediante aplicativo móvil AndroidDevelopment of a driver-oriented form, with obstacle detection using roidmobile applicationSISTEMAS AVANZADOS DE ASISTENCIA A LA CONDUCCION (DAS) - DESARROLLODETECCION DE OBSTACULOS - TECNOLOGIA MOVILAPLICACIONES MOVILES - DESARROLLO - ANDROIDSEGURIDAD VIAL - TECNOLOGÍAADASinteligencia artificialvision por computadoraasistente de conduccionandroiddriving assistant androidADAartificial intelligencecomputer visionTesis/Trabajo de grado - Monografía - Pregradoinfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fIngeniería en MecatrónicaFacultad de IngenieríaUniversidad Militar Nueva GranadaAIT. (2023, June). lane_val_v6 Dataset. Roboflow. https://universe.roboflow.com/ait-4tkd5/lane_val_v6API CONABIO ML. (2019). Cálculo de la Precisión Promedio y mAP. HackMD. https://hackmd.io/@api-conabio-ml/SyuWOKESUARCGIS. (2020). Cómo funciona Calcular precisión para la detección de objetos. ARCGIS. https://pro.arcgis.com/es/pro-app/latest/tool-reference/image-analyst/how-compute-accuracy-for-object-de tection-works.htmCarlos Roberto Díaz. (2013). Modelado, simulación y control de un robot móvil tipo tracción diferencial.Chaparro, J., & Mosquera, N. (2020). DETECCIÓN AUTOMÁTICA DE GESTOS DE CONDUCTORES COMO PARTE DEUNSISTEMAAVANZADODEASISTENCIAALCONDUCTORADAS.Coleto, E. T., Rodríguez, J., Carlos, V., Pascual, S., & Cervera, C. (2020). Métodos de aprendizaje profundo para la segmentación semántica de personas Pascual Campoy Cervera COTUTORES DEL TRABAJO FIN DEGRADO.David Plaza. (2012). Seguridad activa y pasiva: diferencias y elementos que la conforman. Motor.Es. https://www.motor.es/que-es/seguridad-activa-pasiva.DGT. (2022). Las ADAS obligatorias desde julio 2022, una https://revista-org2.dgt.es/es/motor/tecnologia-seguridad/2021/0518-Landing-ADAS.shtml.DGT. (2023). Sistemas avanzados de ayuda a la conducción a una. (ADAS). https://www.dgt.es/muevete-con-seguridad/conviertete-en-un-buen-conductor/Sistemas-avanzados-de-ayu da-a-la-conduccion-ADAS-/.Ducati. (2021). Multistrada V4 S Recibe la Certificación de Radar en Norteamérica. Ducati. https://www.ducati.com/mx/es/noticias/multistrada-v4-s-recibe-la-certificacion-de-radar-en-norteamerica# 78 :~:text=Sunnyvale%2C%20Calif.%2C%201%20de,en%20una%20motocicleta%20de%20producci%C3% B3n.Geniolandia. (2024). ¿Qué tan rápido es el parpadeo https://www.geniolandia.com/13158314/que-tan-rapido-es-el-parpadeo-de-un-ojo.Geniolandia. (2024). ¿Qué tan rápido es el parpadeo https://www.geniolandia.com/13158314/que-tan-rapido-es-el-parpadeo-de-un-ojo.Google Developers. (2022). Machine Learning, Classification: de Precision un and ojo?. Recall. https://developers.google.com/machine-learning/crash-course/classification/precision-and-recall?hl=en Google for Developers. (n.d.). ML KIT. ML KIT. Retrieved December 28, 2023, from https://developers.google.com/ml-kit?hl=es-419.Hossain, M. S., Betts, J. M., & Paplinski, A. P. (2021). Dual Focal Loss to address class imbalance in semantic segmentation. Neurocomputing, 462, 69–87. https://doi.org/10.1016/j.neucom.2021.07.055.Howard, A., Sandler, M., Chu, G., Chen, L.-C., Chen, B., Tan, M., Wang, W., Zhu, Y., Pang, R., Vasudevan, V., Le, Q. V., & Adam, H. (2019). Searching for MobileNetV3. http://arxiv.org/abs/1905.02244.ICHI.PRO. (2020). Probabilidad de detección precisa: una métrica alternativa para la detección de objetos. ICHI.PRO.IMF. (2021). ¿Qué es la matriz de confusión y cómo interpretarla? IMF Blog de Tecnologia. https://blogs.imf-formacion.com/blog/tecnologia/matriz-confusion-como-interpretarla-202106/.Isahit. (2022, November 5). What is Intersection over Union in object detection? Isahit . https://www.isahit.com/blog/what-is-intersection-over-union-in-object-detection#:~:text=In%20object%20 detection%2CIntersection%20of,Its%20symbol%20is%20%24IoU%24.Jonathan Hui. (2018, March 6). mAP (mean Average Precision) for Object Detection. Medium. https://jonathan-hui.medium.com/map-mean-average-precision-for-object-detection-45c121a31173.JOSE CARLOS LUQUE. (2020). Un asistente de conducción para moto? SÍ, ya es una realidad. Car and Driver. https://www.caranddriver.com/es/estilo-de-vida/a34714364/asistente-conduccion-moto-ride-vision/.Lin, T.-Y., Maire, M., Belongie, S., Bourdev, L., Girshick, R., Hays, J., Perona, P., Ramanan, D., Zitnick, C. L., &Dolí, P. (2015). Microsoft COCO: Common Objects in Context. https://cocodataset.org/#homeManuel Santos. (2018, April 7). FLOPS: qué son las operaciones de coma flotante y por qué importan en tu tarjeta gráfica. Hardzone. https://hardzone.es/2018/04/07/operaciones-en-coma-flotante-flops/Martinez Heras, J. (2023). IArtificial.net. https://www.iartificial.netMotodinamia. (2021). Ride Vision: cómo funciona el sistema para evitar choques. https://motodinamia.com/ride-vision-como-funciona-el-sistema-para-evitar-choques-video/.Paloma Recuerdo de los Santos. (2021, December 13). Cómo interpretar la matriz de confusión: ejemplo práctico. Telefónica https://telefonicatech.com/blog/como-interpretar-la-matriz-de-confusion-ejemplo-practicoPALOMA RECUERO DE LOS SANTOS. (2022, January 24). Datos de entrenamiento vs datos de test. Telefonicatech. https://telefonicatech.com/blog/datos-entrenamiento-vs-datos-de-test.PyTorch. (n.d.). PyTorch Mobile. https://pytorch.org/mobile/home/Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. http://arxiv.org/abs/1506.01497.Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. http://arxiv.org/abs/1506.01497(Semana), M. G. (2022). Las alarmantes cifras de accidentalidad de motos en Colombia. https://www.semana.com/enfoque/articulo/las-alarmantes-cifras-de-accidentalidad-de-motos-en-colombia/ 202253/Tan, M., Pang, R., & Le, Q. V. (2019). EfficientDet: Scalable and Efficient Object Detection. http://arxiv.org/abs/1911.09070TensorFlow. (n.d.). TensorFlow Lite. TensorFlow . Retrieved December 28, 2023, from https://www.tensorflow.org/lite?hl=es-419Terven, J., & Cordova-Esparza, D. (2023). A Comprehensive Review of YOLO: From YOLOv1 and Beyond. http://arxiv.org/abs/2304.00501Tesla. (n.d.). Autopilot and Full Self-Driving Capability. Retrieved January 4, 2024, from https://www.tesla.com/support/autopilotThe MIT License. (2023). Open Source Initiative. https://opensource.org/license/mit/Ultralytics. (2023a). COCO- Ultralytics YOLOv8 Docs. https://docs.ultralytics.com/datasets/detect/coco/Ultralytics. (2023b). NEW- YOLOv8. GitHub . https://github.com/ultralytics/ultralyticsVargas Fajardo, J. V., & Barrera Campo, J. F. (2021). Sistema Háptico de Detección de Obstáculos para Invidentes. 2021 22nd Symposium on Image, Signal Processing and Artificial Vision, STSIVA 2021 Conference Proceedings. https://doi.org/10.1109/STSIVA53688.2021.9592020Víctor Alonso. (2023, June 4). Licencia MIT: Propósito, comparativas y características. https://sistemasoperativos.info/software-libre/licencia-mit/#google_vignetteNandavar, S., Kaye, S. A., Senserrick, T., & Oviedo-Trespalacios, O. (2023). Exploring the factors influencing acquisition and learning experiences of cars fitted with advanced driver assistance systems (ADAS). Transportation 81 Research Part F: Traffic Psychology and Behaviour, 94, 341–352. https://doi.org/10.1016/J.TRF.2023.02.006Pérez-Sala, L., Curado, M., Tortosa, L., & Vicent, J. F. (2023). Deep learning model of convolutional neural networks powered by a genetic algorithm for prevention of traffic accidents severity. Chaos, Solitons & Fractals, 169, 113245. https://doi.org/10.1016/J.CHAOS.2023.113245Ping, P., Huang, C., Ding, W., Liu, Y., Chiyomi, M., & Kazuya, T. (2023). Distracted driving detection based on the fusion of deep learning and causal reasoning. Information Fusion, 89, 121–142. https://doi.org/10.1016/J.INFFUS.2022.08.009Raouf, I., Khan, A., Khalid, S., Sohail, M., Azad, M. M., & Kim, H. S. (2022). Sensor-Based Prognostic Health Management of Advanced Driver Assistance System for Autonomous Vehicles: A Recent Survey. Mathematics 2022, Vol. 10, Page 3233, 10(18), 3233. https://doi.org/10.3390/MATH10183233Waykole, S., Shiwakoti, N., & Stasinopoulos, P. (2021). Review on Lane Detection and Tracking Algorithms of Advanced Driver Assistance System. Sustainability 2021, Vol. 13, Page 11417, 13(20), 11417. https://doi.org/10.3390/SU132011417Wood, J. M., Henry, E., Kaye, S.-A., Black, A. A., Glaser, S., Anstey, K. J., & Rakotonirainy, A. (2024). Exploring perceptions of Advanced Driver Assistance Systems (ADAS) in older drivers with age-related declines. Transportation Research Part F: Psychology and Behaviour, 100, 1369–8478. https://doi.org/10.1016/j.trf.2023.12.006Zhao, T., Guo, P., & Wei, Y. (2024). Road friction estimation based on vision for safe autonomous driving. Mechanical Systems and Signal Processing, 208, 111019. https://doi.org/10.1016/J.YMSSP.2023.111019Zhao, W., Gong, S., Zhao, D., Liu, F., Sze, N. N., Quddus, M., & Huang, H. (2024). Developing a new integrated advanced driver assistance system in a connected vehicle environment. Expert Systems with Applications, 238, 121733. https://doi.org/10.1016/J.ESWA.2023.121733Zhou, Y., & Zeng, X. (2024). Towards comprehensive understanding of pedestrians for autonomous driving: Efficient multi-task-learning-based pedestrian detection, tracking and attribute recognition. Robotics and Autonomous Systems, 171, 104580. https://doi.org/10.1016/J.ROBOT.2023.104580Campus UMNGORIGINALguerrajimenezcarlosandres2024.pdfguerrajimenezcarlosandres2024.pdfTrabajo de gradoapplication/pdf26064648https://repository.umng.edu.co/bitstreams/3c8dc4a3-9c20-42ac-a515-88c60b76c99a/downloadb3e606e000be9787b769ec300b60127bMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-83420https://repository.umng.edu.co/bitstreams/b08fd4a5-99e3-4645-95ae-2a667fa620b3/downloada609d7e369577f685ce98c66b903b91bMD52THUMBNAILguerrajimenezcarlosandres2024.pdf.jpgguerrajimenezcarlosandres2024.pdf.jpgIM Thumbnailimage/jpeg8372https://repository.umng.edu.co/bitstreams/7974a8b1-1bb3-4c25-811d-5fd70725e83f/download855a78762cf562446f882ad11c1cd953MD5310654/47159oai:repository.umng.edu.co:10654/471592025-04-02 03:02:24.789http://creativecommons.org/licenses/by-nc-nd/4.0/open.accesshttps://repository.umng.edu.coRepositorio Institucional UMNGbibliodigital@unimilitar.edu.coRWwgYXV0b3IgZGUgbGEgb2JyYSAodGVzaXMsIG1vbm9ncmFmw61hLCB0cmFiYWpvIGRlIGdyYWRvIG8gY3VhbHF1aWVyIG90cm8gZG9jdW1lbnRvCmNvbiBjYXLDoWN0ZXIgYWNhZMOpbWljbyksIGFjdHVhbmRvIGVuIG5vbWJyZSBwcm9waW8sIGhhY2UgZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2bwp5IGRlIHN1cyBhbmV4b3MgZW4gZm9ybWF0byBkaWdpdGFsIG8gZWxlY3Ryw7NuaWNvLgoKRUwgRVNUVURJQU5URSAtIEFVVE9SLCBtYW5pZmllc3RhIHF1ZSBsYSBvYnJhIG9iamV0byBkZSBsYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuCmVzIG9yaWdpbmFsIHkgbGEgcmVhbGl6w7Mgc2luIHZpb2xhciBvIHVzdXJwYXIgZGVyZWNob3MgZGUgYXV0b3IgZGUgdGVyY2Vyb3MsIHBvcgpsbyB0YW50bywgbGEgb2JyYSBlcyBkZSBleGNsdXNpdmEgYXV0b3LDrWEgeSB0aWVuZSBsYSB0aXR1bGFyaWRhZCBzb2JyZSBsYSBtaXNtYS4KCkVuIGNhc28gZGUgcHJlc2VudGFyc2UgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBvIGFjY2nDs24gcG9yIHBhcnRlIGRlIHVuIHRlcmNlcm8gZW4KY3VhbnRvIGEgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNvYnJlIGxhIG9icmEgZW4gY3Vlc3Rpw7NuLCBFTCBFU1RVRElBTlRFIC0gQVVUT1IsCmFzdW1pcsOhIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkLCB5IHNhbGRyw6EgZW4gZGVmZW5zYSBkZSBsb3MgZGVyZWNob3MgYXF1w60gYXV0b3JpemFkb3M7CnBhcmEgdG9kb3MgbG9zIGVmZWN0b3MgbGEgdW5pdmVyc2lkYWQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCkFkZW3DoXMsICJMQSBVTklWRVJTSURBRCBNSUxJVEFSIE5VRVZBIEdSQU5BREEgY29tbyBpbnN0aXR1Y2nDs24gcXVlIGFsbWFjZW5hLCB5CnJlY29sZWN0YSBkYXRvcyBwZXJzb25hbGVzLCBhdGVuZGllbmRvIGxvIHByZWNlcHR1YWRvIGVuIGxhIGxleSAxNTgxIGRlIDIwMTIgeSBlbApEZWNyZXRvIDEzNzcgZGUgMjAxMywgcXVlIGRlc2Fycm9sbGFuIGVsIHByaW5jaXBpbyBjb25zdGl0dWNpb25hbCBxdWUgdGllbmVuIHRvZGFzCmxhcyBwZXJzb25hcyBhIGNvbm9jZXIsIGFjdHVhbGl6YXIgeSByZWN0aWZpY2FyIHRvZG8gdGlwbyBkZSBpbmZvcm1hY2nDs24gcmVjb2dpZGEKbywgcXVlIGhheWEgc2lkbyBvYmpldG8gZGUgdHJhdGFtaWVudG8gZGUgZGF0b3MgcGVyc29uYWxlcyBlbiBiYW5jb3MgbyBiYXNlcyBkZQpkYXRvcyB5IGVuIGdlbmVyYWwgZW4gYXJjaGl2b3MgZGUgZW50aWRhZGVzIHDDumJsaWNhcyBvIHByaXZhZGFzLCByZXF1aWVyZSBvYnRlbmVyCnN1IGF1dG9yaXphY2nDs24sIHBhcmEgcXVlLCBkZSBtYW5lcmEgbGlicmUsIHByZXZpYSwgZXhwcmVzYSwgdm9sdW50YXJpYSwgeQpkZWJpZGFtZW50ZSBpbmZvcm1hZGEsIHBlcm1pdGEgYSB0b2RhcyBudWVzdHJhcyBkZXBlbmRlbmNpYXMgYWNhZMOpbWljYXMgeQphZG1pbmlzdHJhdGl2YXMsIHJlY29sZWN0YXIsIHJlY2F1ZGFyLCBhbG1hY2VuYXIsIHVzYXIsIGNpcmN1bGFyLCBzdXByaW1pciwgcHJvY2VzYXIsCmNvbXBpbGFyLCBpbnRlcmNhbWJpYXIsIGRhciB0cmF0YW1pZW50bywgYWN0dWFsaXphciB5IGRpc3BvbmVyIGRlIGxvcyBkYXRvcyBxdWUKaGFuIHNpZG8gc3VtaW5pc3RyYWRvcyB5IHF1ZSBzZSBoYW4gaW5jb3Jwb3JhZG8gZW4gbnVlc3RyYXMgYmFzZXMgbyBiYW5jb3MgZGUKZGF0b3MsIG8gZW4gcmVwb3NpdG9yaW9zIGVsZWN0csOzbmljb3MgZGUgdG9kbyB0aXBvIGNvbiBxdWUgY3VlbnRhIGxhIFVuaXZlcnNpZGFkLgoKRXN0YSBpbmZvcm1hY2nDs24gZXMgeSBzZXLDoSB1dGlsaXphZGEgZW4gZWwgZGVzYXJyb2xsbyBkZSBsYXMgZnVuY2lvbmVzIHByb3BpYXMgZGUKbGEgVW5pdmVyc2lkYWQgZW4gc3UgY29uZGljacOzbiBkZSBpbnN0aXR1Y2nDs24gZGUgZWR1Y2FjacOzbiBzdXBlcmlvciwgZGUgZm9ybWEKZGlyZWN0YSBvIGEgdHJhdsOpcyBkZSB0ZXJjZXJvcyIuCgpTaSBzdSBkb2N1bWVudG8gZXMgZGUgYWNjZXNvIHJlc3RyaW5naWRvICwgc3UgdHJhYmFqbyBzZSBkZXBvc2l0YXLDoSBlbiBlbApSZXBvc2l0b3JpbyBVTU5HIMO6bmljYW1lbnRlIGNvbiBwcm9ww7NzaXRvcyBkZSBwcmVzZXJ2YWNpw7NuIGRvY3VtZW50YWwgeSBtZW1vcmlhCmluc3RpdHVjaW9uYWwsIGVudGVuZGllbmRvIHF1ZSwgc2Vyw6EgY29uc3VsdGFkbyBkZSBmb3JtYSBjb250cm9sYWRhIHNvbGFtZW50ZSBwb3IKbGEgY29tdW5pZGFkIE5lb2dyYW5hZGluYS4KClNpIHN1IGRvY3VtZW50byBlcyBkZSBhY2Nlc28gYWJpZXJ0bywgcGFyYSBwZXJtaXRpciBhbCBSZXBvc2l0b3JpbyBVTU5HIHJlcHJvZHVjaXIsCnRyYWR1Y2lyIHkgZGlzdHJpYnVpciBzdSBlbnbDrW8gYSB0cmF2w6lzIGRlbCBtdW5kbywgbmVjZXNpdGFtb3Mgc3UgY29uZm9ybWlkYWQgZW4KbG9zIHNpZ3VpZW50ZXMgdMOpcm1pbm9zOgoKWSBhdXRvcml6YSBhIGxhIFVOSVZFUlNJREFEIE1JTElUQVIgTlVFVkEgR1JBTkFEQSwgcGFyYSBxdWUgZW4gbG9zIHTDqXJtaW5vcwplc3RhYmxlY2lkb3MgZW46CgpMZXkgMjMgZGUgMTk4Mi0gTGV5IDQ0IGRlIDE5OTMgLUxleSAxOTE1IGRlIDIwMTggLSBEZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzLQpEZWNyZXRvIDQ2MCBkZSAxOTk1IHkgZGVtw6FzIG5vcm1hcyBnZW5lcmFsZXMgc29icmUgbGEgbWF0ZXJpYSwgdXRpbGljZSB5IHVzZSBwb3IKY3VhbHF1aWVyIG1lZGlvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sCmNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlCmRvY3VtZW50by4KCkxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gc2UgaGFjZSBleHRlbnNpdmEgbm8gc8OzbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlCnVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byB2aXJ0dWFsLAplbGVjdHLDs25pY28sIGRpZ2l0YWwsIHkgY3V5byB1c28gc2UgZGUgZW4gcmVkLCBpbnRlcm5ldCwgZXh0cmFuZXQsIGludHJhbmV0LCBldGMuLAp5IGVuIGdlbmVyYWwgZW4gY3VhbHF1aWVyIGZvcm1hdG8gY29ub2NpZG8gbyBwb3IgY29ub2Nlci4KClNpIHRpZW5lIGFsZ3VuYSBkdWRhIHNvYnJlIGxvcyBUw6lybWlub3MgeSBjb25kaWNpb25lcywgcG9yIGZhdm9yLCBjb250YWN0ZSBjb24gZWwKYWRtaW5pc3RyYWRvciBkZWwgc2lzdGVtYSBiaWJsaW9kaWdpdGFsQHVuaW1pbGl0YXIuZWR1LmNvCgpBY2VwdGUgVMOpcm1pbm9zIHkgY29uZGljaW9uZXMgc2VsZWNjaW9uYW5kbyAiQWNlcHRvIiB5IHB1bHNhbmRvICJDb21wbGV0YXIgZW52w61vIi4K