Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210

En la actualidad, el interés por la inteligencia artificial y aprendizaje automático ha experimentado un notable crecimiento. La detección de objetos se ha vuelto crucial, y su desarrollo eficiente requiere el aprovechamiento de estas tecnologías. En el entorno industrial el desarrollo de productos...

Full description

Autores:
Cangrejo Arias, Cristian
Ovalle Cañón, Juan
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Distrital Francisco José de Caldas
Repositorio:
RIUD: repositorio U. Distrital
Idioma:
spa
OAI Identifier:
oai:repository.udistrital.edu.co:11349/92931
Acceso en línea:
http://hdl.handle.net/11349/92931
Palabra clave:
Adquisición de imágenes
Aprendizaje automático
Detección de objetos
Inteligencia artificial
Redes neuronales
Tecnología en Electrónica -- Tesis y disertaciones académicas
Inteligencia artificial
Aprendizaje automático (Inteligencia artificial)
Control de calidad
Sistemas de control inteligente
Image acquisition
Machine learning
Object detection
Artificial intelligence
Neural networks
Rights
License
Abierto (Texto Completo)
id UDISTRITA2_f5d628df2d6e6eb1a63f4875ceb2996b
oai_identifier_str oai:repository.udistrital.edu.co:11349/92931
network_acronym_str UDISTRITA2
network_name_str RIUD: repositorio U. Distrital
repository_id_str
dc.title.none.fl_str_mv Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
dc.title.titleenglish.none.fl_str_mv Implementation of an Object Detection System Using ESP32-CAM for Quality Control in the FMS-210 Station
title Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
spellingShingle Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
Adquisición de imágenes
Aprendizaje automático
Detección de objetos
Inteligencia artificial
Redes neuronales
Tecnología en Electrónica -- Tesis y disertaciones académicas
Inteligencia artificial
Aprendizaje automático (Inteligencia artificial)
Control de calidad
Sistemas de control inteligente
Image acquisition
Machine learning
Object detection
Artificial intelligence
Neural networks
title_short Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
title_full Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
title_fullStr Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
title_full_unstemmed Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
title_sort Implementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210
dc.creator.fl_str_mv Cangrejo Arias, Cristian
Ovalle Cañón, Juan
dc.contributor.advisor.none.fl_str_mv Montiel Ariza, Holman
dc.contributor.author.none.fl_str_mv Cangrejo Arias, Cristian
Ovalle Cañón, Juan
dc.contributor.orcid.none.fl_str_mv Montiel Ariza, Holman [0000-0002-6077-3510]
dc.subject.none.fl_str_mv Adquisición de imágenes
Aprendizaje automático
Detección de objetos
Inteligencia artificial
Redes neuronales
topic Adquisición de imágenes
Aprendizaje automático
Detección de objetos
Inteligencia artificial
Redes neuronales
Tecnología en Electrónica -- Tesis y disertaciones académicas
Inteligencia artificial
Aprendizaje automático (Inteligencia artificial)
Control de calidad
Sistemas de control inteligente
Image acquisition
Machine learning
Object detection
Artificial intelligence
Neural networks
dc.subject.lemb.none.fl_str_mv Tecnología en Electrónica -- Tesis y disertaciones académicas
Inteligencia artificial
Aprendizaje automático (Inteligencia artificial)
Control de calidad
Sistemas de control inteligente
dc.subject.keyword.none.fl_str_mv Image acquisition
Machine learning
Object detection
Artificial intelligence
Neural networks
description En la actualidad, el interés por la inteligencia artificial y aprendizaje automático ha experimentado un notable crecimiento. La detección de objetos se ha vuelto crucial, y su desarrollo eficiente requiere el aprovechamiento de estas tecnologías. En el entorno industrial el desarrollo de productos de forma automatizada se encuentra en alza para micro y pequeñas empresas, para su desarrollo continuo en cadenas de producción se requiere de un control importante en cuanto a la calidad de los mismos. En la mayoría de empresas pequeñas este último no es indispensable, pues se requiere de tecnologías más sofisticadas y costosas para su implementación, aunque este genere gran impacto en el rendimiento de toda la producción, ya que es a través de esta última etapa que se pueden realizar las correcciones necesarias para una producción eficaz en costo beneficio. Sin embargo, con el uso de algunas herramientas modernas como lo son Google Cloud Visión AI, Labelbox. Simplismart, TensorFlow, Edge Impulse entre otras; el desarrollo de modelos de aprendizaje automático se ha simplificado considerablemente. Lo cual permite ofrecer solución a este tipo de problemática, implementar un sistema de control de calidad para líneas de producción ahora puede resultar accesible a micro y pequeñas empresas. Este proyecto se enfoca en diseñar un modelo de aprendizaje para el microcontrolador ESP32 para el control de calidad en líneas de producción. Se busca evaluar la velocidad de detección y precisión, frente al control de calidad estándar de la estación FMS-210 (control de calidad mediante visión artificial). Por medio de las cuatro etapas establecidas; captura, análisis, segmentación y reconocimiento, se obtiene un modelo para el control de calidad de la pieza, este modelo se exporta en formato de librería para Arduino, en Arduino se desarrolla el código necesario para la captura en tiempo real de la pieza, se realiza el procesamiento de imagen asistido por el modelo, dando como resultado si la pieza está completa o no, además de otros datos como lo es el tiempo que tardó en realizar la detección, si la conexión se realiza correctamente o tamaño aproximado de la pieza. Estos datos se envían desde la ESP32 mediante comunicación serial por bluetooth a la computadora o dispositivo móvil, los cuales se presentan en una interfaz de usuario desarrollada en MIT App Inventor.
publishDate 2024
dc.date.created.none.fl_str_mv 2024-11-19
dc.date.accessioned.none.fl_str_mv 2025-02-25T20:32:29Z
dc.date.available.none.fl_str_mv 2025-02-25T20:32:29Z
dc.type.none.fl_str_mv bachelorThesis
dc.type.degree.none.fl_str_mv Monografía
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/11349/92931
url http://hdl.handle.net/11349/92931
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv G. A. Benites y J. F. Bernal “Diseño de un sistema en entorno 3D para detección de objetos cercanos con una interfaz gráfica 2D”, Universidad Distrital Francisco José de Caldas - Biblioteca UDFJC. 2018. [En línea]. Disponible en: http://hdl.handle.net/11349/7986
T. A. Kadhim, W. Hariri, N. S. Zghal, y D. B. Aissa, “A face recognition application for Alzheimer’s patients using ESP32-CAM and Raspberry Pi”, IEEE Trans. J. Real-Time Image Processing, vol. 20, no 100 2023. [En línea]. Disponible: https://doi.org/10.1007/s11554-023-01357-w
Hahn F, and Valle S, y Rendón R, y Oyorzabal O, y Astudillo A. “Mango Fruit Fly Trap Detection Using Different Wireless Communications”, IEEE Trans. Agronomy. 2023; 13(7) 1736. [En línea]. Disponible en: https://doi.org/10.3390/agronomy13071736
Villegas-Ch. W, Barahona-Espinosa S, Gaibor-Naranjo W y Mera-Navarrete A. “Model for the Detection of Falls with the Use of Artificial Intelligence as an Assistant for the Care of the Elderly”, IEEE Trans. Computation. 2022; 10(11):195.[En línea] Disponible en: https://doi.org/10.3390/computation10110195
J. Peixoto, J. Sousa , R. Carvalho , G. Santos , J.Mendes , R. Cardoso , y A. Reis, “Development of an Analog Gauge Reading Solution Based on Computer Vision and Deep Learning for an IoT Application”, IEEE Trans. Telecom. 3(4):564-580, 2022. [En línea]. Disponible en: https://doi.org/10.3390/telecom3040032
Á. A. Niño, “Modelo de clasificación de imágenes violentas basado en un modelo de detección de objetos,” [online]. Disponible en: http://hdl.handle.net/11349/30586
H. Luan, Q. Fu, Y. Zhang, H. Mu, S. Chen, y S. Yue, “A looming spatial localization neural network inspired by MLG1 neurons in the crab neohelice”, IEEE Trans. Frontiers in Neuroscience, vol. 15, Enero de 2022, [En línea]. Disponible en: https://doi.org/10.3389/fnins.2021.787256
J. D. Azcona, R. Li, E. Mok, S. Hancock, y X. Li, “Development and clinical evaluation of automatic fiducial detection for tumor tracking in cine megavoltage images during volumetric modulated arc therapy”, IEEE Trans. Medical Physics, vol. 40, no. 3, Feb. 2013. [En línea] . Disponible en: http://dx.doi.org/10.1118/1.4791646
K. Wang y Y.-X. Lee, “Measuring defects in high-speed production lines—a three-phase convolutional neural network model”, Measurement Science and Technology, vol. 34, no. 10, p. 105903, Jullio de 2023. [En línea]. Disponible en: doi: http://doi.org/10.1088/1361-6501/ace124
C. Fu, Y. Li, Z. Huang, Y. Sun, y J. Yang, “Online collaboration-based visual tracking for unmanned aerial vehicles with spatial-to-semantic information and multi-recommender voting”, IEEE Trans. International Journal of Remote Sensing, vol. 42, no. 5, pp. 1664–1687, Dic. 2020. [En línea] Disponible en: http://doi.org/10.1080/01431161.2020.1847346
J. S. Diaz y K. D. Riaño “Sistema de visión artificial para la optimización por algoritmo de colonia de hormigas de trayectorias de taladrado de circuitos impresos (PCB) a partir de procesamiento digital de imágenes”, Universidad Distrital Francisco José de Caldas - Biblioteca UDFJC. 2019. [En línea]. Disponible en: http://hdl.handle.net/11349/7986
Nur Rodiatul Raudah Mohamed Radzuan, Haryati Jaafar, Farah Nabilah Zabani, Fatin Norazima Mohamad Ariff y Fatin Nadia Azman Fauzi, “Curvature-Based Active Region Segmentation for Improved Image Processing of Aspergillus Species”, J. Adv. Res. Appl. Sci. Eng. Technol., vol. 46, n.º 1, pp. 157–174, junio de 2024. [En línea]. Disponible: https://doi.org/10.37934/araset.46.1.157174
N. S. Rani et al., “TopoGeoFusion: Integrating Object Topology based Feature Computation Methods into Geometrical Feature Analysis to Enhance Classification Performance”, MethodsX, p. 102859, julio de 2024. [En línea]. Disponible: https://doi.org/10.1016/j.mex.2024.102859
N. Genze, W. K. Vahl, J. Groth, M. Wirth, M. Grieb, y D. G. Grimm, “Manually annotated and curated Dataset of diverse Weed Species in Maize and Sorghum for Computer Vision”, Scientific Data, vol. 11, no. 1, Enero de 2024. [En línea]. Disponible: https://doi.org/10.1038/s41597-024-02945-6
Q. Herve, N. Ipek, J. Verwaeren y T. De Beer, “Automated particle inspection of continuously freeze-dried products using computer vision”, Int. J. Pharmaceutics, p. 124629, agosto de 2024. [En línea]. Disponible: https://doi.org/10.1016/j.ijpharm.2024.124629
D. Estevez, “Detección de objetos en imágenes utilizando técnicas de aprendizaje profundo (Deep-Learning)”, Proyecto de grado, Departamento teoría de la señal y comunicaciones, Escuela Técnica Superior De Ingeniería, 2021.
E. Caballero, “APLICACIÓN PRÁCTICA DE LA VISIÓN ARTIFICIAL PARA EL RECONOCIMIENTO DE ROSTROS EN UNA IMAGEN, UTILIZANDO REDES NEURONALES Y ALGORITMOS DE RECONOCIMIENTO DE OBJETOS DE LA BIBLIOTECA OPENCV,” Especializacion en ingenieria de Software, Universidad Distrital Francisco José de Caldas, 2017.
H.Casas, E. Ahumada, “DISEÑO DE UNA ARQUITECTURA DE SOFTWARE PARA LA DETECCIÓN DE OBJETOS EN UN SISTEMA DE VIGILANCIA, INTEGRADO EN UN ROBOT AUTOBALANCEADO,” Facultad de ingeniería, Universidad Distrital Francisco José de Caldas, 2021.
D. Matich, “Redes neuronales: Conceptos Básicos y Aplicaciones”. Universidad Tecnológica Nacional - Facultad Regional Rosario, Marzo de 2001. https://www.frro.utn.edu.ar/repositorio/catedras/quimica/5_anio/orientadora1/monograias/matich-redesneuronales.pdf
Sandler, M., Howard, A., Zhu, M., Zhmoginov, A., & Chen, “MobileNetV2: Inverted Residuals and Linear Bottlenecks.”, L.-C. (2018). https://arxiv.org/abs/1801.04381
A. vazquez, C. Fernandez, J. Martinez, D. Leon, “Práctica Edge Impulse”, Instituto tecnológico y de estudios superiores de monterrey campus Toluca, 14 de marzo del 2024.
A. Zapeta Hernández, G. A. Galindo Rosales, H. J. Juan Santiago y M. Martínez Lee, “Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales”, Cienc. Lat. Rev. Cient. Multidiscip., vol. 6, n.º 5, pp. 4624–4637, noviembre de 2022. [En línea]. Disponible: https://doi.org/10.37811/cl_rcm.v6i5.3420
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.acceso.none.fl_str_mv Abierto (Texto Completo)
rights_invalid_str_mv Abierto (Texto Completo)
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.none.fl_str_mv pdf
institution Universidad Distrital Francisco José de Caldas
bitstream.url.fl_str_mv https://repository.udistrital.edu.co/bitstreams/a308527b-1bb5-40c8-9dec-87b2edb04337/download
https://repository.udistrital.edu.co/bitstreams/21e20471-bb1b-4e62-a84f-e73d91ea58ec/download
https://repository.udistrital.edu.co/bitstreams/a3d88449-6feb-4ef5-95b7-9fa4b27a244a/download
bitstream.checksum.fl_str_mv 997daf6c648c962d566d7b082dac908d
e6efdaeaff83e4dcd426cf62658e9b33
8507ce32118d5426925ce8f86852400a
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Universidad Distrital
repository.mail.fl_str_mv repositorio@udistrital.edu.co
_version_ 1837007131685945344
spelling Montiel Ariza, HolmanCangrejo Arias, CristianOvalle Cañón, JuanMontiel Ariza, Holman [0000-0002-6077-3510]2025-02-25T20:32:29Z2025-02-25T20:32:29Z2024-11-19http://hdl.handle.net/11349/92931En la actualidad, el interés por la inteligencia artificial y aprendizaje automático ha experimentado un notable crecimiento. La detección de objetos se ha vuelto crucial, y su desarrollo eficiente requiere el aprovechamiento de estas tecnologías. En el entorno industrial el desarrollo de productos de forma automatizada se encuentra en alza para micro y pequeñas empresas, para su desarrollo continuo en cadenas de producción se requiere de un control importante en cuanto a la calidad de los mismos. En la mayoría de empresas pequeñas este último no es indispensable, pues se requiere de tecnologías más sofisticadas y costosas para su implementación, aunque este genere gran impacto en el rendimiento de toda la producción, ya que es a través de esta última etapa que se pueden realizar las correcciones necesarias para una producción eficaz en costo beneficio. Sin embargo, con el uso de algunas herramientas modernas como lo son Google Cloud Visión AI, Labelbox. Simplismart, TensorFlow, Edge Impulse entre otras; el desarrollo de modelos de aprendizaje automático se ha simplificado considerablemente. Lo cual permite ofrecer solución a este tipo de problemática, implementar un sistema de control de calidad para líneas de producción ahora puede resultar accesible a micro y pequeñas empresas. Este proyecto se enfoca en diseñar un modelo de aprendizaje para el microcontrolador ESP32 para el control de calidad en líneas de producción. Se busca evaluar la velocidad de detección y precisión, frente al control de calidad estándar de la estación FMS-210 (control de calidad mediante visión artificial). Por medio de las cuatro etapas establecidas; captura, análisis, segmentación y reconocimiento, se obtiene un modelo para el control de calidad de la pieza, este modelo se exporta en formato de librería para Arduino, en Arduino se desarrolla el código necesario para la captura en tiempo real de la pieza, se realiza el procesamiento de imagen asistido por el modelo, dando como resultado si la pieza está completa o no, además de otros datos como lo es el tiempo que tardó en realizar la detección, si la conexión se realiza correctamente o tamaño aproximado de la pieza. Estos datos se envían desde la ESP32 mediante comunicación serial por bluetooth a la computadora o dispositivo móvil, los cuales se presentan en una interfaz de usuario desarrollada en MIT App Inventor.The interest in artificial intelligence and machine learning has grown significantly in recent years, with object detection becoming a critical application of these technologies. In industrial settings, automated product development is increasingly adopted by micro and small enterprises to enhance production efficiency. However, quality control, a vital aspect of production lines, is often overlooked due to the high cost and complexity of implementing sophisticated technologies. This oversight impacts overall production efficiency, as effective quality control enables necessary corrections for cost-effective manufacturing. Modern tools such as Google Cloud Vision AI, Labelbox, Simplismart, TensorFlow, and Edge Impulse have simplified the development of machine learning models, making it possible to address these challenges. These advancements now allow micro and small enterprises to implement accessible quality control systems. This project focuses on designing a machine learning model for the ESP32 microcontroller to improve quality control in production lines. The proposed system evaluates detection speed and accuracy compared to the standard vision-based quality control system of the FMS-210 station. The solution is structured into four stages: capture, analysis, segmentation, and recognition. A custom model is developed for quality control, exported as an Arduino-compatible library. The Arduino platform facilitates real-time image capture and processing, utilizing the model to determine whether a piece is complete. Additional metrics, such as detection time, connection status, and approximate dimensions, are also recorded. Data is transmitted via Bluetooth from the ESP32 to a computer or mobile device and displayed on a user interface developed using MIT App Inventor.pdfspaAdquisición de imágenesAprendizaje automáticoDetección de objetosInteligencia artificialRedes neuronalesTecnología en Electrónica -- Tesis y disertaciones académicasInteligencia artificialAprendizaje automático (Inteligencia artificial)Control de calidadSistemas de control inteligenteImage acquisitionMachine learningObject detectionArtificial intelligenceNeural networksImplementación de sistema de detección de objetos mediante ESP32-CAM para el control de calidad de la estación FMS-210Implementation of an Object Detection System Using ESP32-CAM for Quality Control in the FMS-210 StationbachelorThesisMonografíainfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fAbierto (Texto Completo)http://purl.org/coar/access_right/c_abf2G. A. Benites y J. F. Bernal “Diseño de un sistema en entorno 3D para detección de objetos cercanos con una interfaz gráfica 2D”, Universidad Distrital Francisco José de Caldas - Biblioteca UDFJC. 2018. [En línea]. Disponible en: http://hdl.handle.net/11349/7986T. A. Kadhim, W. Hariri, N. S. Zghal, y D. B. Aissa, “A face recognition application for Alzheimer’s patients using ESP32-CAM and Raspberry Pi”, IEEE Trans. J. Real-Time Image Processing, vol. 20, no 100 2023. [En línea]. Disponible: https://doi.org/10.1007/s11554-023-01357-wHahn F, and Valle S, y Rendón R, y Oyorzabal O, y Astudillo A. “Mango Fruit Fly Trap Detection Using Different Wireless Communications”, IEEE Trans. Agronomy. 2023; 13(7) 1736. [En línea]. Disponible en: https://doi.org/10.3390/agronomy13071736Villegas-Ch. W, Barahona-Espinosa S, Gaibor-Naranjo W y Mera-Navarrete A. “Model for the Detection of Falls with the Use of Artificial Intelligence as an Assistant for the Care of the Elderly”, IEEE Trans. Computation. 2022; 10(11):195.[En línea] Disponible en: https://doi.org/10.3390/computation10110195J. Peixoto, J. Sousa , R. Carvalho , G. Santos , J.Mendes , R. Cardoso , y A. Reis, “Development of an Analog Gauge Reading Solution Based on Computer Vision and Deep Learning for an IoT Application”, IEEE Trans. Telecom. 3(4):564-580, 2022. [En línea]. Disponible en: https://doi.org/10.3390/telecom3040032Á. A. Niño, “Modelo de clasificación de imágenes violentas basado en un modelo de detección de objetos,” [online]. Disponible en: http://hdl.handle.net/11349/30586H. Luan, Q. Fu, Y. Zhang, H. Mu, S. Chen, y S. Yue, “A looming spatial localization neural network inspired by MLG1 neurons in the crab neohelice”, IEEE Trans. Frontiers in Neuroscience, vol. 15, Enero de 2022, [En línea]. Disponible en: https://doi.org/10.3389/fnins.2021.787256J. D. Azcona, R. Li, E. Mok, S. Hancock, y X. Li, “Development and clinical evaluation of automatic fiducial detection for tumor tracking in cine megavoltage images during volumetric modulated arc therapy”, IEEE Trans. Medical Physics, vol. 40, no. 3, Feb. 2013. [En línea] . Disponible en: http://dx.doi.org/10.1118/1.4791646K. Wang y Y.-X. Lee, “Measuring defects in high-speed production lines—a three-phase convolutional neural network model”, Measurement Science and Technology, vol. 34, no. 10, p. 105903, Jullio de 2023. [En línea]. Disponible en: doi: http://doi.org/10.1088/1361-6501/ace124C. Fu, Y. Li, Z. Huang, Y. Sun, y J. Yang, “Online collaboration-based visual tracking for unmanned aerial vehicles with spatial-to-semantic information and multi-recommender voting”, IEEE Trans. International Journal of Remote Sensing, vol. 42, no. 5, pp. 1664–1687, Dic. 2020. [En línea] Disponible en: http://doi.org/10.1080/01431161.2020.1847346J. S. Diaz y K. D. Riaño “Sistema de visión artificial para la optimización por algoritmo de colonia de hormigas de trayectorias de taladrado de circuitos impresos (PCB) a partir de procesamiento digital de imágenes”, Universidad Distrital Francisco José de Caldas - Biblioteca UDFJC. 2019. [En línea]. Disponible en: http://hdl.handle.net/11349/7986Nur Rodiatul Raudah Mohamed Radzuan, Haryati Jaafar, Farah Nabilah Zabani, Fatin Norazima Mohamad Ariff y Fatin Nadia Azman Fauzi, “Curvature-Based Active Region Segmentation for Improved Image Processing of Aspergillus Species”, J. Adv. Res. Appl. Sci. Eng. Technol., vol. 46, n.º 1, pp. 157–174, junio de 2024. [En línea]. Disponible: https://doi.org/10.37934/araset.46.1.157174N. S. Rani et al., “TopoGeoFusion: Integrating Object Topology based Feature Computation Methods into Geometrical Feature Analysis to Enhance Classification Performance”, MethodsX, p. 102859, julio de 2024. [En línea]. Disponible: https://doi.org/10.1016/j.mex.2024.102859N. Genze, W. K. Vahl, J. Groth, M. Wirth, M. Grieb, y D. G. Grimm, “Manually annotated and curated Dataset of diverse Weed Species in Maize and Sorghum for Computer Vision”, Scientific Data, vol. 11, no. 1, Enero de 2024. [En línea]. Disponible: https://doi.org/10.1038/s41597-024-02945-6Q. Herve, N. Ipek, J. Verwaeren y T. De Beer, “Automated particle inspection of continuously freeze-dried products using computer vision”, Int. J. Pharmaceutics, p. 124629, agosto de 2024. [En línea]. Disponible: https://doi.org/10.1016/j.ijpharm.2024.124629D. Estevez, “Detección de objetos en imágenes utilizando técnicas de aprendizaje profundo (Deep-Learning)”, Proyecto de grado, Departamento teoría de la señal y comunicaciones, Escuela Técnica Superior De Ingeniería, 2021.E. Caballero, “APLICACIÓN PRÁCTICA DE LA VISIÓN ARTIFICIAL PARA EL RECONOCIMIENTO DE ROSTROS EN UNA IMAGEN, UTILIZANDO REDES NEURONALES Y ALGORITMOS DE RECONOCIMIENTO DE OBJETOS DE LA BIBLIOTECA OPENCV,” Especializacion en ingenieria de Software, Universidad Distrital Francisco José de Caldas, 2017.H.Casas, E. Ahumada, “DISEÑO DE UNA ARQUITECTURA DE SOFTWARE PARA LA DETECCIÓN DE OBJETOS EN UN SISTEMA DE VIGILANCIA, INTEGRADO EN UN ROBOT AUTOBALANCEADO,” Facultad de ingeniería, Universidad Distrital Francisco José de Caldas, 2021.D. Matich, “Redes neuronales: Conceptos Básicos y Aplicaciones”. Universidad Tecnológica Nacional - Facultad Regional Rosario, Marzo de 2001. https://www.frro.utn.edu.ar/repositorio/catedras/quimica/5_anio/orientadora1/monograias/matich-redesneuronales.pdfSandler, M., Howard, A., Zhu, M., Zhmoginov, A., & Chen, “MobileNetV2: Inverted Residuals and Linear Bottlenecks.”, L.-C. (2018). https://arxiv.org/abs/1801.04381A. vazquez, C. Fernandez, J. Martinez, D. Leon, “Práctica Edge Impulse”, Instituto tecnológico y de estudios superiores de monterrey campus Toluca, 14 de marzo del 2024.A. Zapeta Hernández, G. A. Galindo Rosales, H. J. Juan Santiago y M. Martínez Lee, “Métricas de rendimiento para evaluar el aprendizaje automático en la clasificación de imágenes petroleras utilizando redes neuronales convolucionales”, Cienc. Lat. Rev. Cient. Multidiscip., vol. 6, n.º 5, pp. 4624–4637, noviembre de 2022. [En línea]. Disponible: https://doi.org/10.37811/cl_rcm.v6i5.3420LICENSElicense.txtlicense.txttext/plain; charset=utf-87167https://repository.udistrital.edu.co/bitstreams/a308527b-1bb5-40c8-9dec-87b2edb04337/download997daf6c648c962d566d7b082dac908dMD53ORIGINALTrabajo de gradoTrabajo de gradoapplication/pdf14972792https://repository.udistrital.edu.co/bitstreams/21e20471-bb1b-4e62-a84f-e73d91ea58ec/downloade6efdaeaff83e4dcd426cf62658e9b33MD54Licencia de uso y autorizaciónLicencia de uso y autorizaciónapplication/pdf358949https://repository.udistrital.edu.co/bitstreams/a3d88449-6feb-4ef5-95b7-9fa4b27a244a/download8507ce32118d5426925ce8f86852400aMD5511349/92931oai:repository.udistrital.edu.co:11349/929312025-02-25 15:32:31.657open.accesshttps://repository.udistrital.edu.coRepositorio Universidad Distritalrepositorio@udistrital.edu.coTElDRU5DSUEgWSBBVVRPUklaQUNJw5NOIEVTUEVDSUFMIFBBUkEgUFVCTElDQVIgWSBQRVJNSVRJUiBMQSBDT05TVUxUQSBZIFVTTyBERSBDT05URU5JRE9TIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgREUgTEEgVU5JVkVSU0lEQUQgRElTVFJJVEFMCgpUw6lybWlub3MgeSBjb25kaWNpb25lcyBkZSB1c28gcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyAoUklVRCkKCkNvbW8gdGl0dWxhcihlcykgZGVsKG9zKSBkZXJlY2hvKHMpIGRlIGF1dG9yLCBjb25maWVybyAoZXJpbW9zKSBhIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIChlbiBhZGVsYW50ZSwgTEEgVU5JVkVSU0lEQUQpIHVuYSBsaWNlbmNpYSBwYXJhIHVzbyBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgaW50ZWdyYXLDoSBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIChlbiBhZGVsYW50ZSwgUklVRCksIGRlIGFjdWVyZG8gYSBsYXMgc2lndWllbnRlcyByZWdsYXMsIGxhcyBjdWFsZXMgZGVjbGFybyAoYW1vcykgY29ub2NlciB5IGFjZXB0YXI6CgphKQlFc3RhcsOhIHZpZ2VudGUgYSBwYXJ0aXIgZGUgbGEgZmVjaGEgZW4gcXVlIHNlIGluY2x1eWEgZW4gZWwgUklVRCB5IGhhc3RhIHBvciB1biBwbGF6byBkZSBkaWV6ICgxMCkgQcOxb3MsIHByb3Jyb2dhYmxlIGluZGVmaW5pZGFtZW50ZSBwb3IgZWwgdGllbXBvIHF1ZSBkdXJlIGVsIGRlcmVjaG8gUGF0cmltb25pYWwgZGVsIGF1dG9yOyBsYSBjdWFsIHBvZHLDoSBkYXJzZSBwb3IgdGVybWluYWRhIHByZXZpYSBzb2xpY2l0dWQgYSBMQSBVTklWRVJTSURBRCBwb3IgZXNjcml0byBjb24gdW5hIGFudGVsYWNpw7NuIGRlIGRvcyAoMikgbWVzZXMgYW50ZXMgZGVsIHZlbmNpbWllbnRvIGRlbCBwbGF6byBpbmljaWFsIG8gZWwgZGUgc3UocykgcHLDs3Jyb2dhKHMpLgoKYikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIHB1YmxpY2FyIGxhIG9icmEgZW4gbGFzIGRpc3RpbnRhcyB2ZXJzaW9uZXMgcmVxdWVyaWRhcyBwb3IgZWwgUklVRCAoZGlnaXRhbCwgaW1wcmVzbywgZWxlY3Ryw7NuaWNvIHUgb3RybyBtZWRpbyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBMQSBVTklWRVJTSURBRCBubyBzZXLDoSByZXNwb25zYWJsZSBlbiBlbCBldmVudG8gcXVlIGVsIGRvY3VtZW50byBhcGFyZXpjYSByZWZlcmVuY2lhZG8gZW4gbW90b3JlcyBkZSBiw7pzcXVlZGEgbyByZXBvc2l0b3Jpb3MgZGlmZXJlbnRlcyBhbCBSSVVELCB1bmEgdmV6IGVsKG9zKSBhdXRvcihlcykgc29saWNpdGVuIHN1IGVsaW1pbmFjacOzbiBkZWwgUklVRCwgZGFkbyBxdWUgbGEgbWlzbWEgc2Vyw6EgcHVibGljYWRhIGVuIEludGVybmV0LgoKYykJTGEgYXV0b3JpemFjacOzbiBzZSBoYWNlIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCBsb3MgYXV0b3JlcyByZW51bmNpYW4gYSByZWNpYmlyIGJlbmVmaWNpbyBhbGd1bm8gcG9yIGxhIHB1YmxpY2FjacOzbiwgZGlzdHJpYnVjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGN1YWxxdWllciBvdHJvIHVzbyBxdWUgc2UgaGFnYSBlbiBsb3MgdMOpcm1pbm9zIGRlIGxhIHByZXNlbnRlIGxpY2VuY2lhIHkgZGUgbGEgbGljZW5jaWEgZGUgdXNvIGNvbiBxdWUgc2UgcHVibGljYSAoQ3JlYXRpdmUgQ29tbW9ucykuCgpkKQlMb3MgY29udGVuaWRvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQgc29uIG9icmEocykgb3JpZ2luYWwoZXMpIHNvYnJlIGxhIGN1YWwoZXMpIGVsKG9zKSBhdXRvcihlcykgY29tbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBhc3VtZW4gdG90YWwgcmVzcG9uc2FiaWxpZGFkIHBvciBlbCBjb250ZW5pZG8gZGUgc3Ugb2JyYSBhbnRlIExBIFVOSVZFUlNJREFEIHkgYW50ZSB0ZXJjZXJvcy4gRW4gdG9kbyBjYXNvIExBIFVOSVZFUlNJREFEIHNlIGNvbXByb21ldGUgYSBpbmRpY2FyIHNpZW1wcmUgbGEgYXV0b3LDrWEgaW5jbHV5ZW5kbyBlbCBub21icmUgZGVsIGF1dG9yIHkgbGEgZmVjaGEgZGUgcHVibGljYWNpw7NuLgoKZSkJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGluY2x1aXIgbGEgb2JyYSBlbiBsb3Mgw61uZGljZXMgeSBidXNjYWRvcmVzIHF1ZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBtYXhpbWl6YXIgbGEgdmlzaWJpbGlkYWQgZWwgdXNvIHkgZWwgaW1wYWN0byBkZSBsYSBwcm9kdWNjacOzbiBjaWVudMOtZmljYSwgYXJ0w61zdGljYSB5IGFjYWTDqW1pY2EgZW4gbGEgY29tdW5pZGFkIGxvY2FsLCBuYWNpb25hbCBvIGludGVybmFjaW9uYWwuCgoKZikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGNvbnZlcnRpciBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBjb24gZWwgZmluIGRlIHN1IHByZXNlcnZhY2nDs24gZW4gZWwgdGllbXBvIHF1ZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGxhIGRlIHN1cyBwcsOzcnJvZ2FzLgoKCkNvbiBiYXNlIGVuIGxvIGFudGVyaW9yIGF1dG9yaXpvKGFtb3MpLCBhIGZhdm9yIGRlbCBSSVVEIHkgZGUgc3VzIHVzdWFyaW9zLCBsYSBwdWJsaWNhY2nDs24geSBjb25zdWx0YSBkZSBsYSBzaWd1aWVudGUgb2JyYToKClRpdHVsbwoKQXV0b3IgICAgICAgQXBlbGxpZG9zICAgICAgICAgTm9tYnJlcwoKMQoKMgoKMwoKCmcpCUF1dG9yaXpvKGFtb3MpLCBxdWUgbGEgb2JyYSBzZWEgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsb3MgbGl0ZXJhbGVzIGFudGVyaW9yZXMsIGJham8gbG9zIGzDrW1pdGVzIGRlZmluaWRvcyBwb3IgTEEgVU5JVkVSU0lEQUQsIGVuIGxhcyDigJxDb25kaWNpb25lcyBkZSB1c28gZGUgZXN0cmljdG8gY3VtcGxpbWllbnRv4oCdIGRlIGxvcyByZWN1cnNvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQsIGN1eW8gdGV4dG8gY29tcGxldG8gc2UgcHVlZGUgY29uc3VsdGFyIGVuIGh0dHA6Ly9yZXBvc2l0b3J5LnVkaXN0cml0YWwuZWR1LmNvLwoKaCkJQ29ub3pjbyhjZW1vcykgeSBhY2VwdG8oYW1vcykgcXVlIG90b3JnbyhhbW9zKSB1bmEgbGljZW5jaWEgZXNwZWNpYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcywgbGljZW5jaWEgICBkZSBsYSBjdWFsIGhlIChoZW1vcykgb2J0ZW5pZG8gdW5hIGNvcGlhLgoKaSkJTWFuaWZpZXN0byhhbW9zKSBtaSAobnVlc3RybykgdG90YWwgYWN1ZXJkbyBjb24gbGFzIGNvbmRpY2lvbmVzIGRlIHVzbyB5IHB1YmxpY2FjacOzbiBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIHF1ZSBzZSBkZXNjcmliZW4geSBleHBsaWNhbiBlbiBlbCBwcmVzZW50ZSBkb2N1bWVudG8uCgpqKQlDb25vemNvKGNlbW9zKSBsYSBub3JtYXRpdmlkYWQgaW50ZXJuYSBkZSAgTEEgVU5JVkVSU0lEQUQ7IGVuIGNvbmNyZXRvLCBlbCBBY3VlcmRvIDAwNCBkZSAyMDEyIGRlbCBDU1UsIEFjdWVyZG8gMDIzIGRlIDIwMTIgZGVsIENTVSBzb2JyZSBQb2zDrXRpY2EgRWRpdG9yaWFsLCBBY3VlcmRvIDAyNiAgZGVsIDMxIGRlIGp1bGlvIGRlIDIwMTIgc29icmUgZWwgcHJvY2VkaW1pZW50byBwYXJhIGxhIHB1YmxpY2FjacOzbiBkZSB0ZXNpcyBkZSBwb3N0Z3JhZG8gZGUgbG9zIGVzdHVkaWFudGVzIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzLCAgQWN1ZXJkbyAwMzAgZGVsIDAzIGRlIGRpY2llbWJyZSBkZSAyMDEzIHBvciBtZWRpbyBkZWwgY3VhbCBzZSBjcmVhIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgZGUgbGEgVW5pdmVyc2lkYWQgRGlzdHJpdGFsIEZyYW5jaXNjbyBKb3PDqSBkZSBDYWxkYXMsIEFjdWVyZG8gMDM4IGRlIDIwMTUgMjAxNSDigJxwb3IgZWwgY3VhbCBzZSBtb2RpZmljYSBlbCBBY3VlcmRvIDAzMSBkZSAyMDE0IGRlIDIwMTQgcXVlIHJlZ2xhbWVudGEgZWwgdHJhYmFqbyBkZSBncmFkbyBwYXJhIGxvcyBlc3R1ZGlhbnRlcyBkZSBwcmVncmFkbyBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyB5IHNlIGRpY3RhbiBvdHJhcyBkaXJlY3RyaWNlc+KAnSB5IGxhcyBkZW3DoXMgbm9ybWFzIGNvbmNvcmRhbnRlIHkgY29tcGxlbWVudGFyaWFzIHF1ZSByaWdlbiBhbCByZXNwZWN0bywgZXNwZWNpYWxtZW50ZSBsYSBsZXkgMjMgZGUgMTk4MiwgbGEgbGV5IDQ0IGRlIDE5OTMgeSBsYSBkZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzLiBFc3RvcyBkb2N1bWVudG9zIHBvZHLDoW4gc2VyIGNvbnN1bHRhZG9zIHkgZGVzY2FyZ2Fkb3MgZW4gZWwgcG9ydGFsIHdlYiBkZSBsYSBiaWJsaW90ZWNhIGh0dHA6Ly9zaXN0ZW1hZGViaWJsaW90ZWNhcy51ZGlzdHJpdGFsLmVkdS5jby8KCmspCUFjZXB0byhhbW9zKSBxdWUgTEEgVU5JVkVSU0lEQUQgbm8gc2UgcmVzcG9uc2FiaWxpemEgcG9yIGxhcyBpbmZyYWNjaW9uZXMgYSBsYSBwcm9waWVkYWQgaW50ZWxlY3R1YWwgbyBEZXJlY2hvcyBkZSBBdXRvciBjYXVzYWRhcyBwb3IgbG9zIHRpdHVsYXJlcyBkZSBsYSBwcmVzZW50ZSBMaWNlbmNpYSB5IGRlY2xhcmFtb3MgcXVlIG1hbnRlbmRyw6kgKGVtb3MpIGluZGVtbmUgYSBMQSBVTklWRVJTSURBRCBwb3IgbGFzIHJlY2xhbWFjaW9uZXMgbGVnYWxlcyBkZSBjdWFscXVpZXIgdGlwbyBxdWUgbGxlZ2FyZW4gYSBwcmVzZW50YXJzZSBwb3IgdmlvbGFjacOzbiBkZSBkZXJlY2hvcyBhIGxhIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBvIGRlIEF1dG9yIHJlbGFjaW9uYWRvcyBjb24gbG9zIGRvY3VtZW50b3MgcmVnaXN0cmFkb3MgZW4gZWwgUklVRC4KCmwpCUVsIChsb3MpIGF1dG9yKGVzKSBtYW5pZmllc3RhKG1vcykgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwsIGRlIGV4Y2x1c2l2YSBhdXRvcsOtYSwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvczsgZGUgdGFsIHN1ZXJ0ZSwgZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBjdWFscXVpZXIgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybyBlbiBjdWFudG8gYSBsb3MgZGVyZWNob3MgZGUgYXV0b3Igc29icmUgbGEgb2JyYSwgZWwgKGxvcykgZXN0dWRpYW50ZShzKSDigJMgYXV0b3IoZXMpIGFzdW1pcsOhKG4pIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIHkgc2FsZHLDoShuKSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcy4gUGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgTEEgVU5JVkVSU0lEQUQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCgptKQlFbCAobG9zKSBhdXRvcihlcykgbWFuaWZpZXN0YShtb3MpIHF1ZSBjb25vemNvKGNlbW9zKSBsYSBhdXRvbm9tw61hIHkgbG9zIGRlcmVjaG9zLCBxdWUgcG9zZWUobW9zKSBzb2JyZSBsYSBvYnJhIHksIGNvbW8gdGFsLCBlcyAoc29tb3MpIHJlc3BvbnNhYmxlKHMpIGRlbCBhbGNhbmNlIGp1csOtZGljbyB5IGxlZ2FsLCBkZSBlc2NvZ2VyIGxhIG9wY2nDs24gZGUgbGEgcHVibGljYWNpw7NuIG8gZGUgcmVzdHJpY2Npw7NuIGRlIGxhIHB1YmxpY2FjacOzbiBkZWwgZG9jdW1lbnRvIHJlZ2lzdHJhZG8gZW4gZWwgUklVRC4KCgoKCgoKU0kgRUwgRE9DVU1FTlRPIFNFIEJBU0EgRU4gVU4gVFJBQkFKTyBRVUUgSEEgU0lETyBQQVRST0NJTkFETyBPIEFQT1lBRE8gUE9SIFVOQSBBR0VOQ0lBIE8gVU5BIE9SR0FOSVpBQ0nDk04sIENPTiBFWENFUENJw5NOIERFIExBIFVOSVZFUlNJREFEIERJU1RSSVRBTCBGUkFOQ0lTQ08gSk9TRSBERSBDQUxEQVMsIExPUyBBVVRPUkVTIEdBUkFOVElaQU4gUVVFIFNFIEhBIENVTVBMSURPIENPTiBMT1MKREVSRUNIT1MgWSBPQkxJR0FDSU9ORVMgUkVRVUVSSURPUyBQT1IgRUwgUkVTUEVDVElWTyBDT05UUkFUTyBPIEFDVUVSRE8uCgoKCgoKCgoKCgoKCgoKCgoKCgoKCkVuIGNvbnN0YW5jaWEgZGUgbG8gYW50ZXJpb3IsIGZpcm1vKGFtb3MpIGVsIHByZXNlbnRlIGRvY3VtZW50bywgZW4gbGEgY2l1ZGFkIGRlIEJvZ290w6EsIEQuQy4sIGEgbG9zCgoKRklSTUEgREUgTE9TIFRJVFVMQVJFUyBERSBERVJFQ0hPUyBERSBBVVRPUgoKX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fICAgQy5DLiBOby4gX19fX19fX19fX19fX19fX19fCgpfX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX18gICBDLkMuIE5vLiBfX19fX19fX19fX19fX19fX18KCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXyAgIEMuQy4gTm8uIF9fX19fX19fX19fX19fX19fXwoKCgpDb3JyZW8gRWxlY3Ryw7NuaWNvIEluc3RpdHVjaW9uYWwgZGVsIChkZSBsb3MpIEF1dG9yKGVzKToKCkF1dG9yCSAgICAgIENvcnJlbyBFbGVjdHLDs25pY28KCjEKCjIKCjMKCk5vbWJyZSBkZSBEaXJlY3RvcihlcykgZGUgR3JhZG86CgoxCgoyCgozCgpOb21icmUgRmFjdWx0YWQgeSBQcm95ZWN0byBDdXJyaWN1bGFyOgoKRmFjdWx0YWQJUHJveWVjdG8gQ3VycmljdWxhcgoKCgoKCgoKCk5vdGE6IEVuIGNhc28gcXVlIG5vIGVzdMOpIGRlIGFjdWVyZG8gY29uIGxhcyBjb25kaWNpb25lcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSwgeSBtYW5pZmllc3RlIGFsZ3VuYSByZXN0cmljY2nDs24gc29icmUgbGEgb2JyYSwganVzdGlmaXF1ZSBsb3MgbW90aXZvcyBwb3IgbG9zIGN1YWxlcyBlbCBkb2N1bWVudG8geSBzdXMgYW5leG9zIG5vIHB1ZWRlbiBzZXIgcHVibGljYWRvcyBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIFJJVUQuCgoKU2kgcmVxdWllcmUgbcOhcyBlc3BhY2lvLCBwdWVkZSBhbmV4YXIgdW5hIGNvcGlhIHNpbWlsYXIgYSBlc3RhIGhvamEK