Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
Este trabajo propone el desarrollo de un sistema interactivo para controlar dispositivos electrónicos mediante gestos manuales y faciales, utilizando tecnologías de visión por computadora y aprendizaje automático. El sistema se basa en MediaPipe, un framework de Google, y se implementa en Python par...
- Autores:
-
Reinoso Varón, Juan Pablo
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2025
- Institución:
- Universidad de Ibagué
- Repositorio:
- Repositorio Universidad de Ibagué
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unibague.edu.co:20.500.12313/5545
- Acceso en línea:
- https://hdl.handle.net/20.500.12313/5545
- Palabra clave:
- Control por gestos
Aprendizaje automático
Control de dispositivos - Sistema integrado
Mediapipe - Manuales
Python - Manuales
Control por gestos
Visión por computadora
Aprendizaje automático
MediaPipe
Reconocimiento facial y manual
Interacción hombre-máquina
Accesibilidad tecnológica
Entornos estériles
Interfaz sin contacto
Python
Procesamiento en tiempo real
Gesture control
Computer vision
Machine learning
MediaPipe
Facial and hand recognition
Human-computer interaction
Technological accessibility
Sterile environments
Touchless interface
Python
Real-time processing
- Rights
- openAccess
- License
- http://purl.org/coar/access_right/c_abf2
| id |
UNIBAGUE2_ecdfc044cc557346cf7f2852e358fa63 |
|---|---|
| oai_identifier_str |
oai:repositorio.unibague.edu.co:20.500.12313/5545 |
| network_acronym_str |
UNIBAGUE2 |
| network_name_str |
Repositorio Universidad de Ibagué |
| repository_id_str |
|
| dc.title.spa.fl_str_mv |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python |
| title |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python |
| spellingShingle |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python Control por gestos Aprendizaje automático Control de dispositivos - Sistema integrado Mediapipe - Manuales Python - Manuales Control por gestos Visión por computadora Aprendizaje automático MediaPipe Reconocimiento facial y manual Interacción hombre-máquina Accesibilidad tecnológica Entornos estériles Interfaz sin contacto Python Procesamiento en tiempo real Gesture control Computer vision Machine learning MediaPipe Facial and hand recognition Human-computer interaction Technological accessibility Sterile environments Touchless interface Python Real-time processing |
| title_short |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python |
| title_full |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python |
| title_fullStr |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python |
| title_full_unstemmed |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python |
| title_sort |
Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python |
| dc.creator.fl_str_mv |
Reinoso Varón, Juan Pablo |
| dc.contributor.advisor.none.fl_str_mv |
Ramírez Reinoso, Diego Fernando |
| dc.contributor.author.none.fl_str_mv |
Reinoso Varón, Juan Pablo |
| dc.subject.armarc.none.fl_str_mv |
Control por gestos Aprendizaje automático Control de dispositivos - Sistema integrado Mediapipe - Manuales Python - Manuales |
| topic |
Control por gestos Aprendizaje automático Control de dispositivos - Sistema integrado Mediapipe - Manuales Python - Manuales Control por gestos Visión por computadora Aprendizaje automático MediaPipe Reconocimiento facial y manual Interacción hombre-máquina Accesibilidad tecnológica Entornos estériles Interfaz sin contacto Python Procesamiento en tiempo real Gesture control Computer vision Machine learning MediaPipe Facial and hand recognition Human-computer interaction Technological accessibility Sterile environments Touchless interface Python Real-time processing |
| dc.subject.proposal.spa.fl_str_mv |
Control por gestos Visión por computadora Aprendizaje automático MediaPipe Reconocimiento facial y manual Interacción hombre-máquina Accesibilidad tecnológica Entornos estériles Interfaz sin contacto Python Procesamiento en tiempo real |
| dc.subject.proposal.eng.fl_str_mv |
Gesture control Computer vision Machine learning MediaPipe Facial and hand recognition Human-computer interaction Technological accessibility Sterile environments Touchless interface Python Real-time processing |
| description |
Este trabajo propone el desarrollo de un sistema interactivo para controlar dispositivos electrónicos mediante gestos manuales y faciales, utilizando tecnologías de visión por computadora y aprendizaje automático. El sistema se basa en MediaPipe, un framework de Google, y se implementa en Python para garantizar eficiencia en tiempo real y reducir falsos positivos. La metodología se basa en el procesamiento multihilo, algoritmos personalizados para diferenciar manos derecha/izquierda, y validación en entornos variables (iluminación, ángulos de cámara). Los resultados finales son un prototipo funcional tiene aplicación directa en entornos críticos como quirófanos (minimizando contacto físico con equipos), ambientes industriales estériles (operando maquinaria sin contaminación) y espacios educativos (fomentando aprendizaje interactivo). Pero su utilidad va más allá: también sirve para uso cotidiano y entretenimiento doméstico, y se convierte en una herramienta de accesibilidad clave para personas con movilidad reducida o limitaciones físicas, democratizando el control gestual de tecnología en cualquier contexto. La investigación contribuye a la accesibilidad tecnológica y ofrece una alternativa segura e intuitiva a las interfaces tradicionales. |
| publishDate |
2025 |
| dc.date.accessioned.none.fl_str_mv |
2025-08-27T20:53:26Z |
| dc.date.available.none.fl_str_mv |
2025-08-27T20:53:26Z |
| dc.date.issued.none.fl_str_mv |
2025 |
| dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
| dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
| dc.type.content.none.fl_str_mv |
Text |
| dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
| dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
| format |
http://purl.org/coar/resource_type/c_7a1f |
| status_str |
acceptedVersion |
| dc.identifier.citation.none.fl_str_mv |
Reinoso Varón, J. P. (2025). Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/5545 |
| dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12313/5545 |
| identifier_str_mv |
Reinoso Varón, J. P. (2025). Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/5545 |
| url |
https://hdl.handle.net/20.500.12313/5545 |
| dc.language.iso.none.fl_str_mv |
spa |
| language |
spa |
| dc.relation.references.none.fl_str_mv |
D. A. Norman, Design of Everyday Things. MIT Press, 1998. “Uso del control por gestos en las modernas HMI de pantalla táctil”. Outdoor Industrial Monitor Extended Temperature IK10 Embedded HMI. Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.interelectronix.com/es/uso-del-control-por-gestos-en-las-modernas-hmi-de-pa ntalla-tactil.html#:~:text=El%20control%20por%20gestos%20puede,más%20amplio%20d e%20crear%20tecnologías J. R. Yost, M. Campbell-Kelly, W. Aspray y N. Ensmenger, Computer: A History of the Information Machine. Taylor Francis Group, 2018. J. Jeff, GUI Bloopers 2. 0: Common User Interface Design Don'ts and Dos. Elsevier Sci. Technol. Books, 2007. “Agilent Technologies’ revolutionary sensor technology powers Logitech’s new laser mouse.” Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.investor.agilent.com/news-and-events/news/news-details/2004/Agilent-Techn ologies-Revolutionary-Sensor-Technology-Powers-Logitechs-New-Laser-Mouse/default.a spx S. K. Card, Psychology of Human-Computer Interaction. Taylor Francis Group, 2018. K. D. Mankoff y T. A. Russo, “The Kinect: a low-cost, high-resolution, short-range 3D camera”, Earth Surf. Processes Landforms, vol. 38, n.º 9, pp. 926–936, julio de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1002/esp.3332 A. S. Mohamed, N. F. Hassan y A. S. Jamil, “Real-Time Hand Gesture Recognition: A Comprehensive Review of Techniques, Applications, and Challenges”, Cybern. Inf. Technol., vol. 24, n.º 3, pp. 163–181, septiembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.2478/cait-2024-0031 “Gesture-Based interactive digital exhibits | museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 28 de junio de 2025. [En Disponible: línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/ Florida Atlantic University. “Sign Language Recognition Using Accurate ASL Gesture Detection System”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.php “Disability”. World Health Organization (WHO). Accedido el 1 de julio de 2025. [En línea]. Disponible: https://www.who.int/news-room/fact-sheets/detail/disability-and-health “Education and Disability: Analysis of Data from 49 Countries | UNESCO UIS”. UNESCO UIS. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://uis.unesco.org/en/news/education-and-disability-analysis-data-49-countries D. K. Anson, Assistive Technology for People With Disabilities. ABC-CLIO, LLC, 2018. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.5040/9798400615559 “Healthcare-associated infections”. European Centre for Disease Prevention and Control. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ecdc.europa.eu/en/healthcare-associated-infections R. Brooks, “The relationship between matter and life”, Nature, vol. 409, n.º 6818, pp. 409–411, enero de 2001. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1038/35053196 J. Shotton et al., “Real-time human pose recognition in parts from single depth images”, Commun. ACM, vol. 56, n.º 1, pp. 116–124, enero de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1145/2398356.2398381 K. Tate. “How the human/computer interface works (infographics)”. Live Science. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.livescience.com/37944-how-the-human-computer-interface-works-infographic s.html File:Punch-card-blue.jpg - Wikimedia Commons. (14 de febrero de 2005). Accedido el de julio de 2025. https://commons.wikimedia.org/wiki/File:Punch-card-blue.jpg “Speech and gesture command recognition to improve human-robot interaction in manual assembly lines,” ERCIM News, nº 132, 2023. [En línea]. Disponible en: https://ercim-news.ercim.eu/en132/special/speech-and-gesture-command-recognition-to-i mprove-human-robot-interaction-in-manual-assembly-lines Microsoft Corporation. File:PowerShell Core 7.1.5 with Windows Terminal.png - Wikimedia Commons. (17 de octubre de 2021). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:PowerShell_Core_7.1.5_with_Windows_Terminal .png Raysonho. File:ComputerMouseCloseup3.jpg - Wikimedia Commons. (3 de mayo de 2015). el 1 de julio de 2025. [Imagen]. https://commons.wikimedia.org/wiki/File:ComputerMouseCloseup3.jpg Rprpr. File:Ubuntu 16.04 Desktop screenshot.png - Wikimedia Commons. (27 de abril de 2016). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:Ubuntu_16.04_Desktop_screenshot.png O. y. dados. Smartphone. (31 de marzo de 2015). Accedido el 1 de julio de 2025. [Fotografía]. Disponible: https://www.flickr.com/photos/128635328@N05/16993528795/ C. Liu, J. -g. Liu, H. Sun, Y. Xu, and R. Kennel, “P1.9 - Rotational Speed Measurement Based on Laser Mouse Sensors,” Tagungsband, pp. 540–545, Jan. 2016, doi: 10.5162/sensoren2016/p1.9. T. Wydra. File:Laser mouse.jpg - Wikimedia Commons. (20 de febrero de 2009). Accedido 6 de julio de 2025. https://commons.wikimedia.org/wiki/File:Laser_mouse.jpg superapple4ever. Steve Jobs Introducing The iPhone At MacWorld 2007. (3 de diciembre de 2010). Accedido el 28 de junio de 2025. [Video en línea]. Disponible: https://www.youtube.com/watch?v=x7qPAY9JqE4 R. Fernandez. File:iPhone 1st Gen.svg - Wikimedia Commons. (15 de octubre de 2017). el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:IPhone_1st_Gen.svg Z. Zhang, “Microsoft Kinect Sensor and Its Effect”, IEEE Multimed., vol. 19, n.º 2, pp. 4–10, febrero de 2012. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://doi.org/10.1109/mmul.2012.24 E. Amos. File:Xbox-One-Kinect.jpg - Wikimedia Commons. (5 de junio de 2014). Accedido 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Xbox-One-Kinect.jpg V. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-control Leap Motion Controller with SDK. (s. f.). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://www.adafruit.com/product/2106 NASA. NASA Image and Video Library. (10 de octubre de 1990). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://images.nasa.gov/details-s41-02-028 R. Sheldon, N. Barney y C. Bernstein. “What Is Face Detection and How Does It Work? | Definition from TechTarget”. Enterprise AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.techtarget.com/searchenterpriseai/definition/face-detection “How is Face Recognition Surveillance Technology Racist? | ACLU”. American Civil Liberties Union. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.aclu.org/news/privacy-technology/how-is-face-recognition-surveillance-techno logy-racist M. Oudah, A. Al-Naji y J. Chahl, “Hand Gesture Recognition Based on Computer Vision: A Review of Techniques”, J. Imag., vol. 6, n.º 8, p. 73, julio de 2020. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/jimaging6080073 V. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-control “layout: forward target: https://developers.google.com/mediapipe/solutions/vision/hand_landmarker title: Hands parent: MediaPipe Legacy Solutions nav_order: 4 — MediaPipe v0.7.5 documentation”. MediaPipe — MediaPipe v0.7.5 documenta tion. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://mediapipe.readthedocs.io/en/latest/solutions/hands.html M. Linardakis, I. Varlamis y G. Papadopoulos. “Survey on Hand Gesture Recognition from Visual Input The research leading to these results received funding from the European Commission under Grant Agreement No. 101168042 (TRIFFID).” arXiv.org e-Print archive. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://arxiv.org/html/2501.11992v1 M. Wu, “Gesture recognition based on deep learning: A review”, EAI Endorsed Trans. E-Learn., vol. 10, marzo de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.4108/eetel.5191 “MediaPipe: A guide google's open source framework - viso.ai”. viso.ai. Accedido el 28 junio de 2025. [En línea]. Disponible: https://viso.ai/computer-vision/mediapipe/#:~:text=MediaPipe%20is%20an%20open-sourc e,such%20as%20video%20or%20audio. Kukil y P. Durai. “The ultimate guide to video processing”. MediaPipe. [En línea]. Disponible: https://learnopencv.com/introduction-to-mediapipe/ Saiwa. “OpenPose vs. mediapipe | in-depth comparison for human pose estimation”. Medium. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://medium.com/@saiwadotai/openpose-vs-mediapipe-in-depth-comparison-for-huma n-pose-estimation-402c5a07b022 “MediaPipe Vs OpenCV - QuickPose.ai”. QuickPose.ai. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://quickpose.ai/faqs/mediapipe-vs-opencv/ “Complete guide to openpose [updated mar 2024]”. Ikomia | The fastest way to deploy Computer Vision AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ikomia.ai/blog/complete-openpose-guide “Hand gesture recognition system targets medical applications”. Home | Vision Systems Design. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.vision-systems.com/home/article/16739173/hand-gesture-recognition-system targets-medical-applications I. D. S. Chen et al., “Continuous recognition of teachers’ hand signals for students with attention deficits”, Algorithms, vol. 17, n.º 7, p. 300, julio de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/a17070300 Florida Atlantic University. “Sign language recognition using accurate ASL gesture detection system”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.php M. R. Huda, M. L. Ali y M. S. Sadi, “Developing a real-time hand-gesture recognition technique for wheelchair control”, PLOS One, vol. 20, n.º 4, abril de 2025, art. n.º e0319996. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1371/journal.pone.0319996 “Gesture-Based Interactive Digital Exhibits | Museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 1 de julio de 2025. [En línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/ L. Zhao, Z. Lin, R. Sun y A. Wang, “A review of state-of-the-art methodologies and applications in action recognition”, Electronics, vol. 13, n.º 23, p. 4733, noviembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/electronics13234733 “Malla Facial (MediaPipe Face Mesh) ? | Python - MediaPipe - OpenCV » omes-va.com”. OMES. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://omes-va.com/malla-facial-mediapipe-python/ Google. Guía de detección de puntos de referencia faciales | Google AI Edge | Google AI for Developers. (21 de mayo de 2024). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/face_landmarker?hl=es-419 Auawise. File:Yaw Axis.svg - Wikimedia Commons. (31 de julio de 2008). Accedido el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Yaw_Axis.svg Google. Guía de detección de puntos de referencia en la mano | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/hand_landmarker?hl=es-419 Google. Guía de detección de puntos de referencia de posiciones | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/pose_landmarker?hl=es-419 |
| dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
| dc.rights.license.none.fl_str_mv |
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) |
| dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://purl.org/coar/access_right/c_abf2 Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0) https://creativecommons.org/licenses/by-nc/4.0/ |
| dc.format.extent.none.fl_str_mv |
140 páginas |
| dc.format.mimetype.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidad de Ibagué |
| dc.publisher.faculty.none.fl_str_mv |
Ingeniería |
| dc.publisher.place.none.fl_str_mv |
Ibagué |
| dc.publisher.program.none.fl_str_mv |
Ingeniería electrónica |
| publisher.none.fl_str_mv |
Universidad de Ibagué |
| institution |
Universidad de Ibagué |
| bitstream.url.fl_str_mv |
https://repositorio.unibague.edu.co/bitstreams/e4df9833-551d-4263-a72e-3e339d919963/download https://repositorio.unibague.edu.co/bitstreams/b4a83cec-7c0a-4196-885e-ec8a3f269d2d/download https://repositorio.unibague.edu.co/bitstreams/f6514e98-bfb1-441e-b511-5b0d4933235a/download https://repositorio.unibague.edu.co/bitstreams/21b64717-d1cf-422f-b765-4055c844d3bb/download https://repositorio.unibague.edu.co/bitstreams/bc8ff19b-597a-4f29-b024-a615acabb32b/download https://repositorio.unibague.edu.co/bitstreams/63c842b2-1e6d-4d31-9ee8-a196b083db62/download https://repositorio.unibague.edu.co/bitstreams/6da7e493-0122-4150-a593-8851ed7ea3b0/download https://repositorio.unibague.edu.co/bitstreams/ce7e89fd-32b6-4ec7-9ec7-f0520036bf64/download https://repositorio.unibague.edu.co/bitstreams/67e0c7c4-79c1-4f70-b617-aa3241e42cb0/download |
| bitstream.checksum.fl_str_mv |
89bc074fa5a32687482c1e96ac928ffc ff1731549b356a8a2802507c29ec6a90 869802b96cbccc5b4a6f4735766377f2 92ec8913eed98788960723c191fdb1d6 2fa3e590786b9c0f3ceba1b9656b7ac3 5b8ecd75b1cb7b38878d9ec9c5e7bded 89c45c193beee3107ca66ab23fdb179d 538829e8b3edc68e29e5c2cc39f5058b 85fce3dae65542af4e0f96001cd5c2c9 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Institucional Universidad de Ibagué |
| repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
| _version_ |
1851059992411504640 |
| spelling |
Ramírez Reinoso, Diego Fernando395f57a2-0bd5-42a4-b37c-922da1550eee-1Reinoso Varón, Juan Pablo00080bf3-a8b8-4666-a2b8-207cf821b78a-12025-08-27T20:53:26Z2025-08-27T20:53:26Z2025Este trabajo propone el desarrollo de un sistema interactivo para controlar dispositivos electrónicos mediante gestos manuales y faciales, utilizando tecnologías de visión por computadora y aprendizaje automático. El sistema se basa en MediaPipe, un framework de Google, y se implementa en Python para garantizar eficiencia en tiempo real y reducir falsos positivos. La metodología se basa en el procesamiento multihilo, algoritmos personalizados para diferenciar manos derecha/izquierda, y validación en entornos variables (iluminación, ángulos de cámara). Los resultados finales son un prototipo funcional tiene aplicación directa en entornos críticos como quirófanos (minimizando contacto físico con equipos), ambientes industriales estériles (operando maquinaria sin contaminación) y espacios educativos (fomentando aprendizaje interactivo). Pero su utilidad va más allá: también sirve para uso cotidiano y entretenimiento doméstico, y se convierte en una herramienta de accesibilidad clave para personas con movilidad reducida o limitaciones físicas, democratizando el control gestual de tecnología en cualquier contexto. La investigación contribuye a la accesibilidad tecnológica y ofrece una alternativa segura e intuitiva a las interfaces tradicionales.This work proposes the development of an interactive system to control electronic devices through hand and facial gestures, using computer vision and machine learning technologies. The system is based on MediaPipe, a Google framework, and implemented in Python to ensure real-time efficiency and reduce false positives. The methodology includes multithreaded processing, custom algorithms to differentiate right/left hands, and validation in variable environments (lighting, camera angles). The final result is a functional prototype with direct application in critical environments such as operating rooms (minimizing physical contact with equipment), sterile industrial settings (operating machinery without contamination), and educational spaces (promoting interactive learning). However, its usefulness goes further: it also serves everyday use and home entertainment, becoming a key accessibility tool for people with reduced mobility or physical limitations, democratizing gesture control of technology in any context. The research contributes to technological accessibility and offers a safe and intuitive alternative to traditional interfaces.PregradoIngeniero electrónicoResumen V Lista de figuras XI Lista de tablas XV Lista de Símbolos y abreviaturas XVI Introducción 1 Justificación 5 Objetivos 5 Objetivo General 5 Objetivos Específicos: 6 1. Marco teórico 7 1.1. Evolución de los sistemas de control de dispositivos 7 1.1.1. Tarjetas perforadas 7 1.1.2. Línea de comandos 8 1.1.3. Mouse optico 9 1.1.4. Interfaces Gráficas (GUI) 10 1.1.5. Pantallas táctiles 11 1.1.6. El ratón láser 12 1.1.7. Apple revoluciona con el iPhone táctil multitáctil 13 1.1.8. Microsoft lanza Kinect, un sensor de profundidad 3D 14 1.1.9. Leap Motion presenta un controlador de gestos manuales 15 1.1.10. Interfaces de voz 16 1.2. Sistemas de reconocimiento facial y de gestos 17 1.2.1. Reconocimiento facial 17 1.2.1.1. Ventajas: 18 1.2.1.2. Desventajas: 18 1.2.2. Reconocimiento de gestos manuales y corporales 18 1.2.2.1. Ventajas: 19 1.2.2.2. Desventajas: 20 1.3. Python y MediaPipe 20 1.3.1. Python 20 1.3.2. MediaPipe 20 1.3.3. Implementación y ventajas 21 1.3.4. Desventajas 21 1.4. Comparaciones críticas de librerías, frameworks y lenguajes 22 1.4.1. MediaPipe (Google): 22 1.4.2. OpenCV (Intel): 22 1.4.3. OpenPose (CMU): 23 1.4.4. Frameworks ML (TensorFlow, PyTorch, Detectron, etc.): 23 1.4.5. Lenguajes (Python vs C++ vs JavaScript): 23 1.5. Aplicaciones y casos de Estudio 24 1.5.1. Entornos médicos 24 1.5.2. Industria 24 1.5.3. Educación interactiva 25 1.5.4. Accesibilidad 25 1.5.5. Entretenimiento 26 1.6. Estado del arte y tendencias actuales 26 1.6.1. Modelos híbridos y multimodales: 26 1.6.2. Eficiencia y despliegue en el borde: 27 1.6.3. Visión 3D y seguimiento avanzado: 27 1.6.4. Nuevas interfaces y aplicaciones: 27 1.6.5. Desafíos éticos y de datos: 27 2. Diseño del sistema 29 2.1. Módulo face_p1.py: detección y análisis facial 3D 29 2.1.1. Clase OptimizedFaceDetector y método find_faces() 30 2.1.2. Extracción de coordenadas faciales 32 2.1.3. Posición completa del rostro: get_face_position() 33 2.1.4. Medidas geométricas en 2D: distancias y ángulos 34 2.1.5. Orientación del rostro en 3D 35 2.2. Módulo hands_p1.py: detección y análisis de manos 38 2.2.1. Clase OptimizedHandDetector y configuración inicial 39 2.2.2. Extracción de información de manos 40 2.3. Módulo body_p1: detección y análisis corporal. 46 2.4. Análisis técnico del módulo verify_p1.py 49 2.5. Transición: de módulos de detección a aplicaciones gestuales 51 2.6. Módulo sonido_p2 (AudioGestureController) 52 2.6.1. Activación del control de volumen: 53 2.6.2. Subir/Bajar volumen: 53 2.6.3. Silencio/Mute: 54 2.6.4. Seguridad y estados: 54 2.6.5. Flujo de datos y arquitectura: 54 2.7. Módulo peli_p2 (MediaGestureController) 55 2.7.1. Inicialización: 56 2.7.2. Proceso de cada frame (process_frame): 56 2.7.3. Control de volumen (gestos manuales): 57 2.7.4. Estados y bloqueo de gestos: 58 2.7.5. Arquitectura interna: 59 2.8. Módulo present_p2 (PresentationController) 60 2.8.1. Inicialización: 60 2.8.2. Captura y detección principal: 60 2.8.3. Interfaz de selección: 62 2.8.4. Detalles de implementación: 62 2.8.5. Fundamentos y geometría: 63 2.8.6. Diagrama conceptual: 63 2.8.7. Comparación con enfoques alternativos: 64 2.9. Módulo mouse_p2 (GestureMouseController) 64 2.10. Módulo girosmouse_p1 (FaceGyroMouse) 68 2.11. Módulo gráfica (Interfaz Gráfica del Sistema) 71 2.11.1. Fundamentos técnicos de la interfaz gráfica 71 2.11.2. Componentes y disposición de la GUI 73 2.11.2.1. Panel de control (izquierda): 74 2.11.2.2. Panel de video (derecha): 75 2.11.2.3. Panel de manual (oculto inicialmente): 75 2.11.3. Integración con los módulos biométricos 76 2.12. Diagrama de Flujo Completo (Nivel Global) 80 2.12.1. Inicialización: 81 2.12.2. Gestión de modos: 81 2.12.3. Bucle principal por modo: 81 2.12.4. Modo Manual: 81 2.12.5. Gestión de eventos: 81 2.12.6. Secuencia de cierre: 82 2.12.7. Manejo robusto de errores: 82 2.12.8. Subprocesos concurrentes: 82 2.12.9. Componentes críticos integrados: 82 3. Resultados y Validación 83 3.1. Implementación Funcional 83 3.2. Casos de Prueba 88 3.2.1. Control de cursor por cabeza: 88 3.2.2. Control de cursor por manos: 89 3.2.3. Control de presentación: 89 3.2.4. Control multimedia: 89 3.2.5. Control de audio: 90 3.3. Pruebas de Rendimiento 90 3.3.1. Entradas: 90 3.3.2. Requisitos Mínimos Recomendados 92 3.3.3. Límite Inferior Teórico 93 3.3.4. Método de Verificación 94 3.3.5. Protocolo de validación: 95 3.3.5.1. Ejecutar el script en el equipo de prueba. 95 3.3.5.2. Revisar la salida: 95 3.3.6. Conclusión 96 3.4. Análisis estadístico 96 3.4.1. Resultados 97 3.4.1.1. Mouse por cabeza: 98 3.4.1.2. Mouse por manos: 98 3.4.1.3. Control de presentación: 98 3.4.1.4. Control multimedia: 98 3.4.1.5. Control de sonido: 98 3.4.2. Contexto de Uso y Retroalimentación de Usuarios 99 3.4.3. Discusión 100 4. Conclusiones y recomendaciones 102 5. Referencias bibliográficas 106 A. Anexo: Manual: controla tu PC con gestos 113 B. Anexo: Video tutorial del manual de usuario 127 C. Anexo: Carpeta con el programa y complementos 127 D. Anexo: Imágenes de participantes 128 E. Anexo: Código fuente del sistema 144140 páginasapplication/pdfReinoso Varón, J. P. (2025). Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/5545https://hdl.handle.net/20.500.12313/5545spaUniversidad de IbaguéIngenieríaIbaguéIngeniería electrónicaD. A. Norman, Design of Everyday Things. MIT Press, 1998.“Uso del control por gestos en las modernas HMI de pantalla táctil”. Outdoor Industrial Monitor Extended Temperature IK10 Embedded HMI. Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.interelectronix.com/es/uso-del-control-por-gestos-en-las-modernas-hmi-de-pa ntalla-tactil.html#:~:text=El%20control%20por%20gestos%20puede,más%20amplio%20d e%20crear%20tecnologíasJ. R. Yost, M. Campbell-Kelly, W. Aspray y N. Ensmenger, Computer: A History of the Information Machine. Taylor Francis Group, 2018.J. Jeff, GUI Bloopers 2. 0: Common User Interface Design Don'ts and Dos. Elsevier Sci. Technol. Books, 2007.“Agilent Technologies’ revolutionary sensor technology powers Logitech’s new laser mouse.” Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.investor.agilent.com/news-and-events/news/news-details/2004/Agilent-Techn ologies-Revolutionary-Sensor-Technology-Powers-Logitechs-New-Laser-Mouse/default.a spxS. K. Card, Psychology of Human-Computer Interaction. Taylor Francis Group, 2018.K. D. Mankoff y T. A. Russo, “The Kinect: a low-cost, high-resolution, short-range 3D camera”, Earth Surf. Processes Landforms, vol. 38, n.º 9, pp. 926–936, julio de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1002/esp.3332A. S. Mohamed, N. F. Hassan y A. S. Jamil, “Real-Time Hand Gesture Recognition: A Comprehensive Review of Techniques, Applications, and Challenges”, Cybern. Inf. Technol., vol. 24, n.º 3, pp. 163–181, septiembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.2478/cait-2024-0031“Gesture-Based interactive digital exhibits | museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 28 de junio de 2025. [En Disponible: línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/Florida Atlantic University. “Sign Language Recognition Using Accurate ASL Gesture Detection System”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.php“Disability”. World Health Organization (WHO). Accedido el 1 de julio de 2025. [En línea]. Disponible: https://www.who.int/news-room/fact-sheets/detail/disability-and-health“Education and Disability: Analysis of Data from 49 Countries | UNESCO UIS”. UNESCO UIS. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://uis.unesco.org/en/news/education-and-disability-analysis-data-49-countriesD. K. Anson, Assistive Technology for People With Disabilities. ABC-CLIO, LLC, 2018. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.5040/9798400615559“Healthcare-associated infections”. European Centre for Disease Prevention and Control. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ecdc.europa.eu/en/healthcare-associated-infectionsR. Brooks, “The relationship between matter and life”, Nature, vol. 409, n.º 6818, pp. 409–411, enero de 2001. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1038/35053196J. Shotton et al., “Real-time human pose recognition in parts from single depth images”, Commun. ACM, vol. 56, n.º 1, pp. 116–124, enero de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1145/2398356.2398381K. Tate. “How the human/computer interface works (infographics)”. Live Science. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.livescience.com/37944-how-the-human-computer-interface-works-infographic s.htmlFile:Punch-card-blue.jpg - Wikimedia Commons. (14 de febrero de 2005). Accedido el de julio de 2025. https://commons.wikimedia.org/wiki/File:Punch-card-blue.jpg“Speech and gesture command recognition to improve human-robot interaction in manual assembly lines,” ERCIM News, nº 132, 2023. [En línea]. Disponible en: https://ercim-news.ercim.eu/en132/special/speech-and-gesture-command-recognition-to-i mprove-human-robot-interaction-in-manual-assembly-linesMicrosoft Corporation. File:PowerShell Core 7.1.5 with Windows Terminal.png - Wikimedia Commons. (17 de octubre de 2021). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:PowerShell_Core_7.1.5_with_Windows_Terminal .pngRaysonho. File:ComputerMouseCloseup3.jpg - Wikimedia Commons. (3 de mayo de 2015). el 1 de julio de 2025. [Imagen]. https://commons.wikimedia.org/wiki/File:ComputerMouseCloseup3.jpgRprpr. File:Ubuntu 16.04 Desktop screenshot.png - Wikimedia Commons. (27 de abril de 2016). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:Ubuntu_16.04_Desktop_screenshot.pngO. y. dados. Smartphone. (31 de marzo de 2015). Accedido el 1 de julio de 2025. [Fotografía]. Disponible: https://www.flickr.com/photos/128635328@N05/16993528795/C. Liu, J. -g. Liu, H. Sun, Y. Xu, and R. Kennel, “P1.9 - Rotational Speed Measurement Based on Laser Mouse Sensors,” Tagungsband, pp. 540–545, Jan. 2016, doi: 10.5162/sensoren2016/p1.9.T. Wydra. File:Laser mouse.jpg - Wikimedia Commons. (20 de febrero de 2009). Accedido 6 de julio de 2025. https://commons.wikimedia.org/wiki/File:Laser_mouse.jpgsuperapple4ever. Steve Jobs Introducing The iPhone At MacWorld 2007. (3 de diciembre de 2010). Accedido el 28 de junio de 2025. [Video en línea]. Disponible: https://www.youtube.com/watch?v=x7qPAY9JqE4R. Fernandez. File:iPhone 1st Gen.svg - Wikimedia Commons. (15 de octubre de 2017). el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:IPhone_1st_Gen.svgZ. Zhang, “Microsoft Kinect Sensor and Its Effect”, IEEE Multimed., vol. 19, n.º 2, pp. 4–10, febrero de 2012. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://doi.org/10.1109/mmul.2012.24E. Amos. File:Xbox-One-Kinect.jpg - Wikimedia Commons. (5 de junio de 2014). Accedido 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Xbox-One-Kinect.jpgV. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-controlLeap Motion Controller with SDK. (s. f.). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://www.adafruit.com/product/2106NASA. NASA Image and Video Library. (10 de octubre de 1990). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://images.nasa.gov/details-s41-02-028R. Sheldon, N. Barney y C. Bernstein. “What Is Face Detection and How Does It Work? | Definition from TechTarget”. Enterprise AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.techtarget.com/searchenterpriseai/definition/face-detection“How is Face Recognition Surveillance Technology Racist? | ACLU”. American Civil Liberties Union. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.aclu.org/news/privacy-technology/how-is-face-recognition-surveillance-techno logy-racistM. Oudah, A. Al-Naji y J. Chahl, “Hand Gesture Recognition Based on Computer Vision: A Review of Techniques”, J. Imag., vol. 6, n.º 8, p. 73, julio de 2020. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/jimaging6080073V. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-control“layout: forward target: https://developers.google.com/mediapipe/solutions/vision/hand_landmarker title: Hands parent: MediaPipe Legacy Solutions nav_order: 4 — MediaPipe v0.7.5 documentation”. MediaPipe — MediaPipe v0.7.5 documenta tion. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://mediapipe.readthedocs.io/en/latest/solutions/hands.htmlM. Linardakis, I. Varlamis y G. Papadopoulos. “Survey on Hand Gesture Recognition from Visual Input The research leading to these results received funding from the European Commission under Grant Agreement No. 101168042 (TRIFFID).” arXiv.org e-Print archive. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://arxiv.org/html/2501.11992v1M. Wu, “Gesture recognition based on deep learning: A review”, EAI Endorsed Trans. E-Learn., vol. 10, marzo de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.4108/eetel.5191“MediaPipe: A guide google's open source framework - viso.ai”. viso.ai. Accedido el 28 junio de 2025. [En línea]. Disponible: https://viso.ai/computer-vision/mediapipe/#:~:text=MediaPipe%20is%20an%20open-sourc e,such%20as%20video%20or%20audio.Kukil y P. Durai. “The ultimate guide to video processing”. MediaPipe. [En línea]. Disponible: https://learnopencv.com/introduction-to-mediapipe/Saiwa. “OpenPose vs. mediapipe | in-depth comparison for human pose estimation”. Medium. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://medium.com/@saiwadotai/openpose-vs-mediapipe-in-depth-comparison-for-huma n-pose-estimation-402c5a07b022“MediaPipe Vs OpenCV - QuickPose.ai”. QuickPose.ai. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://quickpose.ai/faqs/mediapipe-vs-opencv/“Complete guide to openpose [updated mar 2024]”. Ikomia | The fastest way to deploy Computer Vision AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ikomia.ai/blog/complete-openpose-guide“Hand gesture recognition system targets medical applications”. Home | Vision Systems Design. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.vision-systems.com/home/article/16739173/hand-gesture-recognition-system targets-medical-applicationsI. D. S. Chen et al., “Continuous recognition of teachers’ hand signals for students with attention deficits”, Algorithms, vol. 17, n.º 7, p. 300, julio de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/a17070300Florida Atlantic University. “Sign language recognition using accurate ASL gesture detection system”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.phpM. R. Huda, M. L. Ali y M. S. Sadi, “Developing a real-time hand-gesture recognition technique for wheelchair control”, PLOS One, vol. 20, n.º 4, abril de 2025, art. n.º e0319996. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1371/journal.pone.0319996“Gesture-Based Interactive Digital Exhibits | Museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 1 de julio de 2025. [En línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/L. Zhao, Z. Lin, R. Sun y A. Wang, “A review of state-of-the-art methodologies and applications in action recognition”, Electronics, vol. 13, n.º 23, p. 4733, noviembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/electronics13234733“Malla Facial (MediaPipe Face Mesh) ? | Python - MediaPipe - OpenCV » omes-va.com”. OMES. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://omes-va.com/malla-facial-mediapipe-python/Google. Guía de detección de puntos de referencia faciales | Google AI Edge | Google AI for Developers. (21 de mayo de 2024). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/face_landmarker?hl=es-419Auawise. File:Yaw Axis.svg - Wikimedia Commons. (31 de julio de 2008). Accedido el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Yaw_Axis.svgGoogle. Guía de detección de puntos de referencia en la mano | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/hand_landmarker?hl=es-419Google. Guía de detección de puntos de referencia de posiciones | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/pose_landmarker?hl=es-419info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)https://creativecommons.org/licenses/by-nc/4.0/Control por gestosAprendizaje automáticoControl de dispositivos - Sistema integradoMediapipe - ManualesPython - ManualesControl por gestosVisión por computadoraAprendizaje automáticoMediaPipeReconocimiento facial y manualInteracción hombre-máquinaAccesibilidad tecnológicaEntornos estérilesInterfaz sin contactoPythonProcesamiento en tiempo realGesture controlComputer visionMachine learningMediaPipeFacial and hand recognitionHuman-computer interactionTechnological accessibilitySterile environmentsTouchless interfacePythonReal-time processingSistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y PythonTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionPublicationORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf40169572https://repositorio.unibague.edu.co/bitstreams/e4df9833-551d-4263-a72e-3e339d919963/download89bc074fa5a32687482c1e96ac928ffcMD51Anexos1.rarAnexos1.rarapplication/octet-stream379421580https://repositorio.unibague.edu.co/bitstreams/b4a83cec-7c0a-4196-885e-ec8a3f269d2d/downloadff1731549b356a8a2802507c29ec6a90MD52Anexos2.rarAnexos2.rarapplication/octet-stream182018926https://repositorio.unibague.edu.co/bitstreams/f6514e98-bfb1-441e-b511-5b0d4933235a/download869802b96cbccc5b4a6f4735766377f2MD53Formato de autorización.pdfFormato de autorización.pdfapplication/pdf169566https://repositorio.unibague.edu.co/bitstreams/21b64717-d1cf-422f-b765-4055c844d3bb/download92ec8913eed98788960723c191fdb1d6MD54LICENSElicense.txtlicense.txttext/plain; charset=utf-8134https://repositorio.unibague.edu.co/bitstreams/bc8ff19b-597a-4f29-b024-a615acabb32b/download2fa3e590786b9c0f3ceba1b9656b7ac3MD55TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain101842https://repositorio.unibague.edu.co/bitstreams/63c842b2-1e6d-4d31-9ee8-a196b083db62/download5b8ecd75b1cb7b38878d9ec9c5e7bdedMD56Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain4020https://repositorio.unibague.edu.co/bitstreams/6da7e493-0122-4150-a593-8851ed7ea3b0/download89c45c193beee3107ca66ab23fdb179dMD58THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgIM Thumbnailimage/jpeg10112https://repositorio.unibague.edu.co/bitstreams/ce7e89fd-32b6-4ec7-9ec7-f0520036bf64/download538829e8b3edc68e29e5c2cc39f5058bMD57Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgIM Thumbnailimage/jpeg26391https://repositorio.unibague.edu.co/bitstreams/67e0c7c4-79c1-4f70-b617-aa3241e42cb0/download85fce3dae65542af4e0f96001cd5c2c9MD5920.500.12313/5545oai:repositorio.unibague.edu.co:20.500.12313/55452025-08-28 03:02:25.07https://creativecommons.org/licenses/by-nc/4.0/https://repositorio.unibague.edu.coRepositorio Institucional Universidad de Ibaguébdigital@metabiblioteca.comQ3JlYXRpdmUgQ29tbW9ucyBBdHRyaWJ1dGlvbi1Ob25Db21tZXJjaWFsLU5vRGVyaXZhdGl2ZXMgNC4wIEludGVybmF0aW9uYWwgTGljZW5zZQ0KaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8= |
