Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python

Este trabajo propone el desarrollo de un sistema interactivo para controlar dispositivos electrónicos mediante gestos manuales y faciales, utilizando tecnologías de visión por computadora y aprendizaje automático. El sistema se basa en MediaPipe, un framework de Google, y se implementa en Python par...

Full description

Autores:
Reinoso Varón, Juan Pablo
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2025
Institución:
Universidad de Ibagué
Repositorio:
Repositorio Universidad de Ibagué
Idioma:
spa
OAI Identifier:
oai:repositorio.unibague.edu.co:20.500.12313/5545
Acceso en línea:
https://hdl.handle.net/20.500.12313/5545
Palabra clave:
Control por gestos
Aprendizaje automático
Control de dispositivos - Sistema integrado
Mediapipe - Manuales
Python - Manuales
Control por gestos
Visión por computadora
Aprendizaje automático
MediaPipe
Reconocimiento facial y manual
Interacción hombre-máquina
Accesibilidad tecnológica
Entornos estériles
Interfaz sin contacto
Python
Procesamiento en tiempo real
Gesture control
Computer vision
Machine learning
MediaPipe
Facial and hand recognition
Human-computer interaction
Technological accessibility
Sterile environments
Touchless interface
Python
Real-time processing
Rights
openAccess
License
http://purl.org/coar/access_right/c_abf2
id UNIBAGUE2_ecdfc044cc557346cf7f2852e358fa63
oai_identifier_str oai:repositorio.unibague.edu.co:20.500.12313/5545
network_acronym_str UNIBAGUE2
network_name_str Repositorio Universidad de Ibagué
repository_id_str
dc.title.spa.fl_str_mv Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
title Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
spellingShingle Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
Control por gestos
Aprendizaje automático
Control de dispositivos - Sistema integrado
Mediapipe - Manuales
Python - Manuales
Control por gestos
Visión por computadora
Aprendizaje automático
MediaPipe
Reconocimiento facial y manual
Interacción hombre-máquina
Accesibilidad tecnológica
Entornos estériles
Interfaz sin contacto
Python
Procesamiento en tiempo real
Gesture control
Computer vision
Machine learning
MediaPipe
Facial and hand recognition
Human-computer interaction
Technological accessibility
Sterile environments
Touchless interface
Python
Real-time processing
title_short Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
title_full Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
title_fullStr Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
title_full_unstemmed Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
title_sort Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python
dc.creator.fl_str_mv Reinoso Varón, Juan Pablo
dc.contributor.advisor.none.fl_str_mv Ramírez Reinoso, Diego Fernando
dc.contributor.author.none.fl_str_mv Reinoso Varón, Juan Pablo
dc.subject.armarc.none.fl_str_mv Control por gestos
Aprendizaje automático
Control de dispositivos - Sistema integrado
Mediapipe - Manuales
Python - Manuales
topic Control por gestos
Aprendizaje automático
Control de dispositivos - Sistema integrado
Mediapipe - Manuales
Python - Manuales
Control por gestos
Visión por computadora
Aprendizaje automático
MediaPipe
Reconocimiento facial y manual
Interacción hombre-máquina
Accesibilidad tecnológica
Entornos estériles
Interfaz sin contacto
Python
Procesamiento en tiempo real
Gesture control
Computer vision
Machine learning
MediaPipe
Facial and hand recognition
Human-computer interaction
Technological accessibility
Sterile environments
Touchless interface
Python
Real-time processing
dc.subject.proposal.spa.fl_str_mv Control por gestos
Visión por computadora
Aprendizaje automático
MediaPipe
Reconocimiento facial y manual
Interacción hombre-máquina
Accesibilidad tecnológica
Entornos estériles
Interfaz sin contacto
Python
Procesamiento en tiempo real
dc.subject.proposal.eng.fl_str_mv Gesture control
Computer vision
Machine learning
MediaPipe
Facial and hand recognition
Human-computer interaction
Technological accessibility
Sterile environments
Touchless interface
Python
Real-time processing
description Este trabajo propone el desarrollo de un sistema interactivo para controlar dispositivos electrónicos mediante gestos manuales y faciales, utilizando tecnologías de visión por computadora y aprendizaje automático. El sistema se basa en MediaPipe, un framework de Google, y se implementa en Python para garantizar eficiencia en tiempo real y reducir falsos positivos. La metodología se basa en el procesamiento multihilo, algoritmos personalizados para diferenciar manos derecha/izquierda, y validación en entornos variables (iluminación, ángulos de cámara). Los resultados finales son un prototipo funcional tiene aplicación directa en entornos críticos como quirófanos (minimizando contacto físico con equipos), ambientes industriales estériles (operando maquinaria sin contaminación) y espacios educativos (fomentando aprendizaje interactivo). Pero su utilidad va más allá: también sirve para uso cotidiano y entretenimiento doméstico, y se convierte en una herramienta de accesibilidad clave para personas con movilidad reducida o limitaciones físicas, democratizando el control gestual de tecnología en cualquier contexto. La investigación contribuye a la accesibilidad tecnológica y ofrece una alternativa segura e intuitiva a las interfaces tradicionales.
publishDate 2025
dc.date.accessioned.none.fl_str_mv 2025-08-27T20:53:26Z
dc.date.available.none.fl_str_mv 2025-08-27T20:53:26Z
dc.date.issued.none.fl_str_mv 2025
dc.type.none.fl_str_mv Trabajo de grado - Pregrado
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.content.none.fl_str_mv Text
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.redcol.none.fl_str_mv http://purl.org/redcol/resource_type/TP
dc.type.version.none.fl_str_mv info:eu-repo/semantics/acceptedVersion
format http://purl.org/coar/resource_type/c_7a1f
status_str acceptedVersion
dc.identifier.citation.none.fl_str_mv Reinoso Varón, J. P. (2025). Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/5545
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12313/5545
identifier_str_mv Reinoso Varón, J. P. (2025). Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/5545
url https://hdl.handle.net/20.500.12313/5545
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv D. A. Norman, Design of Everyday Things. MIT Press, 1998.
“Uso del control por gestos en las modernas HMI de pantalla táctil”. Outdoor Industrial Monitor Extended Temperature IK10 Embedded HMI. Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.interelectronix.com/es/uso-del-control-por-gestos-en-las-modernas-hmi-de-pa ntalla-tactil.html#:~:text=El%20control%20por%20gestos%20puede,más%20amplio%20d e%20crear%20tecnologías
J. R. Yost, M. Campbell-Kelly, W. Aspray y N. Ensmenger, Computer: A History of the Information Machine. Taylor Francis Group, 2018.
J. Jeff, GUI Bloopers 2. 0: Common User Interface Design Don'ts and Dos. Elsevier Sci. Technol. Books, 2007.
“Agilent Technologies’ revolutionary sensor technology powers Logitech’s new laser mouse.” Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.investor.agilent.com/news-and-events/news/news-details/2004/Agilent-Techn ologies-Revolutionary-Sensor-Technology-Powers-Logitechs-New-Laser-Mouse/default.a spx
S. K. Card, Psychology of Human-Computer Interaction. Taylor Francis Group, 2018.
K. D. Mankoff y T. A. Russo, “The Kinect: a low-cost, high-resolution, short-range 3D camera”, Earth Surf. Processes Landforms, vol. 38, n.º 9, pp. 926–936, julio de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1002/esp.3332
A. S. Mohamed, N. F. Hassan y A. S. Jamil, “Real-Time Hand Gesture Recognition: A Comprehensive Review of Techniques, Applications, and Challenges”, Cybern. Inf. Technol., vol. 24, n.º 3, pp. 163–181, septiembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.2478/cait-2024-0031
“Gesture-Based interactive digital exhibits | museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 28 de junio de 2025. [En Disponible: línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/
Florida Atlantic University. “Sign Language Recognition Using Accurate ASL Gesture Detection System”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.php
“Disability”. World Health Organization (WHO). Accedido el 1 de julio de 2025. [En línea]. Disponible: https://www.who.int/news-room/fact-sheets/detail/disability-and-health
“Education and Disability: Analysis of Data from 49 Countries | UNESCO UIS”. UNESCO UIS. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://uis.unesco.org/en/news/education-and-disability-analysis-data-49-countries
D. K. Anson, Assistive Technology for People With Disabilities. ABC-CLIO, LLC, 2018. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.5040/9798400615559
“Healthcare-associated infections”. European Centre for Disease Prevention and Control. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ecdc.europa.eu/en/healthcare-associated-infections
R. Brooks, “The relationship between matter and life”, Nature, vol. 409, n.º 6818, pp. 409–411, enero de 2001. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1038/35053196
J. Shotton et al., “Real-time human pose recognition in parts from single depth images”, Commun. ACM, vol. 56, n.º 1, pp. 116–124, enero de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1145/2398356.2398381
K. Tate. “How the human/computer interface works (infographics)”. Live Science. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.livescience.com/37944-how-the-human-computer-interface-works-infographic s.html
File:Punch-card-blue.jpg - Wikimedia Commons. (14 de febrero de 2005). Accedido el de julio de 2025. https://commons.wikimedia.org/wiki/File:Punch-card-blue.jpg
“Speech and gesture command recognition to improve human-robot interaction in manual assembly lines,” ERCIM News, nº 132, 2023. [En línea]. Disponible en: https://ercim-news.ercim.eu/en132/special/speech-and-gesture-command-recognition-to-i mprove-human-robot-interaction-in-manual-assembly-lines
Microsoft Corporation. File:PowerShell Core 7.1.5 with Windows Terminal.png - Wikimedia Commons. (17 de octubre de 2021). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:PowerShell_Core_7.1.5_with_Windows_Terminal .png
Raysonho. File:ComputerMouseCloseup3.jpg - Wikimedia Commons. (3 de mayo de 2015). el 1 de julio de 2025. [Imagen]. https://commons.wikimedia.org/wiki/File:ComputerMouseCloseup3.jpg
Rprpr. File:Ubuntu 16.04 Desktop screenshot.png - Wikimedia Commons. (27 de abril de 2016). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:Ubuntu_16.04_Desktop_screenshot.png
O. y. dados. Smartphone. (31 de marzo de 2015). Accedido el 1 de julio de 2025. [Fotografía]. Disponible: https://www.flickr.com/photos/128635328@N05/16993528795/
C. Liu, J. -g. Liu, H. Sun, Y. Xu, and R. Kennel, “P1.9 - Rotational Speed Measurement Based on Laser Mouse Sensors,” Tagungsband, pp. 540–545, Jan. 2016, doi: 10.5162/sensoren2016/p1.9.
T. Wydra. File:Laser mouse.jpg - Wikimedia Commons. (20 de febrero de 2009). Accedido 6 de julio de 2025. https://commons.wikimedia.org/wiki/File:Laser_mouse.jpg
superapple4ever. Steve Jobs Introducing The iPhone At MacWorld 2007. (3 de diciembre de 2010). Accedido el 28 de junio de 2025. [Video en línea]. Disponible: https://www.youtube.com/watch?v=x7qPAY9JqE4
R. Fernandez. File:iPhone 1st Gen.svg - Wikimedia Commons. (15 de octubre de 2017). el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:IPhone_1st_Gen.svg
Z. Zhang, “Microsoft Kinect Sensor and Its Effect”, IEEE Multimed., vol. 19, n.º 2, pp. 4–10, febrero de 2012. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://doi.org/10.1109/mmul.2012.24
E. Amos. File:Xbox-One-Kinect.jpg - Wikimedia Commons. (5 de junio de 2014). Accedido 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Xbox-One-Kinect.jpg
V. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-control
Leap Motion Controller with SDK. (s. f.). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://www.adafruit.com/product/2106
NASA. NASA Image and Video Library. (10 de octubre de 1990). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://images.nasa.gov/details-s41-02-028
R. Sheldon, N. Barney y C. Bernstein. “What Is Face Detection and How Does It Work? | Definition from TechTarget”. Enterprise AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.techtarget.com/searchenterpriseai/definition/face-detection
“How is Face Recognition Surveillance Technology Racist? | ACLU”. American Civil Liberties Union. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.aclu.org/news/privacy-technology/how-is-face-recognition-surveillance-techno logy-racist
M. Oudah, A. Al-Naji y J. Chahl, “Hand Gesture Recognition Based on Computer Vision: A Review of Techniques”, J. Imag., vol. 6, n.º 8, p. 73, julio de 2020. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/jimaging6080073
V. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-control
“layout: forward target: https://developers.google.com/mediapipe/solutions/vision/hand_landmarker title: Hands parent: MediaPipe Legacy Solutions nav_order: 4 — MediaPipe v0.7.5 documentation”. MediaPipe — MediaPipe v0.7.5 documenta tion. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://mediapipe.readthedocs.io/en/latest/solutions/hands.html
M. Linardakis, I. Varlamis y G. Papadopoulos. “Survey on Hand Gesture Recognition from Visual Input The research leading to these results received funding from the European Commission under Grant Agreement No. 101168042 (TRIFFID).” arXiv.org e-Print archive. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://arxiv.org/html/2501.11992v1
M. Wu, “Gesture recognition based on deep learning: A review”, EAI Endorsed Trans. E-Learn., vol. 10, marzo de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.4108/eetel.5191
“MediaPipe: A guide google's open source framework - viso.ai”. viso.ai. Accedido el 28 junio de 2025. [En línea]. Disponible: https://viso.ai/computer-vision/mediapipe/#:~:text=MediaPipe%20is%20an%20open-sourc e,such%20as%20video%20or%20audio.
Kukil y P. Durai. “The ultimate guide to video processing”. MediaPipe. [En línea]. Disponible: https://learnopencv.com/introduction-to-mediapipe/
Saiwa. “OpenPose vs. mediapipe | in-depth comparison for human pose estimation”. Medium. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://medium.com/@saiwadotai/openpose-vs-mediapipe-in-depth-comparison-for-huma n-pose-estimation-402c5a07b022
“MediaPipe Vs OpenCV - QuickPose.ai”. QuickPose.ai. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://quickpose.ai/faqs/mediapipe-vs-opencv/
“Complete guide to openpose [updated mar 2024]”. Ikomia | The fastest way to deploy Computer Vision AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ikomia.ai/blog/complete-openpose-guide
“Hand gesture recognition system targets medical applications”. Home | Vision Systems Design. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.vision-systems.com/home/article/16739173/hand-gesture-recognition-system targets-medical-applications
I. D. S. Chen et al., “Continuous recognition of teachers’ hand signals for students with attention deficits”, Algorithms, vol. 17, n.º 7, p. 300, julio de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/a17070300
Florida Atlantic University. “Sign language recognition using accurate ASL gesture detection system”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.php
M. R. Huda, M. L. Ali y M. S. Sadi, “Developing a real-time hand-gesture recognition technique for wheelchair control”, PLOS One, vol. 20, n.º 4, abril de 2025, art. n.º e0319996. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1371/journal.pone.0319996
“Gesture-Based Interactive Digital Exhibits | Museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 1 de julio de 2025. [En línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/
L. Zhao, Z. Lin, R. Sun y A. Wang, “A review of state-of-the-art methodologies and applications in action recognition”, Electronics, vol. 13, n.º 23, p. 4733, noviembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/electronics13234733
“Malla Facial (MediaPipe Face Mesh) ? | Python - MediaPipe - OpenCV » omes-va.com”. OMES. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://omes-va.com/malla-facial-mediapipe-python/
Google. Guía de detección de puntos de referencia faciales | Google AI Edge | Google AI for Developers. (21 de mayo de 2024). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/face_landmarker?hl=es-419
Auawise. File:Yaw Axis.svg - Wikimedia Commons. (31 de julio de 2008). Accedido el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Yaw_Axis.svg
Google. Guía de detección de puntos de referencia en la mano | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/hand_landmarker?hl=es-419
Google. Guía de detección de puntos de referencia de posiciones | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/pose_landmarker?hl=es-419
dc.rights.accessrights.none.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.coar.none.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.license.none.fl_str_mv Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
dc.rights.uri.none.fl_str_mv https://creativecommons.org/licenses/by-nc/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://purl.org/coar/access_right/c_abf2
Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)
https://creativecommons.org/licenses/by-nc/4.0/
dc.format.extent.none.fl_str_mv 140 páginas
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidad de Ibagué
dc.publisher.faculty.none.fl_str_mv Ingeniería
dc.publisher.place.none.fl_str_mv Ibagué
dc.publisher.program.none.fl_str_mv Ingeniería electrónica
publisher.none.fl_str_mv Universidad de Ibagué
institution Universidad de Ibagué
bitstream.url.fl_str_mv https://repositorio.unibague.edu.co/bitstreams/e4df9833-551d-4263-a72e-3e339d919963/download
https://repositorio.unibague.edu.co/bitstreams/b4a83cec-7c0a-4196-885e-ec8a3f269d2d/download
https://repositorio.unibague.edu.co/bitstreams/f6514e98-bfb1-441e-b511-5b0d4933235a/download
https://repositorio.unibague.edu.co/bitstreams/21b64717-d1cf-422f-b765-4055c844d3bb/download
https://repositorio.unibague.edu.co/bitstreams/bc8ff19b-597a-4f29-b024-a615acabb32b/download
https://repositorio.unibague.edu.co/bitstreams/63c842b2-1e6d-4d31-9ee8-a196b083db62/download
https://repositorio.unibague.edu.co/bitstreams/6da7e493-0122-4150-a593-8851ed7ea3b0/download
https://repositorio.unibague.edu.co/bitstreams/ce7e89fd-32b6-4ec7-9ec7-f0520036bf64/download
https://repositorio.unibague.edu.co/bitstreams/67e0c7c4-79c1-4f70-b617-aa3241e42cb0/download
bitstream.checksum.fl_str_mv 89bc074fa5a32687482c1e96ac928ffc
ff1731549b356a8a2802507c29ec6a90
869802b96cbccc5b4a6f4735766377f2
92ec8913eed98788960723c191fdb1d6
2fa3e590786b9c0f3ceba1b9656b7ac3
5b8ecd75b1cb7b38878d9ec9c5e7bded
89c45c193beee3107ca66ab23fdb179d
538829e8b3edc68e29e5c2cc39f5058b
85fce3dae65542af4e0f96001cd5c2c9
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad de Ibagué
repository.mail.fl_str_mv bdigital@metabiblioteca.com
_version_ 1851059992411504640
spelling Ramírez Reinoso, Diego Fernando395f57a2-0bd5-42a4-b37c-922da1550eee-1Reinoso Varón, Juan Pablo00080bf3-a8b8-4666-a2b8-207cf821b78a-12025-08-27T20:53:26Z2025-08-27T20:53:26Z2025Este trabajo propone el desarrollo de un sistema interactivo para controlar dispositivos electrónicos mediante gestos manuales y faciales, utilizando tecnologías de visión por computadora y aprendizaje automático. El sistema se basa en MediaPipe, un framework de Google, y se implementa en Python para garantizar eficiencia en tiempo real y reducir falsos positivos. La metodología se basa en el procesamiento multihilo, algoritmos personalizados para diferenciar manos derecha/izquierda, y validación en entornos variables (iluminación, ángulos de cámara). Los resultados finales son un prototipo funcional tiene aplicación directa en entornos críticos como quirófanos (minimizando contacto físico con equipos), ambientes industriales estériles (operando maquinaria sin contaminación) y espacios educativos (fomentando aprendizaje interactivo). Pero su utilidad va más allá: también sirve para uso cotidiano y entretenimiento doméstico, y se convierte en una herramienta de accesibilidad clave para personas con movilidad reducida o limitaciones físicas, democratizando el control gestual de tecnología en cualquier contexto. La investigación contribuye a la accesibilidad tecnológica y ofrece una alternativa segura e intuitiva a las interfaces tradicionales.This work proposes the development of an interactive system to control electronic devices through hand and facial gestures, using computer vision and machine learning technologies. The system is based on MediaPipe, a Google framework, and implemented in Python to ensure real-time efficiency and reduce false positives. The methodology includes multithreaded processing, custom algorithms to differentiate right/left hands, and validation in variable environments (lighting, camera angles). The final result is a functional prototype with direct application in critical environments such as operating rooms (minimizing physical contact with equipment), sterile industrial settings (operating machinery without contamination), and educational spaces (promoting interactive learning). However, its usefulness goes further: it also serves everyday use and home entertainment, becoming a key accessibility tool for people with reduced mobility or physical limitations, democratizing gesture control of technology in any context. The research contributes to technological accessibility and offers a safe and intuitive alternative to traditional interfaces.PregradoIngeniero electrónicoResumen V Lista de figuras XI Lista de tablas XV Lista de Símbolos y abreviaturas XVI Introducción 1 Justificación 5 Objetivos 5 Objetivo General 5 Objetivos Específicos: 6 1. Marco teórico 7 1.1. Evolución de los sistemas de control de dispositivos 7 1.1.1. Tarjetas perforadas 7 1.1.2. Línea de comandos 8 1.1.3. Mouse optico 9 1.1.4. Interfaces Gráficas (GUI) 10 1.1.5. Pantallas táctiles 11 1.1.6. El ratón láser 12 1.1.7. Apple revoluciona con el iPhone táctil multitáctil 13 1.1.8. Microsoft lanza Kinect, un sensor de profundidad 3D 14 1.1.9. Leap Motion presenta un controlador de gestos manuales 15 1.1.10. Interfaces de voz 16 1.2. Sistemas de reconocimiento facial y de gestos 17 1.2.1. Reconocimiento facial 17 1.2.1.1. Ventajas: 18 1.2.1.2. Desventajas: 18 1.2.2. Reconocimiento de gestos manuales y corporales 18 1.2.2.1. Ventajas: 19 1.2.2.2. Desventajas: 20 1.3. Python y MediaPipe 20 1.3.1. Python 20 1.3.2. MediaPipe 20 1.3.3. Implementación y ventajas 21 1.3.4. Desventajas 21 1.4. Comparaciones críticas de librerías, frameworks y lenguajes 22 1.4.1. MediaPipe (Google): 22 1.4.2. OpenCV (Intel): 22 1.4.3. OpenPose (CMU): 23 1.4.4. Frameworks ML (TensorFlow, PyTorch, Detectron, etc.): 23 1.4.5. Lenguajes (Python vs C++ vs JavaScript): 23 1.5. Aplicaciones y casos de Estudio 24 1.5.1. Entornos médicos 24 1.5.2. Industria 24 1.5.3. Educación interactiva 25 1.5.4. Accesibilidad 25 1.5.5. Entretenimiento 26 1.6. Estado del arte y tendencias actuales 26 1.6.1. Modelos híbridos y multimodales: 26 1.6.2. Eficiencia y despliegue en el borde: 27 1.6.3. Visión 3D y seguimiento avanzado: 27 1.6.4. Nuevas interfaces y aplicaciones: 27 1.6.5. Desafíos éticos y de datos: 27 2. Diseño del sistema 29 2.1. Módulo face_p1.py: detección y análisis facial 3D 29 2.1.1. Clase OptimizedFaceDetector y método find_faces() 30 2.1.2. Extracción de coordenadas faciales 32 2.1.3. Posición completa del rostro: get_face_position() 33 2.1.4. Medidas geométricas en 2D: distancias y ángulos 34 2.1.5. Orientación del rostro en 3D 35 2.2. Módulo hands_p1.py: detección y análisis de manos 38 2.2.1. Clase OptimizedHandDetector y configuración inicial 39 2.2.2. Extracción de información de manos 40 2.3. Módulo body_p1: detección y análisis corporal. 46 2.4. Análisis técnico del módulo verify_p1.py 49 2.5. Transición: de módulos de detección a aplicaciones gestuales 51 2.6. Módulo sonido_p2 (AudioGestureController) 52 2.6.1. Activación del control de volumen: 53 2.6.2. Subir/Bajar volumen: 53 2.6.3. Silencio/Mute: 54 2.6.4. Seguridad y estados: 54 2.6.5. Flujo de datos y arquitectura: 54 2.7. Módulo peli_p2 (MediaGestureController) 55 2.7.1. Inicialización: 56 2.7.2. Proceso de cada frame (process_frame): 56 2.7.3. Control de volumen (gestos manuales): 57 2.7.4. Estados y bloqueo de gestos: 58 2.7.5. Arquitectura interna: 59 2.8. Módulo present_p2 (PresentationController) 60 2.8.1. Inicialización: 60 2.8.2. Captura y detección principal: 60 2.8.3. Interfaz de selección: 62 2.8.4. Detalles de implementación: 62 2.8.5. Fundamentos y geometría: 63 2.8.6. Diagrama conceptual: 63 2.8.7. Comparación con enfoques alternativos: 64 2.9. Módulo mouse_p2 (GestureMouseController) 64 2.10. Módulo girosmouse_p1 (FaceGyroMouse) 68 2.11. Módulo gráfica (Interfaz Gráfica del Sistema) 71 2.11.1. Fundamentos técnicos de la interfaz gráfica 71 2.11.2. Componentes y disposición de la GUI 73 2.11.2.1. Panel de control (izquierda): 74 2.11.2.2. Panel de video (derecha): 75 2.11.2.3. Panel de manual (oculto inicialmente): 75 2.11.3. Integración con los módulos biométricos 76 2.12. Diagrama de Flujo Completo (Nivel Global) 80 2.12.1. Inicialización: 81 2.12.2. Gestión de modos: 81 2.12.3. Bucle principal por modo: 81 2.12.4. Modo Manual: 81 2.12.5. Gestión de eventos: 81 2.12.6. Secuencia de cierre: 82 2.12.7. Manejo robusto de errores: 82 2.12.8. Subprocesos concurrentes: 82 2.12.9. Componentes críticos integrados: 82 3. Resultados y Validación 83 3.1. Implementación Funcional 83 3.2. Casos de Prueba 88 3.2.1. Control de cursor por cabeza: 88 3.2.2. Control de cursor por manos: 89 3.2.3. Control de presentación: 89 3.2.4. Control multimedia: 89 3.2.5. Control de audio: 90 3.3. Pruebas de Rendimiento 90 3.3.1. Entradas: 90 3.3.2. Requisitos Mínimos Recomendados 92 3.3.3. Límite Inferior Teórico 93 3.3.4. Método de Verificación 94 3.3.5. Protocolo de validación: 95 3.3.5.1. Ejecutar el script en el equipo de prueba. 95 3.3.5.2. Revisar la salida: 95 3.3.6. Conclusión 96 3.4. Análisis estadístico 96 3.4.1. Resultados 97 3.4.1.1. Mouse por cabeza: 98 3.4.1.2. Mouse por manos: 98 3.4.1.3. Control de presentación: 98 3.4.1.4. Control multimedia: 98 3.4.1.5. Control de sonido: 98 3.4.2. Contexto de Uso y Retroalimentación de Usuarios 99 3.4.3. Discusión 100 4. Conclusiones y recomendaciones 102 5. Referencias bibliográficas 106 A. Anexo: Manual: controla tu PC con gestos 113 B. Anexo: Video tutorial del manual de usuario 127 C. Anexo: Carpeta con el programa y complementos 127 D. Anexo: Imágenes de participantes 128 E. Anexo: Código fuente del sistema 144140 páginasapplication/pdfReinoso Varón, J. P. (2025). Sistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y Python. [Trabajo de grado, Universidad de Ibagué]. https://hdl.handle.net/20.500.12313/5545https://hdl.handle.net/20.500.12313/5545spaUniversidad de IbaguéIngenieríaIbaguéIngeniería electrónicaD. A. Norman, Design of Everyday Things. MIT Press, 1998.“Uso del control por gestos en las modernas HMI de pantalla táctil”. Outdoor Industrial Monitor Extended Temperature IK10 Embedded HMI. Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.interelectronix.com/es/uso-del-control-por-gestos-en-las-modernas-hmi-de-pa ntalla-tactil.html#:~:text=El%20control%20por%20gestos%20puede,más%20amplio%20d e%20crear%20tecnologíasJ. R. Yost, M. Campbell-Kelly, W. Aspray y N. Ensmenger, Computer: A History of the Information Machine. Taylor Francis Group, 2018.J. Jeff, GUI Bloopers 2. 0: Common User Interface Design Don'ts and Dos. Elsevier Sci. Technol. Books, 2007.“Agilent Technologies’ revolutionary sensor technology powers Logitech’s new laser mouse.” Accedido el 6 de julio de 2025. [En línea]. Disponible: https://www.investor.agilent.com/news-and-events/news/news-details/2004/Agilent-Techn ologies-Revolutionary-Sensor-Technology-Powers-Logitechs-New-Laser-Mouse/default.a spxS. K. Card, Psychology of Human-Computer Interaction. Taylor Francis Group, 2018.K. D. Mankoff y T. A. Russo, “The Kinect: a low-cost, high-resolution, short-range 3D camera”, Earth Surf. Processes Landforms, vol. 38, n.º 9, pp. 926–936, julio de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1002/esp.3332A. S. Mohamed, N. F. Hassan y A. S. Jamil, “Real-Time Hand Gesture Recognition: A Comprehensive Review of Techniques, Applications, and Challenges”, Cybern. Inf. Technol., vol. 24, n.º 3, pp. 163–181, septiembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.2478/cait-2024-0031“Gesture-Based interactive digital exhibits | museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 28 de junio de 2025. [En Disponible: línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/Florida Atlantic University. “Sign Language Recognition Using Accurate ASL Gesture Detection System”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.php“Disability”. World Health Organization (WHO). Accedido el 1 de julio de 2025. [En línea]. Disponible: https://www.who.int/news-room/fact-sheets/detail/disability-and-health“Education and Disability: Analysis of Data from 49 Countries | UNESCO UIS”. UNESCO UIS. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://uis.unesco.org/en/news/education-and-disability-analysis-data-49-countriesD. K. Anson, Assistive Technology for People With Disabilities. ABC-CLIO, LLC, 2018. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.5040/9798400615559“Healthcare-associated infections”. European Centre for Disease Prevention and Control. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ecdc.europa.eu/en/healthcare-associated-infectionsR. Brooks, “The relationship between matter and life”, Nature, vol. 409, n.º 6818, pp. 409–411, enero de 2001. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1038/35053196J. Shotton et al., “Real-time human pose recognition in parts from single depth images”, Commun. ACM, vol. 56, n.º 1, pp. 116–124, enero de 2013. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1145/2398356.2398381K. Tate. “How the human/computer interface works (infographics)”. Live Science. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.livescience.com/37944-how-the-human-computer-interface-works-infographic s.htmlFile:Punch-card-blue.jpg - Wikimedia Commons. (14 de febrero de 2005). Accedido el de julio de 2025. https://commons.wikimedia.org/wiki/File:Punch-card-blue.jpg“Speech and gesture command recognition to improve human-robot interaction in manual assembly lines,” ERCIM News, nº 132, 2023. [En línea]. Disponible en: https://ercim-news.ercim.eu/en132/special/speech-and-gesture-command-recognition-to-i mprove-human-robot-interaction-in-manual-assembly-linesMicrosoft Corporation. File:PowerShell Core 7.1.5 with Windows Terminal.png - Wikimedia Commons. (17 de octubre de 2021). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:PowerShell_Core_7.1.5_with_Windows_Terminal .pngRaysonho. File:ComputerMouseCloseup3.jpg - Wikimedia Commons. (3 de mayo de 2015). el 1 de julio de 2025. [Imagen]. https://commons.wikimedia.org/wiki/File:ComputerMouseCloseup3.jpgRprpr. File:Ubuntu 16.04 Desktop screenshot.png - Wikimedia Commons. (27 de abril de 2016). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://commons.wikimedia.org/wiki/File:Ubuntu_16.04_Desktop_screenshot.pngO. y. dados. Smartphone. (31 de marzo de 2015). Accedido el 1 de julio de 2025. [Fotografía]. Disponible: https://www.flickr.com/photos/128635328@N05/16993528795/C. Liu, J. -g. Liu, H. Sun, Y. Xu, and R. Kennel, “P1.9 - Rotational Speed Measurement Based on Laser Mouse Sensors,” Tagungsband, pp. 540–545, Jan. 2016, doi: 10.5162/sensoren2016/p1.9.T. Wydra. File:Laser mouse.jpg - Wikimedia Commons. (20 de febrero de 2009). Accedido 6 de julio de 2025. https://commons.wikimedia.org/wiki/File:Laser_mouse.jpgsuperapple4ever. Steve Jobs Introducing The iPhone At MacWorld 2007. (3 de diciembre de 2010). Accedido el 28 de junio de 2025. [Video en línea]. Disponible: https://www.youtube.com/watch?v=x7qPAY9JqE4R. Fernandez. File:iPhone 1st Gen.svg - Wikimedia Commons. (15 de octubre de 2017). el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:IPhone_1st_Gen.svgZ. Zhang, “Microsoft Kinect Sensor and Its Effect”, IEEE Multimed., vol. 19, n.º 2, pp. 4–10, febrero de 2012. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://doi.org/10.1109/mmul.2012.24E. Amos. File:Xbox-One-Kinect.jpg - Wikimedia Commons. (5 de junio de 2014). Accedido 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Xbox-One-Kinect.jpgV. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-controlLeap Motion Controller with SDK. (s. f.). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://www.adafruit.com/product/2106NASA. NASA Image and Video Library. (10 de octubre de 1990). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://images.nasa.gov/details-s41-02-028R. Sheldon, N. Barney y C. Bernstein. “What Is Face Detection and How Does It Work? | Definition from TechTarget”. Enterprise AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.techtarget.com/searchenterpriseai/definition/face-detection“How is Face Recognition Surveillance Technology Racist? | ACLU”. American Civil Liberties Union. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.aclu.org/news/privacy-technology/how-is-face-recognition-surveillance-techno logy-racistM. Oudah, A. Al-Naji y J. Chahl, “Hand Gesture Recognition Based on Computer Vision: A Review of Techniques”, J. Imag., vol. 6, n.º 8, p. 73, julio de 2020. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/jimaging6080073V. Staff. “Leap Motion’s gesture control quest continues with the Leap Motion Controller 2”. The Verge. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.theverge.com/2013/5/21/4351588/leap-motion-gesture-control“layout: forward target: https://developers.google.com/mediapipe/solutions/vision/hand_landmarker title: Hands parent: MediaPipe Legacy Solutions nav_order: 4 — MediaPipe v0.7.5 documentation”. MediaPipe — MediaPipe v0.7.5 documenta tion. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://mediapipe.readthedocs.io/en/latest/solutions/hands.htmlM. Linardakis, I. Varlamis y G. Papadopoulos. “Survey on Hand Gesture Recognition from Visual Input The research leading to these results received funding from the European Commission under Grant Agreement No. 101168042 (TRIFFID).” arXiv.org e-Print archive. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://arxiv.org/html/2501.11992v1M. Wu, “Gesture recognition based on deep learning: A review”, EAI Endorsed Trans. E-Learn., vol. 10, marzo de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.4108/eetel.5191“MediaPipe: A guide google's open source framework - viso.ai”. viso.ai. Accedido el 28 junio de 2025. [En línea]. Disponible: https://viso.ai/computer-vision/mediapipe/#:~:text=MediaPipe%20is%20an%20open-sourc e,such%20as%20video%20or%20audio.Kukil y P. Durai. “The ultimate guide to video processing”. MediaPipe. [En línea]. Disponible: https://learnopencv.com/introduction-to-mediapipe/Saiwa. “OpenPose vs. mediapipe | in-depth comparison for human pose estimation”. Medium. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://medium.com/@saiwadotai/openpose-vs-mediapipe-in-depth-comparison-for-huma n-pose-estimation-402c5a07b022“MediaPipe Vs OpenCV - QuickPose.ai”. QuickPose.ai. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://quickpose.ai/faqs/mediapipe-vs-opencv/“Complete guide to openpose [updated mar 2024]”. Ikomia | The fastest way to deploy Computer Vision AI. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.ikomia.ai/blog/complete-openpose-guide“Hand gesture recognition system targets medical applications”. Home | Vision Systems Design. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.vision-systems.com/home/article/16739173/hand-gesture-recognition-system targets-medical-applicationsI. D. S. Chen et al., “Continuous recognition of teachers’ hand signals for students with attention deficits”, Algorithms, vol. 17, n.º 7, p. 300, julio de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/a17070300Florida Atlantic University. “Sign language recognition using accurate ASL gesture detection system”. Disabled World. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://www.disabled-world.com/assistivedevices/ai/asl-ai.phpM. R. Huda, M. L. Ali y M. S. Sadi, “Developing a real-time hand-gesture recognition technique for wheelchair control”, PLOS One, vol. 20, n.º 4, abril de 2025, art. n.º e0319996. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.1371/journal.pone.0319996“Gesture-Based Interactive Digital Exhibits | Museums”. Digital Interactive Exhibits for Museums - AV Immersive Experiences - App Development. Accedido el 1 de julio de 2025. [En línea]. https://www.ambientinteractive.com/gesture-based-interactive-digital-exhibits/L. Zhao, Z. Lin, R. Sun y A. Wang, “A review of state-of-the-art methodologies and applications in action recognition”, Electronics, vol. 13, n.º 23, p. 4733, noviembre de 2024. Accedido el 28 de junio de 2025. [En línea]. Disponible: https://doi.org/10.3390/electronics13234733“Malla Facial (MediaPipe Face Mesh) ? | Python - MediaPipe - OpenCV » omes-va.com”. OMES. Accedido el 1 de julio de 2025. [En línea]. Disponible: https://omes-va.com/malla-facial-mediapipe-python/Google. Guía de detección de puntos de referencia faciales | Google AI Edge | Google AI for Developers. (21 de mayo de 2024). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/face_landmarker?hl=es-419Auawise. File:Yaw Axis.svg - Wikimedia Commons. (31 de julio de 2008). Accedido el 1 de julio de 2025. https://commons.wikimedia.org/wiki/File:Yaw_Axis.svgGoogle. Guía de detección de puntos de referencia en la mano | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/hand_landmarker?hl=es-419Google. Guía de detección de puntos de referencia de posiciones | Google AI Edge | Google AI for Developers. (13 de enero de 2025). Accedido el 1 de julio de 2025. [Imagen]. Disponible: https://ai.google.dev/edge/mediapipe/solutions/vision/pose_landmarker?hl=es-419info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial 4.0 Internacional (CC BY-NC 4.0)https://creativecommons.org/licenses/by-nc/4.0/Control por gestosAprendizaje automáticoControl de dispositivos - Sistema integradoMediapipe - ManualesPython - ManualesControl por gestosVisión por computadoraAprendizaje automáticoMediaPipeReconocimiento facial y manualInteracción hombre-máquinaAccesibilidad tecnológicaEntornos estérilesInterfaz sin contactoPythonProcesamiento en tiempo realGesture controlComputer visionMachine learningMediaPipeFacial and hand recognitionHuman-computer interactionTechnological accessibilitySterile environmentsTouchless interfacePythonReal-time processingSistema integrado de control de dispositivos mediante reconocimiento avanzado de posturas, gestos faciales y manuales con Mediapipe y PythonTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionPublicationORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf40169572https://repositorio.unibague.edu.co/bitstreams/e4df9833-551d-4263-a72e-3e339d919963/download89bc074fa5a32687482c1e96ac928ffcMD51Anexos1.rarAnexos1.rarapplication/octet-stream379421580https://repositorio.unibague.edu.co/bitstreams/b4a83cec-7c0a-4196-885e-ec8a3f269d2d/downloadff1731549b356a8a2802507c29ec6a90MD52Anexos2.rarAnexos2.rarapplication/octet-stream182018926https://repositorio.unibague.edu.co/bitstreams/f6514e98-bfb1-441e-b511-5b0d4933235a/download869802b96cbccc5b4a6f4735766377f2MD53Formato de autorización.pdfFormato de autorización.pdfapplication/pdf169566https://repositorio.unibague.edu.co/bitstreams/21b64717-d1cf-422f-b765-4055c844d3bb/download92ec8913eed98788960723c191fdb1d6MD54LICENSElicense.txtlicense.txttext/plain; charset=utf-8134https://repositorio.unibague.edu.co/bitstreams/bc8ff19b-597a-4f29-b024-a615acabb32b/download2fa3e590786b9c0f3ceba1b9656b7ac3MD55TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain101842https://repositorio.unibague.edu.co/bitstreams/63c842b2-1e6d-4d31-9ee8-a196b083db62/download5b8ecd75b1cb7b38878d9ec9c5e7bdedMD56Formato de autorización.pdf.txtFormato de autorización.pdf.txtExtracted texttext/plain4020https://repositorio.unibague.edu.co/bitstreams/6da7e493-0122-4150-a593-8851ed7ea3b0/download89c45c193beee3107ca66ab23fdb179dMD58THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgIM Thumbnailimage/jpeg10112https://repositorio.unibague.edu.co/bitstreams/ce7e89fd-32b6-4ec7-9ec7-f0520036bf64/download538829e8b3edc68e29e5c2cc39f5058bMD57Formato de autorización.pdf.jpgFormato de autorización.pdf.jpgIM Thumbnailimage/jpeg26391https://repositorio.unibague.edu.co/bitstreams/67e0c7c4-79c1-4f70-b617-aa3241e42cb0/download85fce3dae65542af4e0f96001cd5c2c9MD5920.500.12313/5545oai:repositorio.unibague.edu.co:20.500.12313/55452025-08-28 03:02:25.07https://creativecommons.org/licenses/by-nc/4.0/https://repositorio.unibague.edu.coRepositorio Institucional Universidad de Ibaguébdigital@metabiblioteca.comQ3JlYXRpdmUgQ29tbW9ucyBBdHRyaWJ1dGlvbi1Ob25Db21tZXJjaWFsLU5vRGVyaXZhdGl2ZXMgNC4wIEludGVybmF0aW9uYWwgTGljZW5zZQ0KaHR0cHM6Ly9jcmVhdGl2ZWNvbW1vbnMub3JnL2xpY2Vuc2VzL2J5LW5jLW5kLzQuMC8=