Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor

Una fuente emergente de información para reconocer las características de los individuos son los parámetros relacionados con el patrón de marcha. Los ancianos pueden ser uno de los grupos de población que más se beneficien de las aplicaciones basadas en el reconocimiento, lo que puede contribuir a a...

Full description

Autores:
Pulido Herrera, Edith
Ruiz Olaya, Andrés F.
Sierra Bueno, Daniel A.
Tipo de recurso:
Article of journal
Fecha de publicación:
2023
Institución:
Universidad El Bosque
Repositorio:
Repositorio U. El Bosque
Idioma:
eng
OAI Identifier:
oai:repositorio.unbosque.edu.co:20.500.12495/10137
Acceso en línea:
http://hdl.handle.net/20.500.12495/10137
https://doi.org/10.1177/09544119231156522
Palabra clave:
Control de ancianos
Detección de pasos de ancianos
Reconocimiento del sexo
Sensores inerciales
Redes neuronales recurrentes
Elderly monitoring
Elderly step detection
Gender recognition
Inertial sensors
Recurrent neural networks
Rights
closedAccess
License
http://purl.org/coar/access_right/c_14cb
id UNBOSQUE2_f5afa4bf22237784657b663e0d04c8e2
oai_identifier_str oai:repositorio.unbosque.edu.co:20.500.12495/10137
network_acronym_str UNBOSQUE2
network_name_str Repositorio U. El Bosque
repository_id_str
dc.title.spa.fl_str_mv Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
dc.title.translated.spa.fl_str_mv Enfoque semisupervisado para identificar los pasos, el calzado y el sexo de adultos mayores en condiciones seminaturalistas utilizando un sensor inercial de cintura
title Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
spellingShingle Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
Control de ancianos
Detección de pasos de ancianos
Reconocimiento del sexo
Sensores inerciales
Redes neuronales recurrentes
Elderly monitoring
Elderly step detection
Gender recognition
Inertial sensors
Recurrent neural networks
title_short Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
title_full Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
title_fullStr Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
title_full_unstemmed Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
title_sort Semi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor
dc.creator.fl_str_mv Pulido Herrera, Edith
Ruiz Olaya, Andrés F.
Sierra Bueno, Daniel A.
dc.contributor.author.none.fl_str_mv Pulido Herrera, Edith
Ruiz Olaya, Andrés F.
Sierra Bueno, Daniel A.
dc.contributor.orcid.none.fl_str_mv Pulido Herrera, Edith [0000-0002-7629-539X]
dc.subject.spa.fl_str_mv Control de ancianos
Detección de pasos de ancianos
Reconocimiento del sexo
Sensores inerciales
Redes neuronales recurrentes
topic Control de ancianos
Detección de pasos de ancianos
Reconocimiento del sexo
Sensores inerciales
Redes neuronales recurrentes
Elderly monitoring
Elderly step detection
Gender recognition
Inertial sensors
Recurrent neural networks
dc.subject.keywords.spa.fl_str_mv Elderly monitoring
Elderly step detection
Gender recognition
Inertial sensors
Recurrent neural networks
description Una fuente emergente de información para reconocer las características de los individuos son los parámetros relacionados con el patrón de marcha. Los ancianos pueden ser uno de los grupos de población que más se beneficien de las aplicaciones basadas en el reconocimiento, lo que puede contribuir a aumentar sus posibilidades de vivir de forma independiente en casa. Los enfoques se han centrado principalmente en la identificación o evaluación de los eventos de la marcha; sin embargo, esta información también puede utilizarse para obtener características de las personas mayores que dependen de factores fisiológicos o ambientales. Estos factores pueden ser útiles para proporcionar una asistencia personalizada basada en información contextual. En este trabajo, proponemos un método centrado en personas mayores, para detectar pasos, y reconocer el género y el tipo de calzado utilizando únicamente los datos de contacto inicial con el pie (IC) obtenidos de sensores inerciales durante la marcha semicontrolada. Se recogieron datos de 20 adultos mayores que caminaban a velocidad propia en un entorno natural. El método consiste en agrupar primero el CI utilizando k-means; después, una red neuronal recurrente entrenada reconoce el género, el tipo de calzado y las fases del paso (CI y otras fases); para finalmente realizar la detección de pasos (DE) utilizando un método basado en reglas. El método reconoce el género y el tipo de calzado con una precisión del 93% y el 83,07%, respectivamente, mientras que no se produjeron errores de reconocimiento de las fases del paso. SD alcanzó un error medio porcentual absoluto igual a (Fórmula presentada.). Los buenos resultados muestran que el método es apropiado para aplicaciones de reconocimiento de las características de los usuarios sin depender de suposiciones basadas en individualidades. Asimismo, el método puede ser útil para monitorizar la actividad física o sistemas destinados a mantener a salvo a los adultos mayores.
publishDate 2023
dc.date.accessioned.none.fl_str_mv 2023-03-09T16:46:34Z
dc.date.available.none.fl_str_mv 2023-03-09T16:46:34Z
dc.date.issued.none.fl_str_mv 2023
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_2df8fbb1
dc.type.local.none.fl_str_mv Artículo de revista
dc.type.hasversion.none.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_6501
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/article
dc.type.coarversion.none.fl_str_mv http://purl.org/coar/version/c_970fb48d4fbd8a85
format http://purl.org/coar/resource_type/c_6501
status_str publishedVersion
dc.identifier.issn.none.fl_str_mv 2041-3033
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.12495/10137
dc.identifier.doi.none.fl_str_mv https://doi.org/10.1177/09544119231156522
dc.identifier.instname.spa.fl_str_mv instname:Universidad El Bosque
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad El Bosque
dc.identifier.repourl.none.fl_str_mv repourl:https://repositorio.unbosque.edu.co
identifier_str_mv 2041-3033
instname:Universidad El Bosque
reponame:Repositorio Institucional Universidad El Bosque
repourl:https://repositorio.unbosque.edu.co
url http://hdl.handle.net/20.500.12495/10137
https://doi.org/10.1177/09544119231156522
dc.language.iso.none.fl_str_mv eng
language eng
dc.relation.ispartofseries.spa.fl_str_mv Proceedings of the Institution of Mechanical Engineers, Part H: Journal of Engineering in Medicine, 2023
dc.relation.uri.none.fl_str_mv https://journals.sagepub.com/doi/10.1177/09544119231156522
dc.rights.accessrights.none.fl_str_mv http://purl.org/coar/access_right/c_14cb
info:eu-repo/semantics/closedAccess
Acceso cerrado
rights_invalid_str_mv http://purl.org/coar/access_right/c_14cb
Acceso cerrado
eu_rights_str_mv closedAccess
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.spa.fl_str_mv SAGE Publications Ltd.
dc.publisher.journal.spa.fl_str_mv Proceedings of the Institution of Mechanical Engineers, Part H: Journal of Engineering in Medicine
institution Universidad El Bosque
bitstream.url.fl_str_mv https://repositorio.unbosque.edu.co/bitstreams/e13f8eee-b081-49f1-9605-0eb13fd22602/download
https://repositorio.unbosque.edu.co/bitstreams/2abb19b5-a854-4dcb-890e-09c19f8ffbeb/download
https://repositorio.unbosque.edu.co/bitstreams/700c325c-490e-4661-9144-d1d081755451/download
https://repositorio.unbosque.edu.co/bitstreams/ddd3fb3f-9dd0-4a60-ac07-4bc8752f3519/download
bitstream.checksum.fl_str_mv c9d00125f3f93d61e0b432c184a4a42b
17cc15b951e7cc6b3728a574117320f9
124c775eb0d8076f23ed2d7b73e628d9
5dbe86c1111d64f45ba435df98fdc825
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad El Bosque
repository.mail.fl_str_mv bibliotecas@biteca.com
_version_ 1828164658346852352
spelling Pulido Herrera, EdithRuiz Olaya, Andrés F.Sierra Bueno, Daniel A.Pulido Herrera, Edith [0000-0002-7629-539X]2023-03-09T16:46:34Z2023-03-09T16:46:34Z20232041-3033http://hdl.handle.net/20.500.12495/10137https://doi.org/10.1177/09544119231156522instname:Universidad El Bosquereponame:Repositorio Institucional Universidad El Bosquerepourl:https://repositorio.unbosque.edu.coUna fuente emergente de información para reconocer las características de los individuos son los parámetros relacionados con el patrón de marcha. Los ancianos pueden ser uno de los grupos de población que más se beneficien de las aplicaciones basadas en el reconocimiento, lo que puede contribuir a aumentar sus posibilidades de vivir de forma independiente en casa. Los enfoques se han centrado principalmente en la identificación o evaluación de los eventos de la marcha; sin embargo, esta información también puede utilizarse para obtener características de las personas mayores que dependen de factores fisiológicos o ambientales. Estos factores pueden ser útiles para proporcionar una asistencia personalizada basada en información contextual. En este trabajo, proponemos un método centrado en personas mayores, para detectar pasos, y reconocer el género y el tipo de calzado utilizando únicamente los datos de contacto inicial con el pie (IC) obtenidos de sensores inerciales durante la marcha semicontrolada. Se recogieron datos de 20 adultos mayores que caminaban a velocidad propia en un entorno natural. El método consiste en agrupar primero el CI utilizando k-means; después, una red neuronal recurrente entrenada reconoce el género, el tipo de calzado y las fases del paso (CI y otras fases); para finalmente realizar la detección de pasos (DE) utilizando un método basado en reglas. El método reconoce el género y el tipo de calzado con una precisión del 93% y el 83,07%, respectivamente, mientras que no se produjeron errores de reconocimiento de las fases del paso. SD alcanzó un error medio porcentual absoluto igual a (Fórmula presentada.). Los buenos resultados muestran que el método es apropiado para aplicaciones de reconocimiento de las características de los usuarios sin depender de suposiciones basadas en individualidades. Asimismo, el método puede ser útil para monitorizar la actividad física o sistemas destinados a mantener a salvo a los adultos mayores.An emerging source of information to recognize individuals’ characteristics are the walking pattern-related parameters. The elderly can be one of the populations that can benefit most from recognition-based applications, which may help to increase their possibilities of living independently at home. Approaches have been mostly focused on gait events’ identification or assessment; nonetheless, such information can also be used to obtain seniors’ characteristics that depend on physiological or environmental factors. These factors can be useful to provide a customized assistance based on contextual information. In this paper, we propose a method focused on seniors, to detect steps, and to recognize gender and type of shoes by using only the initial foot contact (IC) data obtained from inertial sensors during semi-controlled walking. Data were collected from 20 older adults who walked at self-speed in a natural environment. The method consists of first clustering the IC using k-means; then, a trained recurrent neural network recognizes gender, type of shoes, and the step phases (IC and other phases); to finally conduct step detection (SD) using a ruled-based method. The method recognizes gender and the type of shoes with an accuracy of 93% and 83.07%, respectively, whereas there were not misrecognitions of the step phases. SD achieved a mean absolute percentage error equal to (Formula presented.). The good results show that the method is appropriate for users’ characteristics recognition applications without depending on assumptions based on individualities. Likewise, the method can be useful to monitor physical activity or systems aimed to keep safe older adults.application/pdfengSAGE Publications Ltd.Proceedings of the Institution of Mechanical Engineers, Part H: Journal of Engineering in MedicineProceedings of the Institution of Mechanical Engineers, Part H: Journal of Engineering in Medicine, 2023https://journals.sagepub.com/doi/10.1177/09544119231156522Control de ancianosDetección de pasos de ancianosReconocimiento del sexoSensores inercialesRedes neuronales recurrentesElderly monitoringElderly step detectionGender recognitionInertial sensorsRecurrent neural networksSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensorEnfoque semisupervisado para identificar los pasos, el calzado y el sexo de adultos mayores en condiciones seminaturalistas utilizando un sensor inercial de cinturaArtículo de revistainfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_6501http://purl.org/coar/resource_type/c_2df8fbb1info:eu-repo/semantics/articlehttp://purl.org/coar/version/c_970fb48d4fbd8a85http://purl.org/coar/access_right/c_14cbinfo:eu-repo/semantics/closedAccessAcceso cerradoORIGINALSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensorSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensorSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensorapplication/pdf125663https://repositorio.unbosque.edu.co/bitstreams/e13f8eee-b081-49f1-9605-0eb13fd22602/downloadc9d00125f3f93d61e0b432c184a4a42bMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82000https://repositorio.unbosque.edu.co/bitstreams/2abb19b5-a854-4dcb-890e-09c19f8ffbeb/download17cc15b951e7cc6b3728a574117320f9MD52THUMBNAILSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor.jpgSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor.jpgIM Thumbnailimage/jpeg2830https://repositorio.unbosque.edu.co/bitstreams/700c325c-490e-4661-9144-d1d081755451/download124c775eb0d8076f23ed2d7b73e628d9MD53TEXTSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor.txtSemi-supervised approach to identify steps, shoes, and gender of older adults under semi-naturalistic conditions using a waist-worn inertial sensor.txtExtracted texttext/plain5https://repositorio.unbosque.edu.co/bitstreams/ddd3fb3f-9dd0-4a60-ac07-4bc8752f3519/download5dbe86c1111d64f45ba435df98fdc825MD5420.500.12495/10137oai:repositorio.unbosque.edu.co:20.500.12495/101372024-02-07 13:13:18.142restrictedhttps://repositorio.unbosque.edu.coRepositorio Institucional Universidad El Bosquebibliotecas@biteca.comTGljZW5jaWEgZGUgRGlzdHJpYnVjacOzbiBObyBFeGNsdXNpdmEKClBhcmEgcXVlIGVsIFJlcG9zaXRvcmlvIGRlIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSBhIHB1ZWRhIHJlcHJvZHVjaXIgeSBjb211bmljYXIgcMO6YmxpY2FtZW50ZSBzdSBkb2N1bWVudG8gZXMgbmVjZXNhcmlvIGxhIGFjZXB0YWNpw7NuIGRlIGxvcyBzaWd1aWVudGVzIHTDqXJtaW5vcy4gUG9yIGZhdm9yLCBsZWEgbGFzIHNpZ3VpZW50ZXMgY29uZGljaW9uZXMgZGUgbGljZW5jaWE6CgoxLiBBY2VwdGFuZG8gZXN0YSBsaWNlbmNpYSwgdXN0ZWQgKGVsIGF1dG9yL2VzIG8gZWwgcHJvcGlldGFyaW8vcyBkZSBsb3MgZGVyZWNob3MgZGUgYXV0b3IpIGdhcmFudGl6YSBhIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSBlbCBkZXJlY2hvIG5vIGV4Y2x1c2l2byBkZSBhcmNoaXZhciwgcmVwcm9kdWNpciwgY29udmVydGlyIChjb21vIHNlIGRlZmluZSBtw6FzIGFiYWpvKSwgY29tdW5pY2FyIHkvbyBkaXN0cmlidWlyIHN1IGRvY3VtZW50byBtdW5kaWFsbWVudGUgZW4gZm9ybWF0byBlbGVjdHLDs25pY28uCgoyLiBUYW1iacOpbiBlc3TDoSBkZSBhY3VlcmRvIGNvbiBxdWUgbGEgVW5pdmVyc2lkYWQgRWwgQm9zcXVlIHB1ZWRhIGNvbnNlcnZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBlc3RlIGRvY3VtZW50byB5LCBzaW4gYWx0ZXJhciBzdSBjb250ZW5pZG8sIGNvbnZlcnRpcmxvIGEgY3VhbHF1aWVyIGZvcm1hdG8gZGUgZmljaGVybywgbWVkaW8gbyBzb3BvcnRlLCBwYXJhIHByb3DDs3NpdG9zIGRlIHNlZ3VyaWRhZCwgcHJlc2VydmFjacOzbiB5IGFjY2Vzby4KCjMuIERlY2xhcmEgcXVlIGVsIGRvY3VtZW50byBlcyB1biB0cmFiYWpvIG9yaWdpbmFsIHN1eW8geS9vIHF1ZSB0aWVuZSBlbCBkZXJlY2hvIHBhcmEgb3RvcmdhciBsb3MgZGVyZWNob3MgY29udGVuaWRvcyBlbiBlc3RhIGxpY2VuY2lhLiBUYW1iacOpbiBkZWNsYXJhIHF1ZSBzdSBkb2N1bWVudG8gbm8gaW5mcmluZ2UsIGVuIHRhbnRvIGVuIGN1YW50byBsZSBzZWEgcG9zaWJsZSBzYWJlciwgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIGRlIG5pbmd1bmEgb3RyYSBwZXJzb25hIG8gZW50aWRhZC4KCjQuIFNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBkZWNsYXJhIHF1ZSBoYSBvYnRlbmlkbyBlbCBwZXJtaXNvIHNpbiByZXN0cmljY2nDs24gZGVsIHByb3BpZXRhcmlvIGRlIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBwYXJhIG90b3JnYXIgYSBsYSBVbml2ZXJzaWRhZCBFbCBCb3NxdWUgbG9zIGRlcmVjaG9zIHJlcXVlcmlkb3MgcG9yIGVzdGEgbGljZW5jaWEsIHkgcXVlIGVzZSBtYXRlcmlhbCBjdXlvcyBkZXJlY2hvcyBzb24gZGUgdGVyY2Vyb3MgZXN0w6EgY2xhcmFtZW50ZSBpZGVudGlmaWNhZG8geSByZWNvbm9jaWRvIGVuIGVsIHRleHRvIG8gY29udGVuaWRvIGRlbCBkb2N1bWVudG8gZW50cmVnYWRvLgoKNS4gU2kgZWwgZG9jdW1lbnRvIHNlIGJhc2EgZW4gdW5hIG9icmEgcXVlIGhhIHNpZG8gcGF0cm9jaW5hZGEgbyBhcG95YWRhIHBvciB1bmEgYWdlbmNpYSB1IG9yZ2FuaXphY2nDs24gZGlmZXJlbnRlIGRlIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSwgc2UgcHJlc3Vwb25lIHF1ZSBzZSBoYSBjdW1wbGlkbyBjb24gY3VhbHF1aWVyIGRlcmVjaG8gZGUgcmV2aXNpw7NuIHUgb3RyYXMgb2JsaWdhY2lvbmVzIHJlcXVlcmlkYXMgcG9yIGVzdGUgY29udHJhdG8gbyBhY3VlcmRvLgoKNi4gVW5pdmVyc2lkYWQgRWwgQm9zcXVlIGlkZW50aWZpY2Fyw6EgY2xhcmFtZW50ZSBzdS9zIG5vbWJyZS9zIGNvbW8gZWwvbG9zIGF1dG9yL2VzIG8gcHJvcGlldGFyaW8vcyBkZSBsb3MgZGVyZWNob3MgZGVsIGRvY3VtZW50bywgeSBubyBoYXLDoSBuaW5ndW5hIGFsdGVyYWNpw7NuIGRlIHN1IGRvY3VtZW50byBkaWZlcmVudGUgYSBsYXMgcGVybWl0aWRhcyBlbiBlc3RhIGxpY2VuY2lhLgo=