Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural
La industria audiovisual ha implementado año tras año los audios binaurales en producciones musicales y contenidos audiovisuales con el fin de generar una experiencia innovadora a la audiencia. El desarrollo de este trabajo se basa en encontrar un nivel de correlacion entre descriptores de audio, un...
- Autores:
-
Zapata Gallego, Daniela
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2022
- Institución:
- Universidad de San Buenaventura
- Repositorio:
- Repositorio USB
- Idioma:
- spa
- OAI Identifier:
- oai:bibliotecadigital.usb.edu.co:10819/11427
- Acceso en línea:
- https://hdl.handle.net/10819/11427
- Palabra clave:
- 660 - Ingeniería química
Sonido
Audifonos
Plataformas
Audio Binaural
Localizacion
Descriptores de Audio
Binaural Audio
Localization
Audio Descriptors
- Rights
- openAccess
- License
- http://purl.org/coar/access_right/c_abf2
id |
SANBUENAV2_0f338a23f2663584542d7037377802ea |
---|---|
oai_identifier_str |
oai:bibliotecadigital.usb.edu.co:10819/11427 |
network_acronym_str |
SANBUENAV2 |
network_name_str |
Repositorio USB |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural |
title |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural |
spellingShingle |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural 660 - Ingeniería química Sonido Audifonos Plataformas Audio Binaural Localizacion Descriptores de Audio Binaural Audio Localization Audio Descriptors |
title_short |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural |
title_full |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural |
title_fullStr |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural |
title_full_unstemmed |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural |
title_sort |
Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binaural |
dc.creator.fl_str_mv |
Zapata Gallego, Daniela |
dc.contributor.advisor.none.fl_str_mv |
Yepes Díaz, Mateo |
dc.contributor.author.none.fl_str_mv |
Zapata Gallego, Daniela |
dc.subject.ddc.none.fl_str_mv |
660 - Ingeniería química |
topic |
660 - Ingeniería química Sonido Audifonos Plataformas Audio Binaural Localizacion Descriptores de Audio Binaural Audio Localization Audio Descriptors |
dc.subject.other.none.fl_str_mv |
Sonido Audifonos Plataformas |
dc.subject.proposal.spa.fl_str_mv |
Audio Binaural Localizacion Descriptores de Audio |
dc.subject.proposal.eng.fl_str_mv |
Binaural Audio Localization Audio Descriptors |
description |
La industria audiovisual ha implementado año tras año los audios binaurales en producciones musicales y contenidos audiovisuales con el fin de generar una experiencia innovadora a la audiencia. El desarrollo de este trabajo se basa en encontrar un nivel de correlacion entre descriptores de audio, una herramienta que permite la extraccion de informaci ´ on de archivos de audio y la percepción de localización por medio de los audios binaurales. Teniendo dos bases de datos, una con archivos de audios con contenido de solos deinstrumentos musicales y otra con la informacion extraída de los descriptores de audio de cada uno de los archivos preseleccionados se procede a disenar las pruebas subjetivas. El diseño de las pruebas que fueron recolectadas por medio de plataformas en línea de formularios como Google Forms y JotForm facilitando su distribucion y ejecuci ´ on a un conjunto de personas que cuenten con aud ´ ´ıfonos y dispositivos con acceso a internet. Obteniendo lo anterior se da comienzo al analisis estadístico pertinente para encontrar dicha correlacion. Con los datos arrojados gracias al análisis estadístico realizado, se concluye que entre los descriptores de audio y la precepcion de localización a través de audios binaurales no hay grado de correlacion que permita la localizaci ´ on de los mismos en un espacio determinado. |
publishDate |
2022 |
dc.date.issued.none.fl_str_mv |
2022 |
dc.date.accessioned.none.fl_str_mv |
2023-05-09T23:27:04Z |
dc.date.available.none.fl_str_mv |
2023-05-09T23:27:04Z |
dc.type.spa.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.coar.spa.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.spa.fl_str_mv |
Text |
dc.type.driver.spa.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.redcol.spa.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
dc.type.version.spa.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.citation.none.fl_str_mv |
[1] D. Zapata Gallego, ”Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precision de localizacion binaural”, Tesis de Pregrado, Ingeniería de Sonido, Universidad de San Buenaventura, Facultad de Ingenierías, 2023 |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad de San Buenaventura |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad de San Buenaventura |
dc.identifier.repourl.spa.fl_str_mv |
repourl:https://bibliotecadigital.usb.edu.co/ |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/10819/11427 |
identifier_str_mv |
[1] D. Zapata Gallego, ”Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precision de localizacion binaural”, Tesis de Pregrado, Ingeniería de Sonido, Universidad de San Buenaventura, Facultad de Ingenierías, 2023 instname:Universidad de San Buenaventura reponame:Repositorio Institucional Universidad de San Buenaventura repourl:https://bibliotecadigital.usb.edu.co/ |
url |
https://hdl.handle.net/10819/11427 |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.rights.accessrights.spa.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.spa.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.license.none.fl_str_mv |
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://purl.org/coar/access_right/c_abf2 Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) |
dc.format.extent.none.fl_str_mv |
55 páginas |
dc.format.mimetype.spa.fl_str_mv |
application/pdf |
dc.publisher.spa.fl_str_mv |
Universidad de San Buenaventura |
dc.publisher.branch.spa.fl_str_mv |
Medellín |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.place.none.fl_str_mv |
Medellín |
dc.publisher.program.spa.fl_str_mv |
Ingeniería de Sonido |
institution |
Universidad de San Buenaventura |
dc.source.bibliographicCitation.spa.fl_str_mv |
[1] B. Pueo, M. Sanchez-Cid y col., ´ ✭✭El sonido envolvente en entornos audiovisuales inmersivos. Propuestas en el ambito educativo, ´ ✮✮ Revista ICONO14 Revista cientıfica de Comunicacion y Tec- ´ nologıas emergentes, vol. 9, n.o 2, pags. 167-184, 2011. [2] H. Boyer, X. Serra, G. Peeters y col., ✭✭Audio descriptors and descriptor schemes in the context of MPEG-7,✮✮ en Proceedings of the 1999 International Computer Music Conference, ICMC; 1999 Oct 22-27; Beijing, China.[Mich [3] J. Magro Sastre y col., ✭✭Desarrollo de herramientas de procesado y visualizacion para audio 3D ´ con auriculares,✮✮ B.S. Tesis de Licenciatura, UAM. Departamento de Tecnolog´ıa Electronica y de ´ las Comunicaciones, 2016. [4] J. C. Mansilla, ✭✭POSTPRODUCCION DE AUDIO CON SONIDO ENVOLVENTE 5.1 Y CODI- ´ FICACION PERCEPTUAL, ´ ✮✮ Tesis doct., Universidad Austral de Chile, 2013. [5] A. Wilson y B. M. Fazenda, ✭✭Perception of audio quality in productions of popular music,✮✮ Journal of the Audio Engineering Society, vol. 64, n.o 1/2, pags. 23-34, 2016. [6] O. Lartillot, ✭✭MIRtoolbox 1.7. 2 user’s manual,✮✮ Aalborg University, 2019. [7] G. Andeol, S. Savel y A. Guillaume, ´ ✭✭Perceptual factors contribute more than acoustical factors to sound localization abilities with virtual sources,✮✮ Frontiers in neuroscience, vol. 8, pag. 451, 2015. [8] G. Reardon, A. Roginska, P. Flanagan, J. S. Calle, A. Genovese, G. Zalles, M. Olko y C. Jerez, ✭✭Evaluation of binaural renderers: a methodology,✮✮ en Audio Engineering Society Convention 143, Audio Engineering Society, 2017. [9] T. Tamayo y A. Silva, Comparacion subjetiva por medio de aud ´ ´ıfonos de la capacidad de localizacion de 4 bases de datos de HRTF de libre acceso. ´ Tesis de Pregrado, 2020. [10] F. A. Everest, Master handbook of acoustics. McGraw-Hill Education, 2001. [11] D. Howard y J. Angus, Acoustics and psychoacoustics. Routledge, 2013. [12] T. Fischer, M. Caversaccio y W. Wimmer, ✭✭A front-back confusion metric in horizontal sound localization: The fbc score,✮✮ en ACM Symposium on Applied Perception 2020, 2020, pags. 1-5. [13] M. Frank y F. Zotter, ✭✭Simple reduction of front-back confusion in static binaural rendering,✮✮ Fortschritte der Akustik, DAGA, 2018. [14] W. M. Hartmann, ✭✭How we localize sound,✮✮ Physics today, vol. 52, n.o 11, pags. 24-29, 1999. [15] H. Møller, D. Hammershøi, C. B. Johnson y M. F. Sørensen, ✭✭Evaluation of artificial heads in listening tests,✮✮ Journal of the Audio Engineering Society, vol. 47, n.o 3, pags. 83-100, 1999. [16] G. Wersenyi y J. R ´ ep´ as, ´ ✭✭Comparison of HRTFs from a dummy-head equipped with hair, cap, and glasses in a virtual audio listening task over equalized headphones,✮✮ en Audio Engineering Society Convention 142, Audio Engineering Society, 2017. [17] C. Armstrong, L. Thresh, D. Murphy y G. Kearney, ✭✭A perceptual evaluation of individual and non-individual HRTFs: A case study of the SADIE II database,✮✮ Applied Sciences, vol. 8, n.o 11, pag. 2029, 2018 [18] D. Moffat, D. Ronan y J. D. Reiss, ✭✭An evaluation of audio feature extraction toolboxes,✮✮ 2015. [19] E. Sacerdoti, ✭✭El factor cresta,✮✮ Equaphon University, 2014. [20] F. Ramon, ✭✭Sonoridad (Parte I),✮✮ Equaphon University, 2016. [21] R. F. Garcıa y col., Metodologıa de la Investigacion´ . Trillas, 1977. [22] T. Giannakopoulos y A. Pikrakis, Introduction to Audio Analysis: a MATLAB® approach. Academic Press, 2014 [23] O. Lartillot y P. Toiviainen, ✭✭A Matlab toolbox for musical feature extraction from audio,✮✮ en International conference on digital audio effects, Bordeaux, vol. 237, 2007, pag. 244 [24] C. L. Krumhansl, Cognitive foundations of musical pitch. Oxford University Press, 2001. [25] R. E. Thayer y R. J. McNally, ✭✭The biopsychology of mood and arousal,✮✮ Cognitive and Behavioral Neurology, vol. 5, n.o 1, pag. 65, 1992. [26] T. Eerola, O. Lartillot y P. Toiviainen, ✭✭Prediction of Multidimensional Emotional Ratings in Music from Audio Using Multivariate Regression Models.,✮✮ en Ismir, 2009, pags. 621-626. [27] E. Lahura y col., El coeficiente de correlacion y correlaciones esp ´ ureas ´ . Pontificia Universidad Catolica del Per ´ u, Departmento de Economıa, 2003, vol. 218. [28] A. Vila, M. Sedano, A. Lopez y A. Juan, ´ ✭✭Correlacion lineal y an ´ alisis de regresi ´ on, ´ ✮✮ Barcelona: Universidad Oberta de Catalunya, 2004. [29] I. M. Pelaez, ´ ✭✭Modelos de regresion: lineal simple y regresi ´ on logıstica, ´ ✮✮ Revista Seden, vol. 14, pags. 195-214, 2016. [30] E. M. Rodrıguez, ✭✭Errores frecuentes en la interpretacion del coeficiente de determinaci ´ on lineal, ´ ✮✮ Anuario jurıdico y economico escurialense ´ , n.o 38, pags. 315-331, 2005. [31] E. Altszyler y P. Brusco, ✭✭Analisis de la din ´ amica del contenido sem ´ antico de textos, ´ ✮✮ en Argentine Symposium on Artificial Intelligence (ASAI 2015)-JAIIO 44 (Rosario, 2015), 2015. [32] V. R. Algazi, R. O. Duda, D. M. Thompson y C. Avendano, ✭✭The cipic hrtf database,✮✮ en Proceedings of the 2001 IEEE Workshop on the Applications of Signal Processing to Audio and Acoustics (Cat. No. 01TH8575), IEEE, 2001, pags. 99-102. [33] T. Poulsen, ✭✭Horvergleich unterschiedlicher Kunstkopfsysteme (Auditory comparison of different ¨ dummy-head systems),✮✮ Rundfunktechn Mitt, vol. 22, pags. 211-214, 1978. |
dc.source.other.none.fl_str_mv |
Biblioteca USB Medellín (San Benito): TG-6467t |
bitstream.url.fl_str_mv |
https://bibliotecadigital.usb.edu.co/bitstreams/6e600e3f-5959-4f34-bb87-3a95d46a0d71/download https://bibliotecadigital.usb.edu.co/bitstreams/369a7b8a-a14e-414c-bb4a-c4d96aef06f8/download https://bibliotecadigital.usb.edu.co/bitstreams/9b5075bc-b217-44c4-b0cd-3145499c02f2/download https://bibliotecadigital.usb.edu.co/bitstreams/79be6847-0638-4b37-9f0e-780590d27b69/download |
bitstream.checksum.fl_str_mv |
3aebaaf68716055d549fff222a2ed4e0 0c7b7184e7583ec671a5d9e43f0939c0 694d76570664f8bc908672f934deae94 e0883382badb94b759289859977303e1 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad de San Buenaventura Colombia |
repository.mail.fl_str_mv |
bdigital@metabiblioteca.com |
_version_ |
1837099273492103168 |
spelling |
Yepes Díaz, Mateob181e0ce-3d3b-4793-93ad-ecc95c04a275-1Zapata Gallego, Daniela42706ae1-fbda-4d0e-a066-c7b3fdf0d1ac-12023-05-09T23:27:04Z2023-05-09T23:27:04Z2022La industria audiovisual ha implementado año tras año los audios binaurales en producciones musicales y contenidos audiovisuales con el fin de generar una experiencia innovadora a la audiencia. El desarrollo de este trabajo se basa en encontrar un nivel de correlacion entre descriptores de audio, una herramienta que permite la extraccion de informaci ´ on de archivos de audio y la percepción de localización por medio de los audios binaurales. Teniendo dos bases de datos, una con archivos de audios con contenido de solos deinstrumentos musicales y otra con la informacion extraída de los descriptores de audio de cada uno de los archivos preseleccionados se procede a disenar las pruebas subjetivas. El diseño de las pruebas que fueron recolectadas por medio de plataformas en línea de formularios como Google Forms y JotForm facilitando su distribucion y ejecuci ´ on a un conjunto de personas que cuenten con aud ´ ´ıfonos y dispositivos con acceso a internet. Obteniendo lo anterior se da comienzo al analisis estadístico pertinente para encontrar dicha correlacion. Con los datos arrojados gracias al análisis estadístico realizado, se concluye que entre los descriptores de audio y la precepcion de localización a través de audios binaurales no hay grado de correlacion que permita la localizaci ´ on de los mismos en un espacio determinado.Year after year, the audiovisual industry has implemented binaural audios in music productions and audiovisual content in order to generate an innovative experience for the audience. The development of this work is based on finding a level of correlation between audio descriptors, a tool that allows the extraction of information from audio files and the perception of location through binaural audios. Having two databases, one with audio files with content of musical instrument solos and the other with the information extracted from the audio descriptors of each of the preselected files. The design of the subjective tests that were collected through online forms platforms such as Google Forms and JotForm, facilitating their distribution and execution to a group of people with hearing aids and devices with internet access. Obtaining the above, the pertinent statistical analysis begins to find said correlation. With the data obtained thanks to the statistical analysis carried out, it is concluded that between the audio descriptors and the perception of location through binaural audios there is no degree of correlation that allows their location in a given spacePregradoIngeniero de SonidoSedes::Medellín::Línea de investigación acústica y procesamiento de señal (Medellín)55 páginasapplication/pdf[1] D. Zapata Gallego, ”Correlacion entre descriptores de audio de muestras de instrumentos musicales, con su precision de localizacion binaural”, Tesis de Pregrado, Ingeniería de Sonido, Universidad de San Buenaventura, Facultad de Ingenierías, 2023instname:Universidad de San Buenaventurareponame:Repositorio Institucional Universidad de San Buenaventurarepourl:https://bibliotecadigital.usb.edu.co/https://hdl.handle.net/10819/11427spaUniversidad de San BuenaventuraMedellínFacultad de IngenieríaMedellínIngeniería de Sonidoinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)[1] B. Pueo, M. Sanchez-Cid y col., ´ ✭✭El sonido envolvente en entornos audiovisuales inmersivos. Propuestas en el ambito educativo, ´ ✮✮ Revista ICONO14 Revista cientıfica de Comunicacion y Tec- ´ nologıas emergentes, vol. 9, n.o 2, pags. 167-184, 2011.[2] H. Boyer, X. Serra, G. Peeters y col., ✭✭Audio descriptors and descriptor schemes in the context of MPEG-7,✮✮ en Proceedings of the 1999 International Computer Music Conference, ICMC; 1999 Oct 22-27; Beijing, China.[Mich[3] J. Magro Sastre y col., ✭✭Desarrollo de herramientas de procesado y visualizacion para audio 3D ´ con auriculares,✮✮ B.S. Tesis de Licenciatura, UAM. Departamento de Tecnolog´ıa Electronica y de ´ las Comunicaciones, 2016.[4] J. C. Mansilla, ✭✭POSTPRODUCCION DE AUDIO CON SONIDO ENVOLVENTE 5.1 Y CODI- ´ FICACION PERCEPTUAL, ´ ✮✮ Tesis doct., Universidad Austral de Chile, 2013.[5] A. Wilson y B. M. Fazenda, ✭✭Perception of audio quality in productions of popular music,✮✮ Journal of the Audio Engineering Society, vol. 64, n.o 1/2, pags. 23-34, 2016.[6] O. Lartillot, ✭✭MIRtoolbox 1.7. 2 user’s manual,✮✮ Aalborg University, 2019.[7] G. Andeol, S. Savel y A. Guillaume, ´ ✭✭Perceptual factors contribute more than acoustical factors to sound localization abilities with virtual sources,✮✮ Frontiers in neuroscience, vol. 8, pag. 451, 2015.[8] G. Reardon, A. Roginska, P. Flanagan, J. S. Calle, A. Genovese, G. Zalles, M. Olko y C. Jerez, ✭✭Evaluation of binaural renderers: a methodology,✮✮ en Audio Engineering Society Convention 143, Audio Engineering Society, 2017.[9] T. Tamayo y A. Silva, Comparacion subjetiva por medio de aud ´ ´ıfonos de la capacidad de localizacion de 4 bases de datos de HRTF de libre acceso. ´ Tesis de Pregrado, 2020.[10] F. A. Everest, Master handbook of acoustics. McGraw-Hill Education, 2001.[11] D. Howard y J. Angus, Acoustics and psychoacoustics. Routledge, 2013.[12] T. Fischer, M. Caversaccio y W. Wimmer, ✭✭A front-back confusion metric in horizontal sound localization: The fbc score,✮✮ en ACM Symposium on Applied Perception 2020, 2020, pags. 1-5.[13] M. Frank y F. Zotter, ✭✭Simple reduction of front-back confusion in static binaural rendering,✮✮ Fortschritte der Akustik, DAGA, 2018.[14] W. M. Hartmann, ✭✭How we localize sound,✮✮ Physics today, vol. 52, n.o 11, pags. 24-29, 1999.[15] H. Møller, D. Hammershøi, C. B. Johnson y M. F. Sørensen, ✭✭Evaluation of artificial heads in listening tests,✮✮ Journal of the Audio Engineering Society, vol. 47, n.o 3, pags. 83-100, 1999.[16] G. Wersenyi y J. R ´ ep´ as, ´ ✭✭Comparison of HRTFs from a dummy-head equipped with hair, cap, and glasses in a virtual audio listening task over equalized headphones,✮✮ en Audio Engineering Society Convention 142, Audio Engineering Society, 2017.[17] C. Armstrong, L. Thresh, D. Murphy y G. Kearney, ✭✭A perceptual evaluation of individual and non-individual HRTFs: A case study of the SADIE II database,✮✮ Applied Sciences, vol. 8, n.o 11, pag. 2029, 2018[18] D. Moffat, D. Ronan y J. D. Reiss, ✭✭An evaluation of audio feature extraction toolboxes,✮✮ 2015.[19] E. Sacerdoti, ✭✭El factor cresta,✮✮ Equaphon University, 2014.[20] F. Ramon, ✭✭Sonoridad (Parte I),✮✮ Equaphon University, 2016.[21] R. F. Garcıa y col., Metodologıa de la Investigacion´ . Trillas, 1977.[22] T. Giannakopoulos y A. Pikrakis, Introduction to Audio Analysis: a MATLAB® approach. Academic Press, 2014[23] O. Lartillot y P. Toiviainen, ✭✭A Matlab toolbox for musical feature extraction from audio,✮✮ en International conference on digital audio effects, Bordeaux, vol. 237, 2007, pag. 244[24] C. L. Krumhansl, Cognitive foundations of musical pitch. Oxford University Press, 2001.[25] R. E. Thayer y R. J. McNally, ✭✭The biopsychology of mood and arousal,✮✮ Cognitive and Behavioral Neurology, vol. 5, n.o 1, pag. 65, 1992.[26] T. Eerola, O. Lartillot y P. Toiviainen, ✭✭Prediction of Multidimensional Emotional Ratings in Music from Audio Using Multivariate Regression Models.,✮✮ en Ismir, 2009, pags. 621-626.[27] E. Lahura y col., El coeficiente de correlacion y correlaciones esp ´ ureas ´ . Pontificia Universidad Catolica del Per ´ u, Departmento de Economıa, 2003, vol. 218.[28] A. Vila, M. Sedano, A. Lopez y A. Juan, ´ ✭✭Correlacion lineal y an ´ alisis de regresi ´ on, ´ ✮✮ Barcelona: Universidad Oberta de Catalunya, 2004.[29] I. M. Pelaez, ´ ✭✭Modelos de regresion: lineal simple y regresi ´ on logıstica, ´ ✮✮ Revista Seden, vol. 14, pags. 195-214, 2016.[30] E. M. Rodrıguez, ✭✭Errores frecuentes en la interpretacion del coeficiente de determinaci ´ on lineal, ´ ✮✮ Anuario jurıdico y economico escurialense ´ , n.o 38, pags. 315-331, 2005.[31] E. Altszyler y P. Brusco, ✭✭Analisis de la din ´ amica del contenido sem ´ antico de textos, ´ ✮✮ en Argentine Symposium on Artificial Intelligence (ASAI 2015)-JAIIO 44 (Rosario, 2015), 2015.[32] V. R. Algazi, R. O. Duda, D. M. Thompson y C. Avendano, ✭✭The cipic hrtf database,✮✮ en Proceedings of the 2001 IEEE Workshop on the Applications of Signal Processing to Audio and Acoustics (Cat. No. 01TH8575), IEEE, 2001, pags. 99-102.[33] T. Poulsen, ✭✭Horvergleich unterschiedlicher Kunstkopfsysteme (Auditory comparison of different ¨ dummy-head systems),✮✮ Rundfunktechn Mitt, vol. 22, pags. 211-214, 1978.Biblioteca USB Medellín (San Benito): TG-6467t660 - Ingeniería químicaSonidoAudifonosPlataformasAudio BinauralLocalizacionDescriptores de AudioBinaural AudioLocalizationAudio DescriptorsCorrelacion entre descriptores de audio de muestras de instrumentos musicales, con su precisión de localización binauralTrabajo de grado - Pregradohttp://purl.org/coar/resource_type/c_7a1fTextinfo:eu-repo/semantics/bachelorThesishttp://purl.org/redcol/resource_type/TPinfo:eu-repo/semantics/acceptedVersionComunidad Científica y AcadémicaPublicationORIGINALCorrelacion_Descriptores_Localizacion_Zapata_2022 (1).pdfCorrelacion_Descriptores_Localizacion_Zapata_2022 (1).pdfapplication/pdf2165130https://bibliotecadigital.usb.edu.co/bitstreams/6e600e3f-5959-4f34-bb87-3a95d46a0d71/download3aebaaf68716055d549fff222a2ed4e0MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82071https://bibliotecadigital.usb.edu.co/bitstreams/369a7b8a-a14e-414c-bb4a-c4d96aef06f8/download0c7b7184e7583ec671a5d9e43f0939c0MD52TEXTCorrelacion_Descriptores_Localizacion_Zapata_2022 (1).pdf.txtCorrelacion_Descriptores_Localizacion_Zapata_2022 (1).pdf.txtExtracted texttext/plain102023https://bibliotecadigital.usb.edu.co/bitstreams/9b5075bc-b217-44c4-b0cd-3145499c02f2/download694d76570664f8bc908672f934deae94MD53THUMBNAILCorrelacion_Descriptores_Localizacion_Zapata_2022 (1).pdf.jpgCorrelacion_Descriptores_Localizacion_Zapata_2022 (1).pdf.jpgGenerated Thumbnailimage/jpeg6840https://bibliotecadigital.usb.edu.co/bitstreams/79be6847-0638-4b37-9f0e-780590d27b69/downloade0883382badb94b759289859977303e1MD5410819/11427oai:bibliotecadigital.usb.edu.co:10819/114272024-01-30 14:24:26.625https://bibliotecadigital.usb.edu.coRepositorio Institucional Universidad de San Buenaventura Colombiabdigital@metabiblioteca.comPGNlbnRlcj4KPGgzPkJJQkxJT1RFQ0EgRElHSVRBTCBVTklWRVJTSURBRCBERSBTQU4gQlVFTkFWRU5UVVJBIC0gQ09MT01CSUE8L2gzPgo8cD4KVMOpcm1pbm9zIGRlIGxhIGxpY2VuY2lhIGdlbmVyYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgcmVwb3NpdG9yaW8gaW5zdGl0dWNpb25hbDwvcD48L2NlbnRlcj4KPFAgQUxJR049Y2VudGVyPgpQb3IgbWVkaW8gZGUgZXN0ZSBmb3JtYXRvIG1hbmlmaWVzdG8gbWkgdm9sdW50YWQgZGUgQVVUT1JJWkFSIGEgbGEgVW5pdmVyc2lkYWQgZGUgU2FuIEJ1ZW5hdmVudHVyYSwgU2VkZSBCb2dvdMOhIHkgPEJSPlNlY2Npb25hbGVzIE1lZGVsbMOtbiwgQ2FsaSB5IENhcnRhZ2VuYSwgbGEgZGlmdXNpw7NuIGVuIHRleHRvIGNvbXBsZXRvIGRlIG1hbmVyYSBncmF0dWl0YSB5IHBvciB0aWVtcG8gaW5kZWZpbmlkbyBlbiBsYTxCUj4gQmlibGlvdGVjYSBEaWdpdGFsIFVuaXZlcnNpZGFkIGRlIFNhbiBCdWVuYXZlbnR1cmEsIGVsIGRvY3VtZW50byBhY2Fkw6ltaWNvIC0gaW52ZXN0aWdhdGl2byBvYmpldG8gZGUgbGEgcHJlc2VudGUgPEJSPmF1dG9yaXphY2nDs24sIGNvbiBmaW5lcyBlc3RyaWN0YW1lbnRlIGVkdWNhdGl2b3MsIGNpZW50w63CrWZpY29zIHkgY3VsdHVyYWxlcywgZW4gbG9zIHTDqXJtaW5vcyBlc3RhYmxlY2lkb3MgZW4gbGEgTGV5IDIzIGRlIDxCUj4gMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBkZXJlY2hvczxCUj4gZGUgYXV0b3IuIDxCUj4gCiAKQ29tbyBhdXRvciBtYW5pZmllc3RvIHF1ZSBlbCBwcmVzZW50ZSBkb2N1bWVudG8gYWNhZMOpbWljbyAtIGludmVzdGlnYXRpdm8gZXMgb3JpZ2luYWwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gPEJSPiB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgbWkgZXhjbHVzaXZhIGF1dG9yw63CrWEgeSBwb3NlbyBsYSB0aXR1bGFyaWRhZCA8QlI+IHNvYnJlIGxhIG1pc21hLiBMYSBVbml2ZXJzaWRhZCBkZSBTYW4gQnVlbmF2ZW50dXJhIG5vIHNlcsOhIHJlc3BvbnNhYmxlIGRlIG5pbmd1bmEgdXRpbGl6YWNpw7NuIGluZGViaWRhIGRlbCBkb2N1bWVudG8gPEJSPnBvciBwYXJ0ZSBkZSB0ZXJjZXJvcyB5IHNlcsOhIGV4Y2x1c2l2YW1lbnRlIG1pIHJlc3BvbnNhYmlsaWRhZCBhdGVuZGVyIHBlcnNvbmFsbWVudGUgY3VhbHF1aWVyIHJlY2xhbWFjacOzbiBxdWUgcHVlZGE8QlI+IHByZXNlbnRhcnNlIGEgbGEgVW5pdmVyc2lkYWQuIDxCUj4KIApBdXRvcml6byBhIGxhIEJpYmxpb3RlY2EgRGlnaXRhbCBkZSBsYSBVbml2ZXJzaWRhZCBkZSBTYW4gQnVlbmF2ZW50dXJhIGNvbnZlcnRpciBlbCBkb2N1bWVudG8gYWwgZm9ybWF0byBxdWUgZWwgPEJSPnJlcG9zaXRvcmlvIGxvIHJlcXVpZXJhIChpbXByZXNvLCBkaWdpdGFsLCBlbGVjdHLDs25pY28gbyBjdWFscXVpZXIgb3RybyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBvIGNvbiBmaW5lcyBkZTxCUj4gcHJlc2VydmFjacOzbiBkaWdpdGFsLiA8QlI+CiAKRXN0YSBhdXRvcml6YWNpw7NuIG5vIGltcGxpY2EgcmVudW5jaWEgYSBsYSBmYWN1bHRhZCBxdWUgdGVuZ28gZGUgcHVibGljYXIgcG9zdGVyaW9ybWVudGUgbGEgb2JyYSwgZW4gZm9ybWEgdG90YWwgbyA8QlI+cGFyY2lhbCwgcG9yIGxvIGN1YWwgcG9kcsOpLCBkYW5kbyBhdmlzbyBwb3IgZXNjcml0byBjb24gbm8gbWVub3MgZGUgdW4gbWVzIGRlIGFudGVsYWNpw7NuLCBzb2xpY2l0YXIgcXVlIGVsIDxCUj5kb2N1bWVudG8gZGVqZSBkZSBlc3RhciBkaXNwb25pYmxlIHBhcmEgZWwgcMO6YmxpY28gZW4gbGEgQmlibGlvdGVjYSBEaWdpdGFsIGRlIGxhIFVuaXZlcnNpZGFkIGRlIFNhbiBCdWVuYXZlbnR1cmEsIDxCUj4gYXPDrcKtIG1pc21vLCBjdWFuZG8gc2UgcmVxdWllcmEgcG9yIHJhem9uZXMgbGVnYWxlcyB5L28gcmVnbGFzIGRlbCBlZGl0b3IgZGUgdW5hIHJldmlzdGEuIDxCUj48L1A+Cg== |