Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación

Esta investigación se centra en el desarrollo de un algoritmo para estimar los Pseudo Odds Ratios (ORs) ajustados en modelos no paramétricos de clasificación supervisada de Machine Learning. Se empleó el método bootstrap y los índices lift. En el proceso se diseñaron 12 etapas, comenzando con la opt...

Full description

Autores:
Gómez Vasquez, Marilyn
Tipo de recurso:
https://purl.org/coar/resource_type/c_7a1f
Fecha de publicación:
2024
Institución:
Universidad El Bosque
Repositorio:
Repositorio U. El Bosque
Idioma:
spa
OAI Identifier:
oai:repositorio.unbosque.edu.co:20.500.12495/13596
Acceso en línea:
https://hdl.handle.net/20.500.12495/13596
Palabra clave:
Odds ratios
Bootstrap
Lift
Modelos no paramétricos
Clasificación supervisada
Medidad de asociación
Machine learning interpretable
510
Odds ratios
Bootstrap
Lift
Non-parametric models
Supervised classification
Measures of association
Interpretable machine learning
Rights
License
Atribución-NoComercial-CompartirIgual 4.0 Internacional
id UNBOSQUE2_0a671cdfaf50505dfb87a3c55c39b06e
oai_identifier_str oai:repositorio.unbosque.edu.co:20.500.12495/13596
network_acronym_str UNBOSQUE2
network_name_str Repositorio U. El Bosque
repository_id_str
dc.title.none.fl_str_mv Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
dc.title.translated.none.fl_str_mv Estimation of Pseudo Odds Ratios adjusted by bootstrap and lifts indices in a nonparametric machine learning model for classification
title Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
spellingShingle Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
Odds ratios
Bootstrap
Lift
Modelos no paramétricos
Clasificación supervisada
Medidad de asociación
Machine learning interpretable
510
Odds ratios
Bootstrap
Lift
Non-parametric models
Supervised classification
Measures of association
Interpretable machine learning
title_short Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
title_full Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
title_fullStr Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
title_full_unstemmed Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
title_sort Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
dc.creator.fl_str_mv Gómez Vasquez, Marilyn
dc.contributor.advisor.none.fl_str_mv Ramos Montaña, Jesús David
dc.contributor.author.none.fl_str_mv Gómez Vasquez, Marilyn
dc.subject.none.fl_str_mv Odds ratios
Bootstrap
Lift
Modelos no paramétricos
Clasificación supervisada
Medidad de asociación
Machine learning interpretable
topic Odds ratios
Bootstrap
Lift
Modelos no paramétricos
Clasificación supervisada
Medidad de asociación
Machine learning interpretable
510
Odds ratios
Bootstrap
Lift
Non-parametric models
Supervised classification
Measures of association
Interpretable machine learning
dc.subject.ddc.none.fl_str_mv 510
dc.subject.keywords.none.fl_str_mv Odds ratios
Bootstrap
Lift
Non-parametric models
Supervised classification
Measures of association
Interpretable machine learning
description Esta investigación se centra en el desarrollo de un algoritmo para estimar los Pseudo Odds Ratios (ORs) ajustados en modelos no paramétricos de clasificación supervisada de Machine Learning. Se empleó el método bootstrap y los índices lift. En el proceso se diseñaron 12 etapas, comenzando con la optimización de parámetros para cada modelo no paramétrico (Decision Tree Classifier (CART), Support Vector Classifier (SVC), Naive Bayes (NB)), evaluados con métricas como accuracy, specificity y recall. Por ejemplo, los valores de accuracy oscilaron entre 0.75 y 0.79. Las estimaciones se basaron en las probabilidades de las variables X y Y junto con los índices lift. Los resultados mostraron que el modelo NB ofreció el mejor rendimiento en cuanto a distribuciones y correlaciones, evidenciando una tendencia lineal en los gráficos de dispersión. Esta linealidad facilitó la transformación de los ORs para cada modelo, utilizando los Odds Ratios del modelo regresión logístico como variable dependiente y los OR_s como variable independiente, lo que permitió obtener estimaciones consistentes, como X1=0.38, tanto para el modelo paramétrico como para los no paramétricos. Las interpretaciones se validaron con intervalos de confianza al 95%, construidos a partir de muestras bootstrap, las cuales también permitieron el cálculo de diversos resúmenes estadísticos. Por ejemplo, para la variable X1, se obtuvieron intervalos de confianza de [0.266, 0.541] en regresión logística y [0.369, 0.411] en NB.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-12-05T14:30:13Z
dc.date.available.none.fl_str_mv 2024-12-05T14:30:13Z
dc.date.issued.none.fl_str_mv 2024-11
dc.type.coar.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
dc.type.local.spa.fl_str_mv Tesis/Trabajo de grado - Monografía - Pregrado
dc.type.coar.none.fl_str_mv https://purl.org/coar/resource_type/c_7a1f
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coarversion.none.fl_str_mv https://purl.org/coar/version/c_ab4af688f83e57aa
format https://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12495/13596
dc.identifier.instname.spa.fl_str_mv instname:Universidad El Bosque
dc.identifier.reponame.spa.fl_str_mv reponame:Repositorio Institucional Universidad El Bosque
dc.identifier.repourl.none.fl_str_mv repourl:https://repositorio.unbosque.edu.co
url https://hdl.handle.net/20.500.12495/13596
identifier_str_mv instname:Universidad El Bosque
reponame:Repositorio Institucional Universidad El Bosque
repourl:https://repositorio.unbosque.edu.co
dc.language.iso.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv Alvear, J. O. (2018). Arboles de decision y Random Forest. https://bookdown.org/content/2031/
Breiman, L., Friedman, J., Stone, C., & Olshen, R. (1984). Classification and Regression Trees. Taylor & Francis. https://books.google.com.co/books?id=JwQx-WOmSyQC
Canavos, G. C. (1992). PROBABILIDAD Y ESTADÍSTICA Aplicaciones y métodos (McGraw-Hill).
CART. (2024). DecisionTreeClassifier. https : / / scikit - learn . org / stable / modules/generated/sklearn.tree.DecisionTreeClassifier.html
Cerda, J., Vera, C., & Rada, G. (2013). Odds ratio: aspectos teóricos y prácticos. Revista médica de Chile, 141, 1329-1335. https://doi.org/10.4067/S0034-98872013001000014
Chang, B. W. (2014). Kernel Machines are not Black Boxes - On the Interpretability of Kernel-based Nonparametric Models.
Cui, B. (2024). Introduction to DataExplorer. https://cran.r-project.org/web/packages/DataExplorer/vignettes/dataexplorer-intro.html
Dalianis, H. (2018). Evaluation Metrics and Evaluation. Springer International Publishing. https://doi.org/10.1007/978-3-319-78503-5 6
Freedman, D., Pisani, R., & Purves, R. (2007). Statistics (4ta). W. W. Norton Company.
Harris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., Wieser, E., Taylor, J., Berg, S., Smith, N. J., Kern R., Picus, M., Hoyer, S., van Kerkwijk, M. H., Brett, M., Haldane, A., del Río, J. F., Wiebe, M., Peterson, P., . . . Oliphant, T. E. (2020). Array programming with NumPy. Nature, 585 (7825), 357-362. https: //doi.org/10.1038/s41586-020-2649-2
Hastie, T., Tibshirani, R., & Friedman, J. (2016). The Elements of Statistical Learning: Data Mining, Inference, and Prediction (2nd). Springer.
Hunter, J. D. (2007). Matplotlib: A 2D graphics environment. Computing in Science & Engineering, 9 (3), 90-95. https://doi.org/10.1109/MCSE. 2007.55
James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning: with Applications in R (1er). Springer.
Jewell, N. P. (2003). Statistics for Epidemiology (C. Chatfield & M. A. Tanner, Eds.; 1er). CHAPMAN HALL/CRC.
Muñoz, R. J. (2019). Métodos de remuestreo: Jackknife y Bootstrap, 50-53.
NB. (2024). MultinomialNB. https : / / scikit - learn . org / stable / modules / generated/sklearn.naive bayes.MultinomialNB.html
pandas development team, T. (2020). pandas-dev/pandas: Pandas. https : //doi.org/10.5281/zenodo.3509134
Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., & Duchesnay, E. (2011). Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, 12, 2825-2830.
Sampieri, R., Collado, C. F., & Lucio, P. B. (2014). Metodología de la Investigación (6ta). Mc Graw Hill.
Sony, R. K. (2020). UCI Heart Disease Data. https://www. kaggle.com/datasets/redwankarimsony/heart-disease-data
SVMs. (2024). Support Vector Machines. https://scikit-learn.org/stable/modules/svm.html
Szumilas, M. (2010). Explaining odds ratios. Journal of the Canadian Academy of Child and Adolescent Psychiatry = Journal de l’Academie canadienne de psychiatrie de l’enfant et de l’adolescent, 19, 227-9.
Themegraphy. (s.f.). The Lift Curve in Machine Learning.
VanderPlas, J. (2017). Python Data Science Handbook: Essential Tools for Working with Data (1er). O’Reilly Media.
Venables, W. N., & Ripley, B. D. (2002). Modern Applied Statistics with S (Fourth) [ISBN 0-387-95457-0]. Springer. https://www.stats.ox.ac.uk/pub/MASS4/
Vu, K., Clark, R. A., Bellinger, C., Erickson, G., Osornio-Vargas, A., Zaïane, O. R., & Yuan, Y. (2019). The index lift in data mining has a close relationship with the association measure relative risk in epidemiological studies. BMC Medical Informatics and Decision Making, 19, 112. https://doi.org/10.1186/s12911-019-0838-4
Waskom, M. L. (2021). seaborn: statistical data visualization. Journal of Open Source Software, 6 (60), 3021. https://doi.org/10.21105/joss.03021
Wickham, H., Averick, M., Bryan, J., Chang, W., McGowan, L. D., François, R., Grolemund, G., Hayes, A., Henry, L., Hester, J., Kuhn, M., Pedersen, T. L., Miller, E., Bache, S. M., Müller, K., Ooms, J., Robinson, D., Seidel, D. P., Spinu, V., . . . Yutani, H. (2019). Welcome to the tidyverse. Journal of Open Source Software, 4 (43), 1686. https://doi.org/10.21105/joss.01686
dc.rights.en.fl_str_mv Atribución-NoComercial-CompartirIgual 4.0 Internacional
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.uri.none.fl_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
dc.rights.local.spa.fl_str_mv Acceso abierto
dc.rights.accessrights.none.fl_str_mv http:/purl.org/coar/access_right/c_abf2/
rights_invalid_str_mv Atribución-NoComercial-CompartirIgual 4.0 Internacional
http://creativecommons.org/licenses/by-nc-sa/4.0/
Acceso abierto
http:/purl.org/coar/access_right/c_abf2/
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.none.fl_str_mv application/pdf
dc.publisher.program.spa.fl_str_mv Matemáticas
dc.publisher.grantor.spa.fl_str_mv Universidad El Bosque
dc.publisher.faculty.spa.fl_str_mv Facultad de Ciencias
institution Universidad El Bosque
bitstream.url.fl_str_mv https://repositorio.unbosque.edu.co/bitstreams/a363608d-d0e8-4bd4-a1e4-63a5ff907c4c/download
https://repositorio.unbosque.edu.co/bitstreams/a40206de-46e4-476f-9760-445454ce3f13/download
https://repositorio.unbosque.edu.co/bitstreams/3c691e6d-2ee3-4d37-8b96-34bf165aef65/download
https://repositorio.unbosque.edu.co/bitstreams/4ffec7f8-f561-4be6-ba34-98baa2f2b925/download
https://repositorio.unbosque.edu.co/bitstreams/1b1070ac-6568-4a5c-b0c8-c38f29f07f09/download
https://repositorio.unbosque.edu.co/bitstreams/e5b33cc9-f8f7-422f-8810-ea258d65ded6/download
https://repositorio.unbosque.edu.co/bitstreams/460c93dc-6c7d-4bcf-9f8f-850c50ff05e0/download
bitstream.checksum.fl_str_mv b165a9ce422bb99f9ad7b3c441d36850
17cc15b951e7cc6b3728a574117320f9
f8146b26a6e34151fc60699d3f619a48
aa41511c7e2bfa5e66e70cba579bfc9a
3b6ce8e9e36c89875e8cf39962fe8920
a15dab50c08ad0216bbad3236dae0693
1c2d93c30b7c9da44232df22679d2b8a
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional Universidad El Bosque
repository.mail.fl_str_mv bibliotecas@biteca.com
_version_ 1828164373416247296
spelling Ramos Montaña, Jesús DavidGómez Vasquez, Marilyn2024-12-05T14:30:13Z2024-12-05T14:30:13Z2024-11https://hdl.handle.net/20.500.12495/13596instname:Universidad El Bosquereponame:Repositorio Institucional Universidad El Bosquerepourl:https://repositorio.unbosque.edu.coEsta investigación se centra en el desarrollo de un algoritmo para estimar los Pseudo Odds Ratios (ORs) ajustados en modelos no paramétricos de clasificación supervisada de Machine Learning. Se empleó el método bootstrap y los índices lift. En el proceso se diseñaron 12 etapas, comenzando con la optimización de parámetros para cada modelo no paramétrico (Decision Tree Classifier (CART), Support Vector Classifier (SVC), Naive Bayes (NB)), evaluados con métricas como accuracy, specificity y recall. Por ejemplo, los valores de accuracy oscilaron entre 0.75 y 0.79. Las estimaciones se basaron en las probabilidades de las variables X y Y junto con los índices lift. Los resultados mostraron que el modelo NB ofreció el mejor rendimiento en cuanto a distribuciones y correlaciones, evidenciando una tendencia lineal en los gráficos de dispersión. Esta linealidad facilitó la transformación de los ORs para cada modelo, utilizando los Odds Ratios del modelo regresión logístico como variable dependiente y los OR_s como variable independiente, lo que permitió obtener estimaciones consistentes, como X1=0.38, tanto para el modelo paramétrico como para los no paramétricos. Las interpretaciones se validaron con intervalos de confianza al 95%, construidos a partir de muestras bootstrap, las cuales también permitieron el cálculo de diversos resúmenes estadísticos. Por ejemplo, para la variable X1, se obtuvieron intervalos de confianza de [0.266, 0.541] en regresión logística y [0.369, 0.411] en NB.MatemáticoPregradoThis research focuses on developing an algorithm to estimate adjusted Pseudo Odds Ratios (ORs) in non-parametric supervised classification models using Machine Learning. The bootstrap method and lift indices were employed. The process involved the design of 12 stages, starting with parameter optimization for each non-parametric model (Decision Tree Classifier (CART), Support Vector Classifier (SVC), Naive Bayes (NB)), evaluated with metrics such as accuracy, specificity, and recall. For instance, accuracy values ranged from 0.75 to 0.79. Estimates were based on the probabilities of the X and Y variables along with lift indices. Results showed that the NB model offered the best performance in terms of distributions and correlations, demonstrating a linear trend in the scatter plots. This linearity facilitated the transformation of ORs for each model, using the Odds Ratios from the logistic regression model as the dependent variable and OR_s as the independent variable, allowing for consistent estimates, such as X1 = 0.38, for both parametric and non-parametric models. Interpretations were validated with 95% confidence intervals, built from bootstrap samples, which also enabled the calculation of various statistical summaries. For example, for the variable X1, confidence intervals of [0.266, 0.541] were obtained in logistic regression, and [0.369, 0.411] in NB.application/pdfAtribución-NoComercial-CompartirIgual 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-sa/4.0/Acceso abiertohttp:/purl.org/coar/access_right/c_abf2/http://purl.org/coar/access_right/c_abf2Odds ratiosBootstrapLiftModelos no paramétricosClasificación supervisadaMedidad de asociaciónMachine learning interpretable510Odds ratiosBootstrapLiftNon-parametric modelsSupervised classificationMeasures of associationInterpretable machine learningEstimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificaciónEstimation of Pseudo Odds Ratios adjusted by bootstrap and lifts indices in a nonparametric machine learning model for classificationMatemáticasUniversidad El BosqueFacultad de CienciasTesis/Trabajo de grado - Monografía - Pregradohttps://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesishttps://purl.org/coar/version/c_ab4af688f83e57aaAlvear, J. O. (2018). Arboles de decision y Random Forest. https://bookdown.org/content/2031/Breiman, L., Friedman, J., Stone, C., & Olshen, R. (1984). Classification and Regression Trees. Taylor & Francis. https://books.google.com.co/books?id=JwQx-WOmSyQCCanavos, G. C. (1992). PROBABILIDAD Y ESTADÍSTICA Aplicaciones y métodos (McGraw-Hill).CART. (2024). DecisionTreeClassifier. https : / / scikit - learn . org / stable / modules/generated/sklearn.tree.DecisionTreeClassifier.htmlCerda, J., Vera, C., & Rada, G. (2013). Odds ratio: aspectos teóricos y prácticos. Revista médica de Chile, 141, 1329-1335. https://doi.org/10.4067/S0034-98872013001000014Chang, B. W. (2014). Kernel Machines are not Black Boxes - On the Interpretability of Kernel-based Nonparametric Models.Cui, B. (2024). Introduction to DataExplorer. https://cran.r-project.org/web/packages/DataExplorer/vignettes/dataexplorer-intro.htmlDalianis, H. (2018). Evaluation Metrics and Evaluation. Springer International Publishing. https://doi.org/10.1007/978-3-319-78503-5 6Freedman, D., Pisani, R., & Purves, R. (2007). Statistics (4ta). W. W. Norton Company.Harris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., Wieser, E., Taylor, J., Berg, S., Smith, N. J., Kern R., Picus, M., Hoyer, S., van Kerkwijk, M. H., Brett, M., Haldane, A., del Río, J. F., Wiebe, M., Peterson, P., . . . Oliphant, T. E. (2020). Array programming with NumPy. Nature, 585 (7825), 357-362. https: //doi.org/10.1038/s41586-020-2649-2Hastie, T., Tibshirani, R., & Friedman, J. (2016). The Elements of Statistical Learning: Data Mining, Inference, and Prediction (2nd). Springer.Hunter, J. D. (2007). Matplotlib: A 2D graphics environment. Computing in Science & Engineering, 9 (3), 90-95. https://doi.org/10.1109/MCSE. 2007.55James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning: with Applications in R (1er). Springer.Jewell, N. P. (2003). Statistics for Epidemiology (C. Chatfield & M. A. Tanner, Eds.; 1er). CHAPMAN HALL/CRC.Muñoz, R. J. (2019). Métodos de remuestreo: Jackknife y Bootstrap, 50-53.NB. (2024). MultinomialNB. https : / / scikit - learn . org / stable / modules / generated/sklearn.naive bayes.MultinomialNB.htmlpandas development team, T. (2020). pandas-dev/pandas: Pandas. https : //doi.org/10.5281/zenodo.3509134Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., & Duchesnay, E. (2011). Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, 12, 2825-2830.Sampieri, R., Collado, C. F., & Lucio, P. B. (2014). Metodología de la Investigación (6ta). Mc Graw Hill.Sony, R. K. (2020). UCI Heart Disease Data. https://www. kaggle.com/datasets/redwankarimsony/heart-disease-dataSVMs. (2024). Support Vector Machines. https://scikit-learn.org/stable/modules/svm.htmlSzumilas, M. (2010). Explaining odds ratios. Journal of the Canadian Academy of Child and Adolescent Psychiatry = Journal de l’Academie canadienne de psychiatrie de l’enfant et de l’adolescent, 19, 227-9.Themegraphy. (s.f.). The Lift Curve in Machine Learning.VanderPlas, J. (2017). Python Data Science Handbook: Essential Tools for Working with Data (1er). O’Reilly Media.Venables, W. N., & Ripley, B. D. (2002). Modern Applied Statistics with S (Fourth) [ISBN 0-387-95457-0]. Springer. https://www.stats.ox.ac.uk/pub/MASS4/Vu, K., Clark, R. A., Bellinger, C., Erickson, G., Osornio-Vargas, A., Zaïane, O. R., & Yuan, Y. (2019). The index lift in data mining has a close relationship with the association measure relative risk in epidemiological studies. BMC Medical Informatics and Decision Making, 19, 112. https://doi.org/10.1186/s12911-019-0838-4Waskom, M. L. (2021). seaborn: statistical data visualization. Journal of Open Source Software, 6 (60), 3021. https://doi.org/10.21105/joss.03021Wickham, H., Averick, M., Bryan, J., Chang, W., McGowan, L. D., François, R., Grolemund, G., Hayes, A., Henry, L., Hester, J., Kuhn, M., Pedersen, T. L., Miller, E., Bache, S. M., Müller, K., Ooms, J., Robinson, D., Seidel, D. P., Spinu, V., . . . Yutani, H. (2019). Welcome to the tidyverse. Journal of Open Source Software, 4 (43), 1686. https://doi.org/10.21105/joss.01686spaORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf1997967https://repositorio.unbosque.edu.co/bitstreams/a363608d-d0e8-4bd4-a1e4-63a5ff907c4c/downloadb165a9ce422bb99f9ad7b3c441d36850MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82000https://repositorio.unbosque.edu.co/bitstreams/a40206de-46e4-476f-9760-445454ce3f13/download17cc15b951e7cc6b3728a574117320f9MD55Anexo 1 Acta de aprobacion.pdfapplication/pdf195935https://repositorio.unbosque.edu.co/bitstreams/3c691e6d-2ee3-4d37-8b96-34bf165aef65/downloadf8146b26a6e34151fc60699d3f619a48MD57Carta de autorizacion.pdfapplication/pdf148932https://repositorio.unbosque.edu.co/bitstreams/4ffec7f8-f561-4be6-ba34-98baa2f2b925/downloadaa41511c7e2bfa5e66e70cba579bfc9aMD58CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8899https://repositorio.unbosque.edu.co/bitstreams/1b1070ac-6568-4a5c-b0c8-c38f29f07f09/download3b6ce8e9e36c89875e8cf39962fe8920MD56TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain97327https://repositorio.unbosque.edu.co/bitstreams/e5b33cc9-f8f7-422f-8810-ea258d65ded6/downloada15dab50c08ad0216bbad3236dae0693MD59THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg3455https://repositorio.unbosque.edu.co/bitstreams/460c93dc-6c7d-4bcf-9f8f-850c50ff05e0/download1c2d93c30b7c9da44232df22679d2b8aMD51020.500.12495/13596oai:repositorio.unbosque.edu.co:20.500.12495/135962024-12-06 03:01:24.096http://creativecommons.org/licenses/by-nc-sa/4.0/Atribución-NoComercial-CompartirIgual 4.0 Internacionalopen.accesshttps://repositorio.unbosque.edu.coRepositorio Institucional Universidad El Bosquebibliotecas@biteca.comTGljZW5jaWEgZGUgRGlzdHJpYnVjacOzbiBObyBFeGNsdXNpdmEKClBhcmEgcXVlIGVsIFJlcG9zaXRvcmlvIGRlIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSBhIHB1ZWRhIHJlcHJvZHVjaXIgeSBjb211bmljYXIgcMO6YmxpY2FtZW50ZSBzdSBkb2N1bWVudG8gZXMgbmVjZXNhcmlvIGxhIGFjZXB0YWNpw7NuIGRlIGxvcyBzaWd1aWVudGVzIHTDqXJtaW5vcy4gUG9yIGZhdm9yLCBsZWEgbGFzIHNpZ3VpZW50ZXMgY29uZGljaW9uZXMgZGUgbGljZW5jaWE6CgoxLiBBY2VwdGFuZG8gZXN0YSBsaWNlbmNpYSwgdXN0ZWQgKGVsIGF1dG9yL2VzIG8gZWwgcHJvcGlldGFyaW8vcyBkZSBsb3MgZGVyZWNob3MgZGUgYXV0b3IpIGdhcmFudGl6YSBhIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSBlbCBkZXJlY2hvIG5vIGV4Y2x1c2l2byBkZSBhcmNoaXZhciwgcmVwcm9kdWNpciwgY29udmVydGlyIChjb21vIHNlIGRlZmluZSBtw6FzIGFiYWpvKSwgY29tdW5pY2FyIHkvbyBkaXN0cmlidWlyIHN1IGRvY3VtZW50byBtdW5kaWFsbWVudGUgZW4gZm9ybWF0byBlbGVjdHLDs25pY28uCgoyLiBUYW1iacOpbiBlc3TDoSBkZSBhY3VlcmRvIGNvbiBxdWUgbGEgVW5pdmVyc2lkYWQgRWwgQm9zcXVlIHB1ZWRhIGNvbnNlcnZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBlc3RlIGRvY3VtZW50byB5LCBzaW4gYWx0ZXJhciBzdSBjb250ZW5pZG8sIGNvbnZlcnRpcmxvIGEgY3VhbHF1aWVyIGZvcm1hdG8gZGUgZmljaGVybywgbWVkaW8gbyBzb3BvcnRlLCBwYXJhIHByb3DDs3NpdG9zIGRlIHNlZ3VyaWRhZCwgcHJlc2VydmFjacOzbiB5IGFjY2Vzby4KCjMuIERlY2xhcmEgcXVlIGVsIGRvY3VtZW50byBlcyB1biB0cmFiYWpvIG9yaWdpbmFsIHN1eW8geS9vIHF1ZSB0aWVuZSBlbCBkZXJlY2hvIHBhcmEgb3RvcmdhciBsb3MgZGVyZWNob3MgY29udGVuaWRvcyBlbiBlc3RhIGxpY2VuY2lhLiBUYW1iacOpbiBkZWNsYXJhIHF1ZSBzdSBkb2N1bWVudG8gbm8gaW5mcmluZ2UsIGVuIHRhbnRvIGVuIGN1YW50byBsZSBzZWEgcG9zaWJsZSBzYWJlciwgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIGRlIG5pbmd1bmEgb3RyYSBwZXJzb25hIG8gZW50aWRhZC4KCjQuIFNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBkZWNsYXJhIHF1ZSBoYSBvYnRlbmlkbyBlbCBwZXJtaXNvIHNpbiByZXN0cmljY2nDs24gZGVsIHByb3BpZXRhcmlvIGRlIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBwYXJhIG90b3JnYXIgYSBsYSBVbml2ZXJzaWRhZCBFbCBCb3NxdWUgbG9zIGRlcmVjaG9zIHJlcXVlcmlkb3MgcG9yIGVzdGEgbGljZW5jaWEsIHkgcXVlIGVzZSBtYXRlcmlhbCBjdXlvcyBkZXJlY2hvcyBzb24gZGUgdGVyY2Vyb3MgZXN0w6EgY2xhcmFtZW50ZSBpZGVudGlmaWNhZG8geSByZWNvbm9jaWRvIGVuIGVsIHRleHRvIG8gY29udGVuaWRvIGRlbCBkb2N1bWVudG8gZW50cmVnYWRvLgoKNS4gU2kgZWwgZG9jdW1lbnRvIHNlIGJhc2EgZW4gdW5hIG9icmEgcXVlIGhhIHNpZG8gcGF0cm9jaW5hZGEgbyBhcG95YWRhIHBvciB1bmEgYWdlbmNpYSB1IG9yZ2FuaXphY2nDs24gZGlmZXJlbnRlIGRlIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSwgc2UgcHJlc3Vwb25lIHF1ZSBzZSBoYSBjdW1wbGlkbyBjb24gY3VhbHF1aWVyIGRlcmVjaG8gZGUgcmV2aXNpw7NuIHUgb3RyYXMgb2JsaWdhY2lvbmVzIHJlcXVlcmlkYXMgcG9yIGVzdGUgY29udHJhdG8gbyBhY3VlcmRvLgoKNi4gVW5pdmVyc2lkYWQgRWwgQm9zcXVlIGlkZW50aWZpY2Fyw6EgY2xhcmFtZW50ZSBzdS9zIG5vbWJyZS9zIGNvbW8gZWwvbG9zIGF1dG9yL2VzIG8gcHJvcGlldGFyaW8vcyBkZSBsb3MgZGVyZWNob3MgZGVsIGRvY3VtZW50bywgeSBubyBoYXLDoSBuaW5ndW5hIGFsdGVyYWNpw7NuIGRlIHN1IGRvY3VtZW50byBkaWZlcmVudGUgYSBsYXMgcGVybWl0aWRhcyBlbiBlc3RhIGxpY2VuY2lhLgo=