Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación
Esta investigación se centra en el desarrollo de un algoritmo para estimar los Pseudo Odds Ratios (ORs) ajustados en modelos no paramétricos de clasificación supervisada de Machine Learning. Se empleó el método bootstrap y los índices lift. En el proceso se diseñaron 12 etapas, comenzando con la opt...
- Autores:
-
Gómez Vasquez, Marilyn
- Tipo de recurso:
- https://purl.org/coar/resource_type/c_7a1f
- Fecha de publicación:
- 2024
- Institución:
- Universidad El Bosque
- Repositorio:
- Repositorio U. El Bosque
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.unbosque.edu.co:20.500.12495/13596
- Acceso en línea:
- https://hdl.handle.net/20.500.12495/13596
- Palabra clave:
- Odds ratios
Bootstrap
Lift
Modelos no paramétricos
Clasificación supervisada
Medidad de asociación
Machine learning interpretable
510
Odds ratios
Bootstrap
Lift
Non-parametric models
Supervised classification
Measures of association
Interpretable machine learning
- Rights
- License
- Atribución-NoComercial-CompartirIgual 4.0 Internacional
id |
UNBOSQUE2_0a671cdfaf50505dfb87a3c55c39b06e |
---|---|
oai_identifier_str |
oai:repositorio.unbosque.edu.co:20.500.12495/13596 |
network_acronym_str |
UNBOSQUE2 |
network_name_str |
Repositorio U. El Bosque |
repository_id_str |
|
dc.title.none.fl_str_mv |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación |
dc.title.translated.none.fl_str_mv |
Estimation of Pseudo Odds Ratios adjusted by bootstrap and lifts indices in a nonparametric machine learning model for classification |
title |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación |
spellingShingle |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación Odds ratios Bootstrap Lift Modelos no paramétricos Clasificación supervisada Medidad de asociación Machine learning interpretable 510 Odds ratios Bootstrap Lift Non-parametric models Supervised classification Measures of association Interpretable machine learning |
title_short |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación |
title_full |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación |
title_fullStr |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación |
title_full_unstemmed |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación |
title_sort |
Estimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificación |
dc.creator.fl_str_mv |
Gómez Vasquez, Marilyn |
dc.contributor.advisor.none.fl_str_mv |
Ramos Montaña, Jesús David |
dc.contributor.author.none.fl_str_mv |
Gómez Vasquez, Marilyn |
dc.subject.none.fl_str_mv |
Odds ratios Bootstrap Lift Modelos no paramétricos Clasificación supervisada Medidad de asociación Machine learning interpretable |
topic |
Odds ratios Bootstrap Lift Modelos no paramétricos Clasificación supervisada Medidad de asociación Machine learning interpretable 510 Odds ratios Bootstrap Lift Non-parametric models Supervised classification Measures of association Interpretable machine learning |
dc.subject.ddc.none.fl_str_mv |
510 |
dc.subject.keywords.none.fl_str_mv |
Odds ratios Bootstrap Lift Non-parametric models Supervised classification Measures of association Interpretable machine learning |
description |
Esta investigación se centra en el desarrollo de un algoritmo para estimar los Pseudo Odds Ratios (ORs) ajustados en modelos no paramétricos de clasificación supervisada de Machine Learning. Se empleó el método bootstrap y los índices lift. En el proceso se diseñaron 12 etapas, comenzando con la optimización de parámetros para cada modelo no paramétrico (Decision Tree Classifier (CART), Support Vector Classifier (SVC), Naive Bayes (NB)), evaluados con métricas como accuracy, specificity y recall. Por ejemplo, los valores de accuracy oscilaron entre 0.75 y 0.79. Las estimaciones se basaron en las probabilidades de las variables X y Y junto con los índices lift. Los resultados mostraron que el modelo NB ofreció el mejor rendimiento en cuanto a distribuciones y correlaciones, evidenciando una tendencia lineal en los gráficos de dispersión. Esta linealidad facilitó la transformación de los ORs para cada modelo, utilizando los Odds Ratios del modelo regresión logístico como variable dependiente y los OR_s como variable independiente, lo que permitió obtener estimaciones consistentes, como X1=0.38, tanto para el modelo paramétrico como para los no paramétricos. Las interpretaciones se validaron con intervalos de confianza al 95%, construidos a partir de muestras bootstrap, las cuales también permitieron el cálculo de diversos resúmenes estadísticos. Por ejemplo, para la variable X1, se obtuvieron intervalos de confianza de [0.266, 0.541] en regresión logística y [0.369, 0.411] en NB. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-12-05T14:30:13Z |
dc.date.available.none.fl_str_mv |
2024-12-05T14:30:13Z |
dc.date.issued.none.fl_str_mv |
2024-11 |
dc.type.coar.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.local.spa.fl_str_mv |
Tesis/Trabajo de grado - Monografía - Pregrado |
dc.type.coar.none.fl_str_mv |
https://purl.org/coar/resource_type/c_7a1f |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coarversion.none.fl_str_mv |
https://purl.org/coar/version/c_ab4af688f83e57aa |
format |
https://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12495/13596 |
dc.identifier.instname.spa.fl_str_mv |
instname:Universidad El Bosque |
dc.identifier.reponame.spa.fl_str_mv |
reponame:Repositorio Institucional Universidad El Bosque |
dc.identifier.repourl.none.fl_str_mv |
repourl:https://repositorio.unbosque.edu.co |
url |
https://hdl.handle.net/20.500.12495/13596 |
identifier_str_mv |
instname:Universidad El Bosque reponame:Repositorio Institucional Universidad El Bosque repourl:https://repositorio.unbosque.edu.co |
dc.language.iso.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
Alvear, J. O. (2018). Arboles de decision y Random Forest. https://bookdown.org/content/2031/ Breiman, L., Friedman, J., Stone, C., & Olshen, R. (1984). Classification and Regression Trees. Taylor & Francis. https://books.google.com.co/books?id=JwQx-WOmSyQC Canavos, G. C. (1992). PROBABILIDAD Y ESTADÍSTICA Aplicaciones y métodos (McGraw-Hill). CART. (2024). DecisionTreeClassifier. https : / / scikit - learn . org / stable / modules/generated/sklearn.tree.DecisionTreeClassifier.html Cerda, J., Vera, C., & Rada, G. (2013). Odds ratio: aspectos teóricos y prácticos. Revista médica de Chile, 141, 1329-1335. https://doi.org/10.4067/S0034-98872013001000014 Chang, B. W. (2014). Kernel Machines are not Black Boxes - On the Interpretability of Kernel-based Nonparametric Models. Cui, B. (2024). Introduction to DataExplorer. https://cran.r-project.org/web/packages/DataExplorer/vignettes/dataexplorer-intro.html Dalianis, H. (2018). Evaluation Metrics and Evaluation. Springer International Publishing. https://doi.org/10.1007/978-3-319-78503-5 6 Freedman, D., Pisani, R., & Purves, R. (2007). Statistics (4ta). W. W. Norton Company. Harris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., Wieser, E., Taylor, J., Berg, S., Smith, N. J., Kern R., Picus, M., Hoyer, S., van Kerkwijk, M. H., Brett, M., Haldane, A., del Río, J. F., Wiebe, M., Peterson, P., . . . Oliphant, T. E. (2020). Array programming with NumPy. Nature, 585 (7825), 357-362. https: //doi.org/10.1038/s41586-020-2649-2 Hastie, T., Tibshirani, R., & Friedman, J. (2016). The Elements of Statistical Learning: Data Mining, Inference, and Prediction (2nd). Springer. Hunter, J. D. (2007). Matplotlib: A 2D graphics environment. Computing in Science & Engineering, 9 (3), 90-95. https://doi.org/10.1109/MCSE. 2007.55 James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning: with Applications in R (1er). Springer. Jewell, N. P. (2003). Statistics for Epidemiology (C. Chatfield & M. A. Tanner, Eds.; 1er). CHAPMAN HALL/CRC. Muñoz, R. J. (2019). Métodos de remuestreo: Jackknife y Bootstrap, 50-53. NB. (2024). MultinomialNB. https : / / scikit - learn . org / stable / modules / generated/sklearn.naive bayes.MultinomialNB.html pandas development team, T. (2020). pandas-dev/pandas: Pandas. https : //doi.org/10.5281/zenodo.3509134 Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., & Duchesnay, E. (2011). Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, 12, 2825-2830. Sampieri, R., Collado, C. F., & Lucio, P. B. (2014). Metodología de la Investigación (6ta). Mc Graw Hill. Sony, R. K. (2020). UCI Heart Disease Data. https://www. kaggle.com/datasets/redwankarimsony/heart-disease-data SVMs. (2024). Support Vector Machines. https://scikit-learn.org/stable/modules/svm.html Szumilas, M. (2010). Explaining odds ratios. Journal of the Canadian Academy of Child and Adolescent Psychiatry = Journal de l’Academie canadienne de psychiatrie de l’enfant et de l’adolescent, 19, 227-9. Themegraphy. (s.f.). The Lift Curve in Machine Learning. VanderPlas, J. (2017). Python Data Science Handbook: Essential Tools for Working with Data (1er). O’Reilly Media. Venables, W. N., & Ripley, B. D. (2002). Modern Applied Statistics with S (Fourth) [ISBN 0-387-95457-0]. Springer. https://www.stats.ox.ac.uk/pub/MASS4/ Vu, K., Clark, R. A., Bellinger, C., Erickson, G., Osornio-Vargas, A., Zaïane, O. R., & Yuan, Y. (2019). The index lift in data mining has a close relationship with the association measure relative risk in epidemiological studies. BMC Medical Informatics and Decision Making, 19, 112. https://doi.org/10.1186/s12911-019-0838-4 Waskom, M. L. (2021). seaborn: statistical data visualization. Journal of Open Source Software, 6 (60), 3021. https://doi.org/10.21105/joss.03021 Wickham, H., Averick, M., Bryan, J., Chang, W., McGowan, L. D., François, R., Grolemund, G., Hayes, A., Henry, L., Hester, J., Kuhn, M., Pedersen, T. L., Miller, E., Bache, S. M., Müller, K., Ooms, J., Robinson, D., Seidel, D. P., Spinu, V., . . . Yutani, H. (2019). Welcome to the tidyverse. Journal of Open Source Software, 4 (43), 1686. https://doi.org/10.21105/joss.01686 |
dc.rights.en.fl_str_mv |
Atribución-NoComercial-CompartirIgual 4.0 Internacional |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.uri.none.fl_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ |
dc.rights.local.spa.fl_str_mv |
Acceso abierto |
dc.rights.accessrights.none.fl_str_mv |
http:/purl.org/coar/access_right/c_abf2/ |
rights_invalid_str_mv |
Atribución-NoComercial-CompartirIgual 4.0 Internacional http://creativecommons.org/licenses/by-nc-sa/4.0/ Acceso abierto http:/purl.org/coar/access_right/c_abf2/ http://purl.org/coar/access_right/c_abf2 |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.program.spa.fl_str_mv |
Matemáticas |
dc.publisher.grantor.spa.fl_str_mv |
Universidad El Bosque |
dc.publisher.faculty.spa.fl_str_mv |
Facultad de Ciencias |
institution |
Universidad El Bosque |
bitstream.url.fl_str_mv |
https://repositorio.unbosque.edu.co/bitstreams/a363608d-d0e8-4bd4-a1e4-63a5ff907c4c/download https://repositorio.unbosque.edu.co/bitstreams/a40206de-46e4-476f-9760-445454ce3f13/download https://repositorio.unbosque.edu.co/bitstreams/3c691e6d-2ee3-4d37-8b96-34bf165aef65/download https://repositorio.unbosque.edu.co/bitstreams/4ffec7f8-f561-4be6-ba34-98baa2f2b925/download https://repositorio.unbosque.edu.co/bitstreams/1b1070ac-6568-4a5c-b0c8-c38f29f07f09/download https://repositorio.unbosque.edu.co/bitstreams/e5b33cc9-f8f7-422f-8810-ea258d65ded6/download https://repositorio.unbosque.edu.co/bitstreams/460c93dc-6c7d-4bcf-9f8f-850c50ff05e0/download |
bitstream.checksum.fl_str_mv |
b165a9ce422bb99f9ad7b3c441d36850 17cc15b951e7cc6b3728a574117320f9 f8146b26a6e34151fc60699d3f619a48 aa41511c7e2bfa5e66e70cba579bfc9a 3b6ce8e9e36c89875e8cf39962fe8920 a15dab50c08ad0216bbad3236dae0693 1c2d93c30b7c9da44232df22679d2b8a |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional Universidad El Bosque |
repository.mail.fl_str_mv |
bibliotecas@biteca.com |
_version_ |
1828164373416247296 |
spelling |
Ramos Montaña, Jesús DavidGómez Vasquez, Marilyn2024-12-05T14:30:13Z2024-12-05T14:30:13Z2024-11https://hdl.handle.net/20.500.12495/13596instname:Universidad El Bosquereponame:Repositorio Institucional Universidad El Bosquerepourl:https://repositorio.unbosque.edu.coEsta investigación se centra en el desarrollo de un algoritmo para estimar los Pseudo Odds Ratios (ORs) ajustados en modelos no paramétricos de clasificación supervisada de Machine Learning. Se empleó el método bootstrap y los índices lift. En el proceso se diseñaron 12 etapas, comenzando con la optimización de parámetros para cada modelo no paramétrico (Decision Tree Classifier (CART), Support Vector Classifier (SVC), Naive Bayes (NB)), evaluados con métricas como accuracy, specificity y recall. Por ejemplo, los valores de accuracy oscilaron entre 0.75 y 0.79. Las estimaciones se basaron en las probabilidades de las variables X y Y junto con los índices lift. Los resultados mostraron que el modelo NB ofreció el mejor rendimiento en cuanto a distribuciones y correlaciones, evidenciando una tendencia lineal en los gráficos de dispersión. Esta linealidad facilitó la transformación de los ORs para cada modelo, utilizando los Odds Ratios del modelo regresión logístico como variable dependiente y los OR_s como variable independiente, lo que permitió obtener estimaciones consistentes, como X1=0.38, tanto para el modelo paramétrico como para los no paramétricos. Las interpretaciones se validaron con intervalos de confianza al 95%, construidos a partir de muestras bootstrap, las cuales también permitieron el cálculo de diversos resúmenes estadísticos. Por ejemplo, para la variable X1, se obtuvieron intervalos de confianza de [0.266, 0.541] en regresión logística y [0.369, 0.411] en NB.MatemáticoPregradoThis research focuses on developing an algorithm to estimate adjusted Pseudo Odds Ratios (ORs) in non-parametric supervised classification models using Machine Learning. The bootstrap method and lift indices were employed. The process involved the design of 12 stages, starting with parameter optimization for each non-parametric model (Decision Tree Classifier (CART), Support Vector Classifier (SVC), Naive Bayes (NB)), evaluated with metrics such as accuracy, specificity, and recall. For instance, accuracy values ranged from 0.75 to 0.79. Estimates were based on the probabilities of the X and Y variables along with lift indices. Results showed that the NB model offered the best performance in terms of distributions and correlations, demonstrating a linear trend in the scatter plots. This linearity facilitated the transformation of ORs for each model, using the Odds Ratios from the logistic regression model as the dependent variable and OR_s as the independent variable, allowing for consistent estimates, such as X1 = 0.38, for both parametric and non-parametric models. Interpretations were validated with 95% confidence intervals, built from bootstrap samples, which also enabled the calculation of various statistical summaries. For example, for the variable X1, confidence intervals of [0.266, 0.541] were obtained in logistic regression, and [0.369, 0.411] in NB.application/pdfAtribución-NoComercial-CompartirIgual 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-sa/4.0/Acceso abiertohttp:/purl.org/coar/access_right/c_abf2/http://purl.org/coar/access_right/c_abf2Odds ratiosBootstrapLiftModelos no paramétricosClasificación supervisadaMedidad de asociaciónMachine learning interpretable510Odds ratiosBootstrapLiftNon-parametric modelsSupervised classificationMeasures of associationInterpretable machine learningEstimación de Pseudo Odds Ratios ajustados mediante bootstrap e índices lifts en un modelo no paramétrico de machine learning para clasificaciónEstimation of Pseudo Odds Ratios adjusted by bootstrap and lifts indices in a nonparametric machine learning model for classificationMatemáticasUniversidad El BosqueFacultad de CienciasTesis/Trabajo de grado - Monografía - Pregradohttps://purl.org/coar/resource_type/c_7a1fhttp://purl.org/coar/resource_type/c_7a1finfo:eu-repo/semantics/bachelorThesishttps://purl.org/coar/version/c_ab4af688f83e57aaAlvear, J. O. (2018). Arboles de decision y Random Forest. https://bookdown.org/content/2031/Breiman, L., Friedman, J., Stone, C., & Olshen, R. (1984). Classification and Regression Trees. Taylor & Francis. https://books.google.com.co/books?id=JwQx-WOmSyQCCanavos, G. C. (1992). PROBABILIDAD Y ESTADÍSTICA Aplicaciones y métodos (McGraw-Hill).CART. (2024). DecisionTreeClassifier. https : / / scikit - learn . org / stable / modules/generated/sklearn.tree.DecisionTreeClassifier.htmlCerda, J., Vera, C., & Rada, G. (2013). Odds ratio: aspectos teóricos y prácticos. Revista médica de Chile, 141, 1329-1335. https://doi.org/10.4067/S0034-98872013001000014Chang, B. W. (2014). Kernel Machines are not Black Boxes - On the Interpretability of Kernel-based Nonparametric Models.Cui, B. (2024). Introduction to DataExplorer. https://cran.r-project.org/web/packages/DataExplorer/vignettes/dataexplorer-intro.htmlDalianis, H. (2018). Evaluation Metrics and Evaluation. Springer International Publishing. https://doi.org/10.1007/978-3-319-78503-5 6Freedman, D., Pisani, R., & Purves, R. (2007). Statistics (4ta). W. W. Norton Company.Harris, C. R., Millman, K. J., van der Walt, S. J., Gommers, R., Virtanen, P., Cournapeau, D., Wieser, E., Taylor, J., Berg, S., Smith, N. J., Kern R., Picus, M., Hoyer, S., van Kerkwijk, M. H., Brett, M., Haldane, A., del Río, J. F., Wiebe, M., Peterson, P., . . . Oliphant, T. E. (2020). Array programming with NumPy. Nature, 585 (7825), 357-362. https: //doi.org/10.1038/s41586-020-2649-2Hastie, T., Tibshirani, R., & Friedman, J. (2016). The Elements of Statistical Learning: Data Mining, Inference, and Prediction (2nd). Springer.Hunter, J. D. (2007). Matplotlib: A 2D graphics environment. Computing in Science & Engineering, 9 (3), 90-95. https://doi.org/10.1109/MCSE. 2007.55James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning: with Applications in R (1er). Springer.Jewell, N. P. (2003). Statistics for Epidemiology (C. Chatfield & M. A. Tanner, Eds.; 1er). CHAPMAN HALL/CRC.Muñoz, R. J. (2019). Métodos de remuestreo: Jackknife y Bootstrap, 50-53.NB. (2024). MultinomialNB. https : / / scikit - learn . org / stable / modules / generated/sklearn.naive bayes.MultinomialNB.htmlpandas development team, T. (2020). pandas-dev/pandas: Pandas. https : //doi.org/10.5281/zenodo.3509134Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., & Duchesnay, E. (2011). Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, 12, 2825-2830.Sampieri, R., Collado, C. F., & Lucio, P. B. (2014). Metodología de la Investigación (6ta). Mc Graw Hill.Sony, R. K. (2020). UCI Heart Disease Data. https://www. kaggle.com/datasets/redwankarimsony/heart-disease-dataSVMs. (2024). Support Vector Machines. https://scikit-learn.org/stable/modules/svm.htmlSzumilas, M. (2010). Explaining odds ratios. Journal of the Canadian Academy of Child and Adolescent Psychiatry = Journal de l’Academie canadienne de psychiatrie de l’enfant et de l’adolescent, 19, 227-9.Themegraphy. (s.f.). The Lift Curve in Machine Learning.VanderPlas, J. (2017). Python Data Science Handbook: Essential Tools for Working with Data (1er). O’Reilly Media.Venables, W. N., & Ripley, B. D. (2002). Modern Applied Statistics with S (Fourth) [ISBN 0-387-95457-0]. Springer. https://www.stats.ox.ac.uk/pub/MASS4/Vu, K., Clark, R. A., Bellinger, C., Erickson, G., Osornio-Vargas, A., Zaïane, O. R., & Yuan, Y. (2019). The index lift in data mining has a close relationship with the association measure relative risk in epidemiological studies. BMC Medical Informatics and Decision Making, 19, 112. https://doi.org/10.1186/s12911-019-0838-4Waskom, M. L. (2021). seaborn: statistical data visualization. Journal of Open Source Software, 6 (60), 3021. https://doi.org/10.21105/joss.03021Wickham, H., Averick, M., Bryan, J., Chang, W., McGowan, L. D., François, R., Grolemund, G., Hayes, A., Henry, L., Hester, J., Kuhn, M., Pedersen, T. L., Miller, E., Bache, S. M., Müller, K., Ooms, J., Robinson, D., Seidel, D. P., Spinu, V., . . . Yutani, H. (2019). Welcome to the tidyverse. Journal of Open Source Software, 4 (43), 1686. https://doi.org/10.21105/joss.01686spaORIGINALTrabajo de grado.pdfTrabajo de grado.pdfapplication/pdf1997967https://repositorio.unbosque.edu.co/bitstreams/a363608d-d0e8-4bd4-a1e4-63a5ff907c4c/downloadb165a9ce422bb99f9ad7b3c441d36850MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82000https://repositorio.unbosque.edu.co/bitstreams/a40206de-46e4-476f-9760-445454ce3f13/download17cc15b951e7cc6b3728a574117320f9MD55Anexo 1 Acta de aprobacion.pdfapplication/pdf195935https://repositorio.unbosque.edu.co/bitstreams/3c691e6d-2ee3-4d37-8b96-34bf165aef65/downloadf8146b26a6e34151fc60699d3f619a48MD57Carta de autorizacion.pdfapplication/pdf148932https://repositorio.unbosque.edu.co/bitstreams/4ffec7f8-f561-4be6-ba34-98baa2f2b925/downloadaa41511c7e2bfa5e66e70cba579bfc9aMD58CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8899https://repositorio.unbosque.edu.co/bitstreams/1b1070ac-6568-4a5c-b0c8-c38f29f07f09/download3b6ce8e9e36c89875e8cf39962fe8920MD56TEXTTrabajo de grado.pdf.txtTrabajo de grado.pdf.txtExtracted texttext/plain97327https://repositorio.unbosque.edu.co/bitstreams/e5b33cc9-f8f7-422f-8810-ea258d65ded6/downloada15dab50c08ad0216bbad3236dae0693MD59THUMBNAILTrabajo de grado.pdf.jpgTrabajo de grado.pdf.jpgGenerated Thumbnailimage/jpeg3455https://repositorio.unbosque.edu.co/bitstreams/460c93dc-6c7d-4bcf-9f8f-850c50ff05e0/download1c2d93c30b7c9da44232df22679d2b8aMD51020.500.12495/13596oai:repositorio.unbosque.edu.co:20.500.12495/135962024-12-06 03:01:24.096http://creativecommons.org/licenses/by-nc-sa/4.0/Atribución-NoComercial-CompartirIgual 4.0 Internacionalopen.accesshttps://repositorio.unbosque.edu.coRepositorio Institucional Universidad El Bosquebibliotecas@biteca.comTGljZW5jaWEgZGUgRGlzdHJpYnVjacOzbiBObyBFeGNsdXNpdmEKClBhcmEgcXVlIGVsIFJlcG9zaXRvcmlvIGRlIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSBhIHB1ZWRhIHJlcHJvZHVjaXIgeSBjb211bmljYXIgcMO6YmxpY2FtZW50ZSBzdSBkb2N1bWVudG8gZXMgbmVjZXNhcmlvIGxhIGFjZXB0YWNpw7NuIGRlIGxvcyBzaWd1aWVudGVzIHTDqXJtaW5vcy4gUG9yIGZhdm9yLCBsZWEgbGFzIHNpZ3VpZW50ZXMgY29uZGljaW9uZXMgZGUgbGljZW5jaWE6CgoxLiBBY2VwdGFuZG8gZXN0YSBsaWNlbmNpYSwgdXN0ZWQgKGVsIGF1dG9yL2VzIG8gZWwgcHJvcGlldGFyaW8vcyBkZSBsb3MgZGVyZWNob3MgZGUgYXV0b3IpIGdhcmFudGl6YSBhIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSBlbCBkZXJlY2hvIG5vIGV4Y2x1c2l2byBkZSBhcmNoaXZhciwgcmVwcm9kdWNpciwgY29udmVydGlyIChjb21vIHNlIGRlZmluZSBtw6FzIGFiYWpvKSwgY29tdW5pY2FyIHkvbyBkaXN0cmlidWlyIHN1IGRvY3VtZW50byBtdW5kaWFsbWVudGUgZW4gZm9ybWF0byBlbGVjdHLDs25pY28uCgoyLiBUYW1iacOpbiBlc3TDoSBkZSBhY3VlcmRvIGNvbiBxdWUgbGEgVW5pdmVyc2lkYWQgRWwgQm9zcXVlIHB1ZWRhIGNvbnNlcnZhciBtw6FzIGRlIHVuYSBjb3BpYSBkZSBlc3RlIGRvY3VtZW50byB5LCBzaW4gYWx0ZXJhciBzdSBjb250ZW5pZG8sIGNvbnZlcnRpcmxvIGEgY3VhbHF1aWVyIGZvcm1hdG8gZGUgZmljaGVybywgbWVkaW8gbyBzb3BvcnRlLCBwYXJhIHByb3DDs3NpdG9zIGRlIHNlZ3VyaWRhZCwgcHJlc2VydmFjacOzbiB5IGFjY2Vzby4KCjMuIERlY2xhcmEgcXVlIGVsIGRvY3VtZW50byBlcyB1biB0cmFiYWpvIG9yaWdpbmFsIHN1eW8geS9vIHF1ZSB0aWVuZSBlbCBkZXJlY2hvIHBhcmEgb3RvcmdhciBsb3MgZGVyZWNob3MgY29udGVuaWRvcyBlbiBlc3RhIGxpY2VuY2lhLiBUYW1iacOpbiBkZWNsYXJhIHF1ZSBzdSBkb2N1bWVudG8gbm8gaW5mcmluZ2UsIGVuIHRhbnRvIGVuIGN1YW50byBsZSBzZWEgcG9zaWJsZSBzYWJlciwgbG9zIGRlcmVjaG9zIGRlIGF1dG9yIGRlIG5pbmd1bmEgb3RyYSBwZXJzb25hIG8gZW50aWRhZC4KCjQuIFNpIGVsIGRvY3VtZW50byBjb250aWVuZSBtYXRlcmlhbGVzIGRlIGxvcyBjdWFsZXMgbm8gdGllbmUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBkZWNsYXJhIHF1ZSBoYSBvYnRlbmlkbyBlbCBwZXJtaXNvIHNpbiByZXN0cmljY2nDs24gZGVsIHByb3BpZXRhcmlvIGRlIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBwYXJhIG90b3JnYXIgYSBsYSBVbml2ZXJzaWRhZCBFbCBCb3NxdWUgbG9zIGRlcmVjaG9zIHJlcXVlcmlkb3MgcG9yIGVzdGEgbGljZW5jaWEsIHkgcXVlIGVzZSBtYXRlcmlhbCBjdXlvcyBkZXJlY2hvcyBzb24gZGUgdGVyY2Vyb3MgZXN0w6EgY2xhcmFtZW50ZSBpZGVudGlmaWNhZG8geSByZWNvbm9jaWRvIGVuIGVsIHRleHRvIG8gY29udGVuaWRvIGRlbCBkb2N1bWVudG8gZW50cmVnYWRvLgoKNS4gU2kgZWwgZG9jdW1lbnRvIHNlIGJhc2EgZW4gdW5hIG9icmEgcXVlIGhhIHNpZG8gcGF0cm9jaW5hZGEgbyBhcG95YWRhIHBvciB1bmEgYWdlbmNpYSB1IG9yZ2FuaXphY2nDs24gZGlmZXJlbnRlIGRlIGxhIFVuaXZlcnNpZGFkIEVsIEJvc3F1ZSwgc2UgcHJlc3Vwb25lIHF1ZSBzZSBoYSBjdW1wbGlkbyBjb24gY3VhbHF1aWVyIGRlcmVjaG8gZGUgcmV2aXNpw7NuIHUgb3RyYXMgb2JsaWdhY2lvbmVzIHJlcXVlcmlkYXMgcG9yIGVzdGUgY29udHJhdG8gbyBhY3VlcmRvLgoKNi4gVW5pdmVyc2lkYWQgRWwgQm9zcXVlIGlkZW50aWZpY2Fyw6EgY2xhcmFtZW50ZSBzdS9zIG5vbWJyZS9zIGNvbW8gZWwvbG9zIGF1dG9yL2VzIG8gcHJvcGlldGFyaW8vcyBkZSBsb3MgZGVyZWNob3MgZGVsIGRvY3VtZW50bywgeSBubyBoYXLDoSBuaW5ndW5hIGFsdGVyYWNpw7NuIGRlIHN1IGRvY3VtZW50byBkaWZlcmVudGUgYSBsYXMgcGVybWl0aWRhcyBlbiBlc3RhIGxpY2VuY2lhLgo= |