Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
Se aborda parte el trabajo futuro propuesto en el trabajo de grado Método para la síntesis de paisajes de optimización bidimensionales realizado por Mariana Medina. Se aborda el proceso de generación de problemas de prueba de optimizadores mediante la implementación de un VAE, proponiendo además el...
- Autores:
-
López Guevara, Juan Pablo
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad Distrital Francisco José de Caldas
- Repositorio:
- RIUD: repositorio U. Distrital
- Idioma:
- spa
- OAI Identifier:
- oai:repository.udistrital.edu.co:11349/42411
- Acceso en línea:
- http://hdl.handle.net/11349/42411
- Palabra clave:
- IA
Regresor simbólico
VAE
IC
Sintesis
Optimizador
Ingeniería Electrónica -- Tesis y disertaciones académicas
Autocodificadores variacionales (VAE)
Regresión simbólica
Optimización y funciones de prueba
Simbolic regressor
VAE
CI
Synthesis
Optimizer
AI
- Rights
- License
- Abierto (Texto Completo)
id |
UDISTRITA2_577e219381c6e36f69b188f042e9d4f3 |
---|---|
oai_identifier_str |
oai:repository.udistrital.edu.co:11349/42411 |
network_acronym_str |
UDISTRITA2 |
network_name_str |
RIUD: repositorio U. Distrital |
repository_id_str |
|
dc.title.none.fl_str_mv |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica |
dc.title.titleenglish.none.fl_str_mv |
Test function synthesis method for optimizers based on variational autoencoders and symbolic regression |
title |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica |
spellingShingle |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica IA Regresor simbólico VAE IC Sintesis Optimizador Ingeniería Electrónica -- Tesis y disertaciones académicas Autocodificadores variacionales (VAE) Regresión simbólica Optimización y funciones de prueba Simbolic regressor VAE CI Synthesis Optimizer AI |
title_short |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica |
title_full |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica |
title_fullStr |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica |
title_full_unstemmed |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica |
title_sort |
Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica |
dc.creator.fl_str_mv |
López Guevara, Juan Pablo |
dc.contributor.advisor.none.fl_str_mv |
Melgarejo Rey, Miguel Alberto |
dc.contributor.author.none.fl_str_mv |
López Guevara, Juan Pablo |
dc.contributor.orcid.none.fl_str_mv |
López Guevara, Juan Pablo [0009-0000-4427-356X] |
dc.subject.none.fl_str_mv |
IA Regresor simbólico VAE IC Sintesis Optimizador |
topic |
IA Regresor simbólico VAE IC Sintesis Optimizador Ingeniería Electrónica -- Tesis y disertaciones académicas Autocodificadores variacionales (VAE) Regresión simbólica Optimización y funciones de prueba Simbolic regressor VAE CI Synthesis Optimizer AI |
dc.subject.lemb.none.fl_str_mv |
Ingeniería Electrónica -- Tesis y disertaciones académicas Autocodificadores variacionales (VAE) Regresión simbólica Optimización y funciones de prueba |
dc.subject.keyword.none.fl_str_mv |
Simbolic regressor VAE CI Synthesis Optimizer AI |
description |
Se aborda parte el trabajo futuro propuesto en el trabajo de grado Método para la síntesis de paisajes de optimización bidimensionales realizado por Mariana Medina. Se aborda el proceso de generación de problemas de prueba de optimizadores mediante la implementación de un VAE, proponiendo además el proceso de caracterización de los problemas generados mediante el uso de regresores simbólicos. Se realiza el diseño experimental sobre las variaciones en la cantidad de dimensiones que componen el espacio latente, se da por vencedor al regresor simbólico PySR, y finalmente, se comparan las bases de datos generadoras y generadas mediante la utilización de un mapa autoorganizado (SOM) entrenado mediante el uso de las características ELA de los problemas de optimización generados. Se propone como trabajo futuro la generación en alta dimensión y la generación controlada. El trabajo realizado contribuye al desarrollo del artículo Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems. |
publishDate |
2024 |
dc.date.accessioned.none.fl_str_mv |
2024-10-29T00:07:11Z |
dc.date.available.none.fl_str_mv |
2024-10-29T00:07:11Z |
dc.date.created.none.fl_str_mv |
2024-09-05 |
dc.type.none.fl_str_mv |
bachelorThesis |
dc.type.degree.none.fl_str_mv |
Monografía |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
format |
http://purl.org/coar/resource_type/c_7a1f |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/11349/42411 |
url |
http://hdl.handle.net/11349/42411 |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
M. Melgarejo, M. Medina, J. Lopez y A. Rodriguez, «Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems,» Information Sciences, vol. 686, pág. 121 371, 2025, issn: 0020-0255. doi: https : / / doi . org / 10 . 1016 / j . ins . 2024 . 121371. dirección: https : //www.sciencedirect.com/science/article/pii/S0020025524012854. M. Medina Muñoz, Método para la síntesis de paisajes de optimización bidimensionales basado en redes adversarias generativas, Grupo de Investigación: Laboratorio de Automática e Inteligencia Computacional, Bogotá D.C., Colombia, 2023. B. van Stein, F. X. Long, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, DoE2Vec: Deep-learning Based Features for Exploratory Landscape Analysis, 2023. arXiv: 2304.01219 [math.OC]. M. J. Mahmoodabadi y A. R. Nemati, «A novel adaptive genetic algorithm for global optimization of mathematical test functions and real-world problems,» Engineering Science and Technology, an International Journal, vol. 19, n.o 4, págs. 2002-2021, 2016. P. Chen, Z. Shihua, Z. Qiang y N. Kasabov, «A meta-inspired termite queen algorithm for global optimization and engineering design problems,» Engineering Applications of Artificial Intelligence, vol. 111, 2022. B. Addis y M. Locatelli, «A new class of test functions for global optimization,» Journal of Global Optimization, vol. 38, n.o 3, págs. 479-501, 2007. K. Hussain, M. Salleh, S. Cheng y R. Naseem, «Common Benchmark Functions for Metaheuristic Evaluation: A Review,» International Journal on Informatics Visualization, vol. 1, págs. 218-223, nov. de 2017. doi: 10.30630/joiv.1.4-2.65. H. M. Azamathulla y F. C. Wu, «Support vector machine approach for longitudinal dispersion coefficients in natural streams,» Applied Soft Computing, vol. 11, n.o 2, págs. 2902-2905, 2011. C. K. WNg y D. Li, «Test problem generator for unconstrained global optimization, » Computers and Operations Research, vol. 51, págs. 338-349, 2014. D. Yazdani, J. Branke, M. N. Omidvar et al., «Generalized Moving Peaks Benchmark, » CoRR, vol. abs/2106.06174, 2021. arXiv: 2106.06174. dirección: https: //arxiv.org/abs/2106.06174. D. Yazdani, M. N. Omidvar, D. Yazdani, K. Deb y A. H. Gandomi, GNBG: A Generalized and Configurable Benchmark Generator for Continuous Numerical Optimization, 2023. arXiv: 2312.07083 [cs.NE]. Y. Wang, N. Wagner y J. M. Rondinelli, «Symbolic regression in materials science, » MRS Communications, vol. 9, n.o 3, págs. 793-805, 2019. doi: 10.1557/mrc. 2019.85. N. C. Cueto Ceilis y H. Peters, An empirical comparison of generative capabilities of GAN vs VAE, Dissertation, 2022. P. Cristovao, H. Nakada, Y. Tanimura y H. Asoh, «Generating In-Between Images Through Learned Latent Space Representation Using Variational Autoencoders,» IEEE Access, vol. 8, págs. 149 456-149 467, 2020. doi: 10.1109/ACCESS.2020. 3016313. W. G. L. Cava, P. Orzechowski, B. Burlacu et al., «Contemporary Symbolic Regression Methods and their Relative Performance,» CoRR, vol. abs/2107.14351, 2021. arXiv: 2107.14351. dirección: https://arxiv.org/abs/2107.14351. K. Houston-Edwards, «Machine Learning Becomes a Mathematical Collaborator, » Quantamagazine, 2022. S.-M. Udrescu y M. Tegmark, «AI Feynman: A physics-inspired method for symbolic regression,» Science Advances, vol. 6, n.o 16, eaay2631, 2020. doi: 10.1126/ sciadv . aay2631. eprint: https : / / www . science . org / doi / pdf / 10 . 1126 / sciadv.aay2631. dirección: https://www.science.org/doi/abs/10.1126/ sciadv.aay2631. V. Novo Sanjurjo, Teoría de la optimización. UNED. Universidad Nacional de Educación a Distancia, 1999. J. López, Optimización Multi-objetivo. Aplicaciones a problemas del mundo real. Universidad Nacional de la Plata, Facultad de Informática, 2015. F. J. M. Estudillo, Introducción a las matemáticas para la economía. Desclée De Brouwer, S.A., 2005. M. Bezerra, R. Santelli, E. Oliveira, L. Villar y L. Escaleira, «Response Surface Methodology (RSM) as a Tool for Optimization in Analytical Chemistry,» Talanta, vol. 76, págs. 965-77, oct. de 2008. doi: 10.1016/j.talanta.2008.05.019. R. D. Lang y A. P. Engelbrecht, «An exploratory landscape analysis-based benchmark suite,» Algorithms, vol. 14, n.o 3, pág. 78, 2021. F. Hillier y G. Lieberman, «Introduction To Operations Research,» en ene. de 1969, vol. 139. doi: 10.2307/2345190. S. Edelkamp y S. Schrödl, Heuristic Search - Theory and Applications. ene. de 2012, isbn: 978-0-12-372512-7. doi: 10.1016/C2009-0-16511-X. M.-E. Marmion, F. Mascia, M. López-Ibáñez y T. Stützle, «Towards the Automatic Design of Metaheuristics,» ene. de 2013. V. V. Vazirani, Approximation Algorithms. Springer Publishing Company, Incorporated, 2010, isbn: 3642084699. R. S. Sutton y A. G. Barto, Reinforcement Learning: An Introduction. Cambridge, MA, USA: A Bradford Book, 2018, isbn: 0262039249. O. Mersmann, M. Preuss y H. Trautmann, «Benchmarking Evolutionary Algorithms: Towards Exploratory Landscape Analysis,» oct. de 2010, isbn: 978-3-642- 15843-8. doi: 10.1007/978-3-642-15844-5_8. N. Hansen, S. Finck, R. Ros y A. Auger, «Real-Parameter Black-Box Optimization Benchmarking 2009: Noiseless Functions Definitions,» INRIA, Research Report RR-6829, 2009, inria-00362633v2. A. Törn, M. Ali y S. Viitanen, «Stochastic Global Optimization: Problem Classes and Solution Techniques,» Journal of Global Optimization, vol. 14, págs. 437-447, jun. de 1999. doi: 10.1023/A:1008395408187. G. E. P. Box y K. B. Wilson, «On the Experimental Attainment of Optimum Conditions,» Journal of the Royal Statistical Society: Series B (Methodological), vol. 13, n.o 1, págs. 1-38, dic. de 2018, issn: 0035-9246. doi: 10.1111/j.2517- 6161.1951.tb00067.x. eprint: https://academic.oup.com/jrsssb/articlepdf/ 13/1/1/49093871/jrsssb\_13\_1\_1.pdf. dirección: https://doi.org/ 10.1111/j.2517-6161.1951.tb00067.x. X. Xue, C. Yang, L. Feng, K. Zhang, L. Song y K. C. Tan, A Scalable Test Problem Generator for Sequential Transfer Optimization, 2023. arXiv: 2304.08503 [cs.NE]. T. H. Fay y P. H. Kloppers, «The Gibbs’ phenomenon,» International Journal of Mathematical Education in Science and Technology, vol. 32, n.o 1, págs. 73-89, 2001. N. Barzilay, S. T. Berkovitz y R. Giryes, «MISS GAN: A Multi-IlluStrator style generative adversarial network for image to illustration translation,» Pattern Recognition Letters, vol. 151, págs. 140-147, 2021. A. Shokraei Fard, D. C. Reutens y V. Vegh, «From CNNs to GANs for crossmodality medical image estimation,» Computers in Biology and Medicine, vol. 146, 2022. D. P. Kingma y M. Welling, «An Introduction to Variational Autoencoders,» Foundations and Trends® in Machine Learning, vol. 12, n.o 4, págs. 307-392, 2019, issn: 1935-8245. doi: 10.1561/2200000056. dirección: http://dx.doi. org/10.1561/2200000056. Y. Yang, K. Zheng, C. Wu e Y. Yang, «Improving the Classification Effectiveness of Intrusion Detection by Using Improved Conditional Variational AutoEncoder and Deep Neural Network,» Sensors, vol. 19, pág. 2528, jun. de 2019. doi: 10. 3390/s19112528. X. Glorot e Y. Bengio, «Understanding the difficulty of training deep feedforward neural networks,» en Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, Y. W. Teh y M. Titterington, eds., ép. Proceedings of Machine Learning Research, vol. 9, Chia Laguna Resort, Sardinia, Italy: PMLR, 13–15 May de 2010, págs. 249-256. dirección: https : / / proceedings.mlr.press/v9/glorot10a.html. L. Friedrich y J. Maziero, «Avoiding barren plateaus with classical deep neural networks,» Physical Review A, vol. 106, n.o 4, oct. de 2022, issn: 2469-9934. doi: 10.1103/physreva.106.042433. dirección: http://dx.doi.org/10.1103/ PhysRevA.106.042433. S. Ge, C. Hang y T. Zhang, «Adaptive neural network control of nonlinear systems by state and output feedback,» IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), vol. 29, n.o 6, págs. 818-828, 1999. doi: 10. 1109/3477.809035. K. He, X. Zhang, S. Ren y J. Sun, Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification, 2015. arXiv: 1502.01852 [cs.CV]. R. Pastrana, Disentangling Variational Autoencoders, 2022. arXiv: 2211.07700 [cs.LG]. D. P. Kingma y M.Welling, Auto-Encoding Variational Bayes, 2022. arXiv: 1312. 6114 [stat.ML]. M. Rivera, How to train your VAE, 2024. arXiv: 2309.13160 [cs.LG]. S. Damm, D. Forster, D. Velychko, Z. Dai, A. Fischer y J. Lücke, The ELBO of Variational Autoencoders Converges to a Sum of Three Entropies, 2023. arXiv: 2010.14860 [stat.ML]. I. Higgins, L. Matthey, A. Pal et al., «beta-VAE: Learning Basic Visual Concepts with a Constrained Variational Framework,» en International Conference on Learning Representations, 2017. dirección: https://openreview.net/forum? id=Sy2fzU9gl. N. Haut, W. Banzhaf y B. Punch, Correlation versus RMSE Loss Functions in Symbolic Regression Tasks, 2022. arXiv: 2205.15990 [cs.NE]. Z. Chen e Y.-G. Wang, «Efficient Regression Analysis with Ranked-Set Sampling, » Biometrics, vol. 60, n.o 4, págs. 997-1004, dic. de 2004, issn: 0006-341X. doi: 10.1111/j.0006-341X.2004.00255.x. eprint: https://academic.oup. com/biometrics/article- pdf/60/4/997/51877372/biometrics\_60\_4\ _997.pdf. dirección: https://doi.org/10.1111/j.0006-341X.2004.00255.x. A. Acharya, A. Prakash, P. Saxena y A. Nigam, «Sampling: Why and How of it? Anita S Acharya, Anupam Prakash, Pikee Saxena, Aruna Nigam,» Indian Journal of Medical Specilaities, ene. de 2013. doi: 10.7713/ijms.2013.0032. V. Melo, «Kaizen programming,» jul. de 2014, isbn: 978-1-4503-2662-9. doi: 10. 1145/2576768.2598264. J. S. Farris, «Methods for Computing Wagner Trees,» Systematic Biology, vol. 19, n.o 1, págs. 83-92, mar. de 1970, issn: 1063-5157. doi: 10.1093/sysbio/19.1.83. eprint: https://academic.oup.com/sysbio/article-pdf/19/1/83/4642459/ 19-1-83.pdf. dirección: https://doi.org/10.1093/sysbio/19.1.83. W. M. Fitch, «Toward Defining the Course of Evolution: Minimum Change for a Specific Tree Topology,» Systematic Zoology, vol. 20, n.o 4, págs. 406-416, 1971, issn: 00397989. dirección: http://www.jstor.org/stable/2412116 (visitado 02-07-2024). J. R. Koza, Genetic programming: On the programming of computers by means of natural selection. MIT Press, 1992. R. Poli, W. Langdon y N. Mcphee, A Field Guide to Genetic Programming. ene. de 2008, isbn: 978-1-4092-0073-4. T. Stephens, gplearn Documentation, Release 0.4.2, ago. de 2023. dirección: https: //gplearn.readthedocs.io/en/0.4.2/. M. Cranmer, Interpretable Machine Learning for Science with PySR and SymbolicRegression. jl, 2023. arXiv: 2305.01582 [astro-ph.IM]. M. Schmidt y H. Lipson, «Distilling Free-Form Natural Laws from Experimental Data,» Science (New York, N.Y.), vol. 324, págs. 81-5, mayo de 2009. doi: 10. 1126/science.1165893. Z. Wang y A. C. Bovik, «Mean squared error: Love it or leave it? A new look at Signal Fidelity Measures,» IEEE Signal Processing Magazine, vol. 26, n.o 1, págs. 98-117, 2009. doi: 10.1109/MSP.2008.930649. P. Schober, C. Boer y L. Schwarte, «Correlation Coefficients: Appropriate Use and Interpretation,» Anesthesia & Analgesia, vol. 126, pág. 1, feb. de 2018. doi: 10.1213/ANE.0000000000002864. R. Steuer, J. Kurths, C. Daub, J. Weise y J. Selbig, «The Mutual Information: Detecting and Evaluating Dependencies between Variables,» Bioinformatics (Oxford, England), vol. 18 Suppl 2, S231-40, feb. de 2002. doi: 10.1093/ bioinformatics/18.suppl_2.S231. A. Kiran y S. S. Kumar, «A Comparative Analysis of GAN and VAE based Synthetic Data Generators for High Dimensional, Imbalanced Tabular data,» en 2023 2nd International Conference for Innovation in Technology (INOCON), 2023, págs. 1-6. doi: 10.1109/INOCON57975.2023.10101315. K.-L. Lim, X. Jiang y C. Yi, «Deep Clustering With Variational Autoencoder,» IEEE Signal Processing Letters, vol. 27, págs. 231-235, 2020. doi: 10.1109/LSP. 2020.2965328. M. Abadi, A. Agarwal, P. Barham et al., «TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems,» CoRR, vol. abs/1603.04467, 2016. arXiv: 1603.04467. dirección: http://arxiv.org/abs/1603.04467. A. Paszke, S. Gross, F. Massa et al., «PyTorch: An Imperative Style, High- Performance Deep Learning Library,» CoRR, vol. abs/1912.01703, 2019. arXiv: 1912.01703. dirección: http://arxiv.org/abs/1912.01703. D. Kingma y J. Ba, «Adam: A Method for Stochastic Optimization,» International Conference on Learning Representations, dic. de 2014. A. Kalinin, A. Jafari, E. Avots, C. Ozcinar y G. Anbarjafari, Generative AI-based Style Recommendation Using Fashion ItemDetection and Classification, jun. de 2024. doi: 10.21203/rs.3.rs-4517638/v1. M. C. Connor, G. H. Canal y C. J. Rozell, Variational Autoencoder with Learned Latent Structure, 2021. arXiv: 2006.10597 [stat.ML]. dirección: https: //arxiv.org/abs/2006.10597. D. Wolpert y W. Macready, «No free lunch theorems for optimization,» IEEE Transactions on Evolutionary Computation, vol. 1, n.o 1, págs. 67-82, 1997. doi: 10.1109/4235.585893. Y.-H. Dai, «Convergence Properties of the BFGS Algoritm,» SIAM Journal on Optimization, vol. 13, n.o 3, págs. 693-701, 2002. doi: 10.1137/S1052623401383455. eprint: https : / / doi . org / 10 . 1137 / S1052623401383455. dirección: https : //doi.org/10.1137/S1052623401383455. M. Jamil y X. Yang, «A Literature Survey of Benchmark Functions For Global Optimization Problems,» CoRR, vol. abs/1308.4008, 2013. arXiv: 1308.4008. dirección: http://arxiv.org/abs/1308.4008. H. Kanemitsu, H. Imai y M. Miyaskoshi, «Definitions and Properties of (Local) Minima and Multimodal Functions using Level Set for Continuous Optimization Problems,» IEICE Proceeding Series, vol. 2, págs. 94-97, mar. de 2014. doi: 10. 15248/proc.2.94. F. X. Long, B. van Stein, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, «Generating Cheap Representative Functions for Expensive Automotive Crashworthiness Optimization,» ACM Trans. Evol. Learn. Optim., feb. de 2024, Just Accepted. doi: 10.1145/3646554. dirección: https://doi.org/10.1145/3646554. R. D. Lang y A. P. Engelbrecht, «An Exploratory Landscape Analysis-Based Benchmark Suite,» Algorithms, vol. 14, n.o 3, 2021, issn: 1999-4893. doi: 10. 3390/a14030078. dirección: https://www.mdpi.com/1999-4893/14/3/78. |
dc.rights.coar.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
dc.rights.acceso.none.fl_str_mv |
Abierto (Texto Completo) |
rights_invalid_str_mv |
Abierto (Texto Completo) http://purl.org/coar/access_right/c_abf2 |
dc.format.mimetype.none.fl_str_mv |
pdf |
institution |
Universidad Distrital Francisco José de Caldas |
bitstream.url.fl_str_mv |
https://repository.udistrital.edu.co/bitstreams/6fc76023-550b-4454-ad4c-044360f907bb/download https://repository.udistrital.edu.co/bitstreams/1f71ec09-2448-495e-8ba2-51502defb94b/download https://repository.udistrital.edu.co/bitstreams/6b8dfec9-5062-4bf2-978d-879e3bf1c075/download |
bitstream.checksum.fl_str_mv |
a4d41aa00fb0c4a332ce462875955e1c 21f01ae78a38a2a7b55bfecae833a3d8 997daf6c648c962d566d7b082dac908d |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Universidad Distrital |
repository.mail.fl_str_mv |
repositorio@udistrital.edu.co |
_version_ |
1837007119678701568 |
spelling |
Melgarejo Rey, Miguel AlbertoLópez Guevara, Juan PabloLópez Guevara, Juan Pablo [0009-0000-4427-356X]2024-10-29T00:07:11Z2024-10-29T00:07:11Z2024-09-05http://hdl.handle.net/11349/42411Se aborda parte el trabajo futuro propuesto en el trabajo de grado Método para la síntesis de paisajes de optimización bidimensionales realizado por Mariana Medina. Se aborda el proceso de generación de problemas de prueba de optimizadores mediante la implementación de un VAE, proponiendo además el proceso de caracterización de los problemas generados mediante el uso de regresores simbólicos. Se realiza el diseño experimental sobre las variaciones en la cantidad de dimensiones que componen el espacio latente, se da por vencedor al regresor simbólico PySR, y finalmente, se comparan las bases de datos generadoras y generadas mediante la utilización de un mapa autoorganizado (SOM) entrenado mediante el uso de las características ELA de los problemas de optimización generados. Se propone como trabajo futuro la generación en alta dimensión y la generación controlada. El trabajo realizado contribuye al desarrollo del artículo Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems.Part of the future work proposed in the degree work Method for the synthesis of two-dimensional optimization landscapes by Mariana Medina is addressed. The process of generating optimizer test problems through the implementation of a VAE is addressed, also proposing the process of characterization of the problems generated through the use of symbolic regressors. The experimental design is carried out on the variations in the number of dimensions that compose the latent space, the symbolic regressor PySR is considered the winner, and finally, the generated and generated databases are compared through the use of a self-organizing map (SOM) trained by means of the use of the ELA characteristics of the generated optimization problems. High-dimensional generation and controlled generation are proposed as future work. The work performed contributes to the development of the paper Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems.pdfspaIARegresor simbólicoVAEICSintesisOptimizadorIngeniería Electrónica -- Tesis y disertaciones académicasAutocodificadores variacionales (VAE)Regresión simbólicaOptimización y funciones de pruebaSimbolic regressorVAECISynthesisOptimizerAIMétodo de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólicaTest function synthesis method for optimizers based on variational autoencoders and symbolic regressionbachelorThesisMonografíainfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fAbierto (Texto Completo)http://purl.org/coar/access_right/c_abf2M. Melgarejo, M. Medina, J. Lopez y A. Rodriguez, «Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems,» Information Sciences, vol. 686, pág. 121 371, 2025, issn: 0020-0255. doi: https : / / doi . org / 10 . 1016 / j . ins . 2024 . 121371. dirección: https : //www.sciencedirect.com/science/article/pii/S0020025524012854.M. Medina Muñoz, Método para la síntesis de paisajes de optimización bidimensionales basado en redes adversarias generativas, Grupo de Investigación: Laboratorio de Automática e Inteligencia Computacional, Bogotá D.C., Colombia, 2023.B. van Stein, F. X. Long, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, DoE2Vec: Deep-learning Based Features for Exploratory Landscape Analysis, 2023. arXiv: 2304.01219 [math.OC].M. J. Mahmoodabadi y A. R. Nemati, «A novel adaptive genetic algorithm for global optimization of mathematical test functions and real-world problems,» Engineering Science and Technology, an International Journal, vol. 19, n.o 4, págs. 2002-2021, 2016.P. Chen, Z. Shihua, Z. Qiang y N. Kasabov, «A meta-inspired termite queen algorithm for global optimization and engineering design problems,» Engineering Applications of Artificial Intelligence, vol. 111, 2022.B. Addis y M. Locatelli, «A new class of test functions for global optimization,» Journal of Global Optimization, vol. 38, n.o 3, págs. 479-501, 2007.K. Hussain, M. Salleh, S. Cheng y R. Naseem, «Common Benchmark Functions for Metaheuristic Evaluation: A Review,» International Journal on Informatics Visualization, vol. 1, págs. 218-223, nov. de 2017. doi: 10.30630/joiv.1.4-2.65.H. M. Azamathulla y F. C. Wu, «Support vector machine approach for longitudinal dispersion coefficients in natural streams,» Applied Soft Computing, vol. 11, n.o 2, págs. 2902-2905, 2011.C. K. WNg y D. Li, «Test problem generator for unconstrained global optimization, » Computers and Operations Research, vol. 51, págs. 338-349, 2014.D. Yazdani, J. Branke, M. N. Omidvar et al., «Generalized Moving Peaks Benchmark, » CoRR, vol. abs/2106.06174, 2021. arXiv: 2106.06174. dirección: https: //arxiv.org/abs/2106.06174.D. Yazdani, M. N. Omidvar, D. Yazdani, K. Deb y A. H. Gandomi, GNBG: A Generalized and Configurable Benchmark Generator for Continuous Numerical Optimization, 2023. arXiv: 2312.07083 [cs.NE].Y. Wang, N. Wagner y J. M. Rondinelli, «Symbolic regression in materials science, » MRS Communications, vol. 9, n.o 3, págs. 793-805, 2019. doi: 10.1557/mrc. 2019.85.N. C. Cueto Ceilis y H. Peters, An empirical comparison of generative capabilities of GAN vs VAE, Dissertation, 2022.P. Cristovao, H. Nakada, Y. Tanimura y H. Asoh, «Generating In-Between Images Through Learned Latent Space Representation Using Variational Autoencoders,» IEEE Access, vol. 8, págs. 149 456-149 467, 2020. doi: 10.1109/ACCESS.2020. 3016313.W. G. L. Cava, P. Orzechowski, B. Burlacu et al., «Contemporary Symbolic Regression Methods and their Relative Performance,» CoRR, vol. abs/2107.14351, 2021. arXiv: 2107.14351. dirección: https://arxiv.org/abs/2107.14351.K. Houston-Edwards, «Machine Learning Becomes a Mathematical Collaborator, » Quantamagazine, 2022.S.-M. Udrescu y M. Tegmark, «AI Feynman: A physics-inspired method for symbolic regression,» Science Advances, vol. 6, n.o 16, eaay2631, 2020. doi: 10.1126/ sciadv . aay2631. eprint: https : / / www . science . org / doi / pdf / 10 . 1126 / sciadv.aay2631. dirección: https://www.science.org/doi/abs/10.1126/ sciadv.aay2631.V. Novo Sanjurjo, Teoría de la optimización. UNED. Universidad Nacional de Educación a Distancia, 1999.J. López, Optimización Multi-objetivo. Aplicaciones a problemas del mundo real. Universidad Nacional de la Plata, Facultad de Informática, 2015.F. J. M. Estudillo, Introducción a las matemáticas para la economía. Desclée De Brouwer, S.A., 2005.M. Bezerra, R. Santelli, E. Oliveira, L. Villar y L. Escaleira, «Response Surface Methodology (RSM) as a Tool for Optimization in Analytical Chemistry,» Talanta, vol. 76, págs. 965-77, oct. de 2008. doi: 10.1016/j.talanta.2008.05.019.R. D. Lang y A. P. Engelbrecht, «An exploratory landscape analysis-based benchmark suite,» Algorithms, vol. 14, n.o 3, pág. 78, 2021.F. Hillier y G. Lieberman, «Introduction To Operations Research,» en ene. de 1969, vol. 139. doi: 10.2307/2345190.S. Edelkamp y S. Schrödl, Heuristic Search - Theory and Applications. ene. de 2012, isbn: 978-0-12-372512-7. doi: 10.1016/C2009-0-16511-X.M.-E. Marmion, F. Mascia, M. López-Ibáñez y T. Stützle, «Towards the Automatic Design of Metaheuristics,» ene. de 2013.V. V. Vazirani, Approximation Algorithms. Springer Publishing Company, Incorporated, 2010, isbn: 3642084699.R. S. Sutton y A. G. Barto, Reinforcement Learning: An Introduction. Cambridge, MA, USA: A Bradford Book, 2018, isbn: 0262039249.O. Mersmann, M. Preuss y H. Trautmann, «Benchmarking Evolutionary Algorithms: Towards Exploratory Landscape Analysis,» oct. de 2010, isbn: 978-3-642- 15843-8. doi: 10.1007/978-3-642-15844-5_8.N. Hansen, S. Finck, R. Ros y A. Auger, «Real-Parameter Black-Box Optimization Benchmarking 2009: Noiseless Functions Definitions,» INRIA, Research Report RR-6829, 2009, inria-00362633v2.A. Törn, M. Ali y S. Viitanen, «Stochastic Global Optimization: Problem Classes and Solution Techniques,» Journal of Global Optimization, vol. 14, págs. 437-447, jun. de 1999. doi: 10.1023/A:1008395408187.G. E. P. Box y K. B. Wilson, «On the Experimental Attainment of Optimum Conditions,» Journal of the Royal Statistical Society: Series B (Methodological), vol. 13, n.o 1, págs. 1-38, dic. de 2018, issn: 0035-9246. doi: 10.1111/j.2517- 6161.1951.tb00067.x. eprint: https://academic.oup.com/jrsssb/articlepdf/ 13/1/1/49093871/jrsssb\_13\_1\_1.pdf. dirección: https://doi.org/ 10.1111/j.2517-6161.1951.tb00067.x.X. Xue, C. Yang, L. Feng, K. Zhang, L. Song y K. C. Tan, A Scalable Test Problem Generator for Sequential Transfer Optimization, 2023. arXiv: 2304.08503 [cs.NE].T. H. Fay y P. H. Kloppers, «The Gibbs’ phenomenon,» International Journal of Mathematical Education in Science and Technology, vol. 32, n.o 1, págs. 73-89, 2001.N. Barzilay, S. T. Berkovitz y R. Giryes, «MISS GAN: A Multi-IlluStrator style generative adversarial network for image to illustration translation,» Pattern Recognition Letters, vol. 151, págs. 140-147, 2021.A. Shokraei Fard, D. C. Reutens y V. Vegh, «From CNNs to GANs for crossmodality medical image estimation,» Computers in Biology and Medicine, vol. 146, 2022.D. P. Kingma y M. Welling, «An Introduction to Variational Autoencoders,» Foundations and Trends® in Machine Learning, vol. 12, n.o 4, págs. 307-392, 2019, issn: 1935-8245. doi: 10.1561/2200000056. dirección: http://dx.doi. org/10.1561/2200000056.Y. Yang, K. Zheng, C. Wu e Y. Yang, «Improving the Classification Effectiveness of Intrusion Detection by Using Improved Conditional Variational AutoEncoder and Deep Neural Network,» Sensors, vol. 19, pág. 2528, jun. de 2019. doi: 10. 3390/s19112528.X. Glorot e Y. Bengio, «Understanding the difficulty of training deep feedforward neural networks,» en Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, Y. W. Teh y M. Titterington, eds., ép. Proceedings of Machine Learning Research, vol. 9, Chia Laguna Resort, Sardinia, Italy: PMLR, 13–15 May de 2010, págs. 249-256. dirección: https : / / proceedings.mlr.press/v9/glorot10a.html.L. Friedrich y J. Maziero, «Avoiding barren plateaus with classical deep neural networks,» Physical Review A, vol. 106, n.o 4, oct. de 2022, issn: 2469-9934. doi: 10.1103/physreva.106.042433. dirección: http://dx.doi.org/10.1103/ PhysRevA.106.042433.S. Ge, C. Hang y T. Zhang, «Adaptive neural network control of nonlinear systems by state and output feedback,» IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), vol. 29, n.o 6, págs. 818-828, 1999. doi: 10. 1109/3477.809035.K. He, X. Zhang, S. Ren y J. Sun, Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification, 2015. arXiv: 1502.01852 [cs.CV].R. Pastrana, Disentangling Variational Autoencoders, 2022. arXiv: 2211.07700 [cs.LG].D. P. Kingma y M.Welling, Auto-Encoding Variational Bayes, 2022. arXiv: 1312. 6114 [stat.ML].M. Rivera, How to train your VAE, 2024. arXiv: 2309.13160 [cs.LG].S. Damm, D. Forster, D. Velychko, Z. Dai, A. Fischer y J. Lücke, The ELBO of Variational Autoencoders Converges to a Sum of Three Entropies, 2023. arXiv: 2010.14860 [stat.ML].I. Higgins, L. Matthey, A. Pal et al., «beta-VAE: Learning Basic Visual Concepts with a Constrained Variational Framework,» en International Conference on Learning Representations, 2017. dirección: https://openreview.net/forum? id=Sy2fzU9gl.N. Haut, W. Banzhaf y B. Punch, Correlation versus RMSE Loss Functions in Symbolic Regression Tasks, 2022. arXiv: 2205.15990 [cs.NE].Z. Chen e Y.-G. Wang, «Efficient Regression Analysis with Ranked-Set Sampling, » Biometrics, vol. 60, n.o 4, págs. 997-1004, dic. de 2004, issn: 0006-341X. doi: 10.1111/j.0006-341X.2004.00255.x. eprint: https://academic.oup. com/biometrics/article- pdf/60/4/997/51877372/biometrics\_60\_4\ _997.pdf. dirección: https://doi.org/10.1111/j.0006-341X.2004.00255.x.A. Acharya, A. Prakash, P. Saxena y A. Nigam, «Sampling: Why and How of it? Anita S Acharya, Anupam Prakash, Pikee Saxena, Aruna Nigam,» Indian Journal of Medical Specilaities, ene. de 2013. doi: 10.7713/ijms.2013.0032.V. Melo, «Kaizen programming,» jul. de 2014, isbn: 978-1-4503-2662-9. doi: 10. 1145/2576768.2598264.J. S. Farris, «Methods for Computing Wagner Trees,» Systematic Biology, vol. 19, n.o 1, págs. 83-92, mar. de 1970, issn: 1063-5157. doi: 10.1093/sysbio/19.1.83. eprint: https://academic.oup.com/sysbio/article-pdf/19/1/83/4642459/ 19-1-83.pdf. dirección: https://doi.org/10.1093/sysbio/19.1.83.W. M. Fitch, «Toward Defining the Course of Evolution: Minimum Change for a Specific Tree Topology,» Systematic Zoology, vol. 20, n.o 4, págs. 406-416, 1971, issn: 00397989. dirección: http://www.jstor.org/stable/2412116 (visitado 02-07-2024).J. R. Koza, Genetic programming: On the programming of computers by means of natural selection. MIT Press, 1992.R. Poli, W. Langdon y N. Mcphee, A Field Guide to Genetic Programming. ene. de 2008, isbn: 978-1-4092-0073-4.T. Stephens, gplearn Documentation, Release 0.4.2, ago. de 2023. dirección: https: //gplearn.readthedocs.io/en/0.4.2/.M. Cranmer, Interpretable Machine Learning for Science with PySR and SymbolicRegression. jl, 2023. arXiv: 2305.01582 [astro-ph.IM].M. Schmidt y H. Lipson, «Distilling Free-Form Natural Laws from Experimental Data,» Science (New York, N.Y.), vol. 324, págs. 81-5, mayo de 2009. doi: 10. 1126/science.1165893.Z. Wang y A. C. Bovik, «Mean squared error: Love it or leave it? A new look at Signal Fidelity Measures,» IEEE Signal Processing Magazine, vol. 26, n.o 1, págs. 98-117, 2009. doi: 10.1109/MSP.2008.930649.P. Schober, C. Boer y L. Schwarte, «Correlation Coefficients: Appropriate Use and Interpretation,» Anesthesia & Analgesia, vol. 126, pág. 1, feb. de 2018. doi: 10.1213/ANE.0000000000002864.R. Steuer, J. Kurths, C. Daub, J. Weise y J. Selbig, «The Mutual Information: Detecting and Evaluating Dependencies between Variables,» Bioinformatics (Oxford, England), vol. 18 Suppl 2, S231-40, feb. de 2002. doi: 10.1093/ bioinformatics/18.suppl_2.S231.A. Kiran y S. S. Kumar, «A Comparative Analysis of GAN and VAE based Synthetic Data Generators for High Dimensional, Imbalanced Tabular data,» en 2023 2nd International Conference for Innovation in Technology (INOCON), 2023, págs. 1-6. doi: 10.1109/INOCON57975.2023.10101315.K.-L. Lim, X. Jiang y C. Yi, «Deep Clustering With Variational Autoencoder,» IEEE Signal Processing Letters, vol. 27, págs. 231-235, 2020. doi: 10.1109/LSP. 2020.2965328.M. Abadi, A. Agarwal, P. Barham et al., «TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems,» CoRR, vol. abs/1603.04467, 2016. arXiv: 1603.04467. dirección: http://arxiv.org/abs/1603.04467.A. Paszke, S. Gross, F. Massa et al., «PyTorch: An Imperative Style, High- Performance Deep Learning Library,» CoRR, vol. abs/1912.01703, 2019. arXiv: 1912.01703. dirección: http://arxiv.org/abs/1912.01703.D. Kingma y J. Ba, «Adam: A Method for Stochastic Optimization,» International Conference on Learning Representations, dic. de 2014.A. Kalinin, A. Jafari, E. Avots, C. Ozcinar y G. Anbarjafari, Generative AI-based Style Recommendation Using Fashion ItemDetection and Classification, jun. de 2024. doi: 10.21203/rs.3.rs-4517638/v1.M. C. Connor, G. H. Canal y C. J. Rozell, Variational Autoencoder with Learned Latent Structure, 2021. arXiv: 2006.10597 [stat.ML]. dirección: https: //arxiv.org/abs/2006.10597.D. Wolpert y W. Macready, «No free lunch theorems for optimization,» IEEE Transactions on Evolutionary Computation, vol. 1, n.o 1, págs. 67-82, 1997. doi: 10.1109/4235.585893.Y.-H. Dai, «Convergence Properties of the BFGS Algoritm,» SIAM Journal on Optimization, vol. 13, n.o 3, págs. 693-701, 2002. doi: 10.1137/S1052623401383455. eprint: https : / / doi . org / 10 . 1137 / S1052623401383455. dirección: https : //doi.org/10.1137/S1052623401383455.M. Jamil y X. Yang, «A Literature Survey of Benchmark Functions For Global Optimization Problems,» CoRR, vol. abs/1308.4008, 2013. arXiv: 1308.4008. dirección: http://arxiv.org/abs/1308.4008.H. Kanemitsu, H. Imai y M. Miyaskoshi, «Definitions and Properties of (Local) Minima and Multimodal Functions using Level Set for Continuous Optimization Problems,» IEICE Proceeding Series, vol. 2, págs. 94-97, mar. de 2014. doi: 10. 15248/proc.2.94.F. X. Long, B. van Stein, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, «Generating Cheap Representative Functions for Expensive Automotive Crashworthiness Optimization,» ACM Trans. Evol. Learn. Optim., feb. de 2024, Just Accepted. doi: 10.1145/3646554. dirección: https://doi.org/10.1145/3646554.R. D. Lang y A. P. Engelbrecht, «An Exploratory Landscape Analysis-Based Benchmark Suite,» Algorithms, vol. 14, n.o 3, 2021, issn: 1999-4893. doi: 10. 3390/a14030078. dirección: https://www.mdpi.com/1999-4893/14/3/78.ORIGINALLopezGuevaraJuanPablo2024.pdfLopezGuevaraJuanPablo2024.pdfTrabajo de gradoapplication/pdf5690624https://repository.udistrital.edu.co/bitstreams/6fc76023-550b-4454-ad4c-044360f907bb/downloada4d41aa00fb0c4a332ce462875955e1cMD51LicenciaDeUsoyAutorizaciónLopezGuevaraJuanPablo2024.pdfLicenciaDeUsoyAutorizaciónLopezGuevaraJuanPablo2024.pdfLicencia de uso y autorizaciónapplication/pdf686428https://repository.udistrital.edu.co/bitstreams/1f71ec09-2448-495e-8ba2-51502defb94b/download21f01ae78a38a2a7b55bfecae833a3d8MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-87167https://repository.udistrital.edu.co/bitstreams/6b8dfec9-5062-4bf2-978d-879e3bf1c075/download997daf6c648c962d566d7b082dac908dMD5211349/42411oai:repository.udistrital.edu.co:11349/424112024-10-28 19:07:14.649open.accesshttps://repository.udistrital.edu.coRepositorio Universidad Distritalrepositorio@udistrital.edu.coTElDRU5DSUEgWSBBVVRPUklaQUNJw5NOIEVTUEVDSUFMIFBBUkEgUFVCTElDQVIgWSBQRVJNSVRJUiBMQSBDT05TVUxUQSBZIFVTTyBERSBDT05URU5JRE9TIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgREUgTEEgVU5JVkVSU0lEQUQgRElTVFJJVEFMCgpUw6lybWlub3MgeSBjb25kaWNpb25lcyBkZSB1c28gcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyAoUklVRCkKCkNvbW8gdGl0dWxhcihlcykgZGVsKG9zKSBkZXJlY2hvKHMpIGRlIGF1dG9yLCBjb25maWVybyAoZXJpbW9zKSBhIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIChlbiBhZGVsYW50ZSwgTEEgVU5JVkVSU0lEQUQpIHVuYSBsaWNlbmNpYSBwYXJhIHVzbyBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgaW50ZWdyYXLDoSBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIChlbiBhZGVsYW50ZSwgUklVRCksIGRlIGFjdWVyZG8gYSBsYXMgc2lndWllbnRlcyByZWdsYXMsIGxhcyBjdWFsZXMgZGVjbGFybyAoYW1vcykgY29ub2NlciB5IGFjZXB0YXI6CgphKQlFc3RhcsOhIHZpZ2VudGUgYSBwYXJ0aXIgZGUgbGEgZmVjaGEgZW4gcXVlIHNlIGluY2x1eWEgZW4gZWwgUklVRCB5IGhhc3RhIHBvciB1biBwbGF6byBkZSBkaWV6ICgxMCkgQcOxb3MsIHByb3Jyb2dhYmxlIGluZGVmaW5pZGFtZW50ZSBwb3IgZWwgdGllbXBvIHF1ZSBkdXJlIGVsIGRlcmVjaG8gUGF0cmltb25pYWwgZGVsIGF1dG9yOyBsYSBjdWFsIHBvZHLDoSBkYXJzZSBwb3IgdGVybWluYWRhIHByZXZpYSBzb2xpY2l0dWQgYSBMQSBVTklWRVJTSURBRCBwb3IgZXNjcml0byBjb24gdW5hIGFudGVsYWNpw7NuIGRlIGRvcyAoMikgbWVzZXMgYW50ZXMgZGVsIHZlbmNpbWllbnRvIGRlbCBwbGF6byBpbmljaWFsIG8gZWwgZGUgc3UocykgcHLDs3Jyb2dhKHMpLgoKYikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIHB1YmxpY2FyIGxhIG9icmEgZW4gbGFzIGRpc3RpbnRhcyB2ZXJzaW9uZXMgcmVxdWVyaWRhcyBwb3IgZWwgUklVRCAoZGlnaXRhbCwgaW1wcmVzbywgZWxlY3Ryw7NuaWNvIHUgb3RybyBtZWRpbyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBMQSBVTklWRVJTSURBRCBubyBzZXLDoSByZXNwb25zYWJsZSBlbiBlbCBldmVudG8gcXVlIGVsIGRvY3VtZW50byBhcGFyZXpjYSByZWZlcmVuY2lhZG8gZW4gbW90b3JlcyBkZSBiw7pzcXVlZGEgbyByZXBvc2l0b3Jpb3MgZGlmZXJlbnRlcyBhbCBSSVVELCB1bmEgdmV6IGVsKG9zKSBhdXRvcihlcykgc29saWNpdGVuIHN1IGVsaW1pbmFjacOzbiBkZWwgUklVRCwgZGFkbyBxdWUgbGEgbWlzbWEgc2Vyw6EgcHVibGljYWRhIGVuIEludGVybmV0LgoKYykJTGEgYXV0b3JpemFjacOzbiBzZSBoYWNlIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCBsb3MgYXV0b3JlcyByZW51bmNpYW4gYSByZWNpYmlyIGJlbmVmaWNpbyBhbGd1bm8gcG9yIGxhIHB1YmxpY2FjacOzbiwgZGlzdHJpYnVjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGN1YWxxdWllciBvdHJvIHVzbyBxdWUgc2UgaGFnYSBlbiBsb3MgdMOpcm1pbm9zIGRlIGxhIHByZXNlbnRlIGxpY2VuY2lhIHkgZGUgbGEgbGljZW5jaWEgZGUgdXNvIGNvbiBxdWUgc2UgcHVibGljYSAoQ3JlYXRpdmUgQ29tbW9ucykuCgpkKQlMb3MgY29udGVuaWRvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQgc29uIG9icmEocykgb3JpZ2luYWwoZXMpIHNvYnJlIGxhIGN1YWwoZXMpIGVsKG9zKSBhdXRvcihlcykgY29tbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBhc3VtZW4gdG90YWwgcmVzcG9uc2FiaWxpZGFkIHBvciBlbCBjb250ZW5pZG8gZGUgc3Ugb2JyYSBhbnRlIExBIFVOSVZFUlNJREFEIHkgYW50ZSB0ZXJjZXJvcy4gRW4gdG9kbyBjYXNvIExBIFVOSVZFUlNJREFEIHNlIGNvbXByb21ldGUgYSBpbmRpY2FyIHNpZW1wcmUgbGEgYXV0b3LDrWEgaW5jbHV5ZW5kbyBlbCBub21icmUgZGVsIGF1dG9yIHkgbGEgZmVjaGEgZGUgcHVibGljYWNpw7NuLgoKZSkJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGluY2x1aXIgbGEgb2JyYSBlbiBsb3Mgw61uZGljZXMgeSBidXNjYWRvcmVzIHF1ZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBtYXhpbWl6YXIgbGEgdmlzaWJpbGlkYWQgZWwgdXNvIHkgZWwgaW1wYWN0byBkZSBsYSBwcm9kdWNjacOzbiBjaWVudMOtZmljYSwgYXJ0w61zdGljYSB5IGFjYWTDqW1pY2EgZW4gbGEgY29tdW5pZGFkIGxvY2FsLCBuYWNpb25hbCBvIGludGVybmFjaW9uYWwuCgoKZikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGNvbnZlcnRpciBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBjb24gZWwgZmluIGRlIHN1IHByZXNlcnZhY2nDs24gZW4gZWwgdGllbXBvIHF1ZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGxhIGRlIHN1cyBwcsOzcnJvZ2FzLgoKCkNvbiBiYXNlIGVuIGxvIGFudGVyaW9yIGF1dG9yaXpvKGFtb3MpLCBhIGZhdm9yIGRlbCBSSVVEIHkgZGUgc3VzIHVzdWFyaW9zLCBsYSBwdWJsaWNhY2nDs24geSBjb25zdWx0YSBkZSBsYSBzaWd1aWVudGUgb2JyYToKClRpdHVsbwoKQXV0b3IgICAgICAgQXBlbGxpZG9zICAgICAgICAgTm9tYnJlcwoKMQoKMgoKMwoKCmcpCUF1dG9yaXpvKGFtb3MpLCBxdWUgbGEgb2JyYSBzZWEgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsb3MgbGl0ZXJhbGVzIGFudGVyaW9yZXMsIGJham8gbG9zIGzDrW1pdGVzIGRlZmluaWRvcyBwb3IgTEEgVU5JVkVSU0lEQUQsIGVuIGxhcyDigJxDb25kaWNpb25lcyBkZSB1c28gZGUgZXN0cmljdG8gY3VtcGxpbWllbnRv4oCdIGRlIGxvcyByZWN1cnNvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQsIGN1eW8gdGV4dG8gY29tcGxldG8gc2UgcHVlZGUgY29uc3VsdGFyIGVuIGh0dHA6Ly9yZXBvc2l0b3J5LnVkaXN0cml0YWwuZWR1LmNvLwoKaCkJQ29ub3pjbyhjZW1vcykgeSBhY2VwdG8oYW1vcykgcXVlIG90b3JnbyhhbW9zKSB1bmEgbGljZW5jaWEgZXNwZWNpYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcywgbGljZW5jaWEgICBkZSBsYSBjdWFsIGhlIChoZW1vcykgb2J0ZW5pZG8gdW5hIGNvcGlhLgoKaSkJTWFuaWZpZXN0byhhbW9zKSBtaSAobnVlc3RybykgdG90YWwgYWN1ZXJkbyBjb24gbGFzIGNvbmRpY2lvbmVzIGRlIHVzbyB5IHB1YmxpY2FjacOzbiBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIHF1ZSBzZSBkZXNjcmliZW4geSBleHBsaWNhbiBlbiBlbCBwcmVzZW50ZSBkb2N1bWVudG8uCgpqKQlDb25vemNvKGNlbW9zKSBsYSBub3JtYXRpdmlkYWQgaW50ZXJuYSBkZSAgTEEgVU5JVkVSU0lEQUQ7IGVuIGNvbmNyZXRvLCBlbCBBY3VlcmRvIDAwNCBkZSAyMDEyIGRlbCBDU1UsIEFjdWVyZG8gMDIzIGRlIDIwMTIgZGVsIENTVSBzb2JyZSBQb2zDrXRpY2EgRWRpdG9yaWFsLCBBY3VlcmRvIDAyNiAgZGVsIDMxIGRlIGp1bGlvIGRlIDIwMTIgc29icmUgZWwgcHJvY2VkaW1pZW50byBwYXJhIGxhIHB1YmxpY2FjacOzbiBkZSB0ZXNpcyBkZSBwb3N0Z3JhZG8gZGUgbG9zIGVzdHVkaWFudGVzIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzLCAgQWN1ZXJkbyAwMzAgZGVsIDAzIGRlIGRpY2llbWJyZSBkZSAyMDEzIHBvciBtZWRpbyBkZWwgY3VhbCBzZSBjcmVhIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgZGUgbGEgVW5pdmVyc2lkYWQgRGlzdHJpdGFsIEZyYW5jaXNjbyBKb3PDqSBkZSBDYWxkYXMsIEFjdWVyZG8gMDM4IGRlIDIwMTUgMjAxNSDigJxwb3IgZWwgY3VhbCBzZSBtb2RpZmljYSBlbCBBY3VlcmRvIDAzMSBkZSAyMDE0IGRlIDIwMTQgcXVlIHJlZ2xhbWVudGEgZWwgdHJhYmFqbyBkZSBncmFkbyBwYXJhIGxvcyBlc3R1ZGlhbnRlcyBkZSBwcmVncmFkbyBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyB5IHNlIGRpY3RhbiBvdHJhcyBkaXJlY3RyaWNlc+KAnSB5IGxhcyBkZW3DoXMgbm9ybWFzIGNvbmNvcmRhbnRlIHkgY29tcGxlbWVudGFyaWFzIHF1ZSByaWdlbiBhbCByZXNwZWN0bywgZXNwZWNpYWxtZW50ZSBsYSBsZXkgMjMgZGUgMTk4MiwgbGEgbGV5IDQ0IGRlIDE5OTMgeSBsYSBkZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzLiBFc3RvcyBkb2N1bWVudG9zIHBvZHLDoW4gc2VyIGNvbnN1bHRhZG9zIHkgZGVzY2FyZ2Fkb3MgZW4gZWwgcG9ydGFsIHdlYiBkZSBsYSBiaWJsaW90ZWNhIGh0dHA6Ly9zaXN0ZW1hZGViaWJsaW90ZWNhcy51ZGlzdHJpdGFsLmVkdS5jby8KCmspCUFjZXB0byhhbW9zKSBxdWUgTEEgVU5JVkVSU0lEQUQgbm8gc2UgcmVzcG9uc2FiaWxpemEgcG9yIGxhcyBpbmZyYWNjaW9uZXMgYSBsYSBwcm9waWVkYWQgaW50ZWxlY3R1YWwgbyBEZXJlY2hvcyBkZSBBdXRvciBjYXVzYWRhcyBwb3IgbG9zIHRpdHVsYXJlcyBkZSBsYSBwcmVzZW50ZSBMaWNlbmNpYSB5IGRlY2xhcmFtb3MgcXVlIG1hbnRlbmRyw6kgKGVtb3MpIGluZGVtbmUgYSBMQSBVTklWRVJTSURBRCBwb3IgbGFzIHJlY2xhbWFjaW9uZXMgbGVnYWxlcyBkZSBjdWFscXVpZXIgdGlwbyBxdWUgbGxlZ2FyZW4gYSBwcmVzZW50YXJzZSBwb3IgdmlvbGFjacOzbiBkZSBkZXJlY2hvcyBhIGxhIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBvIGRlIEF1dG9yIHJlbGFjaW9uYWRvcyBjb24gbG9zIGRvY3VtZW50b3MgcmVnaXN0cmFkb3MgZW4gZWwgUklVRC4KCmwpCUVsIChsb3MpIGF1dG9yKGVzKSBtYW5pZmllc3RhKG1vcykgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwsIGRlIGV4Y2x1c2l2YSBhdXRvcsOtYSwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvczsgZGUgdGFsIHN1ZXJ0ZSwgZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBjdWFscXVpZXIgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybyBlbiBjdWFudG8gYSBsb3MgZGVyZWNob3MgZGUgYXV0b3Igc29icmUgbGEgb2JyYSwgZWwgKGxvcykgZXN0dWRpYW50ZShzKSDigJMgYXV0b3IoZXMpIGFzdW1pcsOhKG4pIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIHkgc2FsZHLDoShuKSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcy4gUGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgTEEgVU5JVkVSU0lEQUQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCgptKQlFbCAobG9zKSBhdXRvcihlcykgbWFuaWZpZXN0YShtb3MpIHF1ZSBjb25vemNvKGNlbW9zKSBsYSBhdXRvbm9tw61hIHkgbG9zIGRlcmVjaG9zLCBxdWUgcG9zZWUobW9zKSBzb2JyZSBsYSBvYnJhIHksIGNvbW8gdGFsLCBlcyAoc29tb3MpIHJlc3BvbnNhYmxlKHMpIGRlbCBhbGNhbmNlIGp1csOtZGljbyB5IGxlZ2FsLCBkZSBlc2NvZ2VyIGxhIG9wY2nDs24gZGUgbGEgcHVibGljYWNpw7NuIG8gZGUgcmVzdHJpY2Npw7NuIGRlIGxhIHB1YmxpY2FjacOzbiBkZWwgZG9jdW1lbnRvIHJlZ2lzdHJhZG8gZW4gZWwgUklVRC4KCgoKCgoKU0kgRUwgRE9DVU1FTlRPIFNFIEJBU0EgRU4gVU4gVFJBQkFKTyBRVUUgSEEgU0lETyBQQVRST0NJTkFETyBPIEFQT1lBRE8gUE9SIFVOQSBBR0VOQ0lBIE8gVU5BIE9SR0FOSVpBQ0nDk04sIENPTiBFWENFUENJw5NOIERFIExBIFVOSVZFUlNJREFEIERJU1RSSVRBTCBGUkFOQ0lTQ08gSk9TRSBERSBDQUxEQVMsIExPUyBBVVRPUkVTIEdBUkFOVElaQU4gUVVFIFNFIEhBIENVTVBMSURPIENPTiBMT1MKREVSRUNIT1MgWSBPQkxJR0FDSU9ORVMgUkVRVUVSSURPUyBQT1IgRUwgUkVTUEVDVElWTyBDT05UUkFUTyBPIEFDVUVSRE8uCgoKCgoKCgoKCgoKCgoKCgoKCgoKCkVuIGNvbnN0YW5jaWEgZGUgbG8gYW50ZXJpb3IsIGZpcm1vKGFtb3MpIGVsIHByZXNlbnRlIGRvY3VtZW50bywgZW4gbGEgY2l1ZGFkIGRlIEJvZ290w6EsIEQuQy4sIGEgbG9zCgoKRklSTUEgREUgTE9TIFRJVFVMQVJFUyBERSBERVJFQ0hPUyBERSBBVVRPUgoKX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fICAgQy5DLiBOby4gX19fX19fX19fX19fX19fX19fCgpfX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX18gICBDLkMuIE5vLiBfX19fX19fX19fX19fX19fX18KCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXyAgIEMuQy4gTm8uIF9fX19fX19fX19fX19fX19fXwoKCgpDb3JyZW8gRWxlY3Ryw7NuaWNvIEluc3RpdHVjaW9uYWwgZGVsIChkZSBsb3MpIEF1dG9yKGVzKToKCkF1dG9yCSAgICAgIENvcnJlbyBFbGVjdHLDs25pY28KCjEKCjIKCjMKCk5vbWJyZSBkZSBEaXJlY3RvcihlcykgZGUgR3JhZG86CgoxCgoyCgozCgpOb21icmUgRmFjdWx0YWQgeSBQcm95ZWN0byBDdXJyaWN1bGFyOgoKRmFjdWx0YWQJUHJveWVjdG8gQ3VycmljdWxhcgoKCgoKCgoKCk5vdGE6IEVuIGNhc28gcXVlIG5vIGVzdMOpIGRlIGFjdWVyZG8gY29uIGxhcyBjb25kaWNpb25lcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSwgeSBtYW5pZmllc3RlIGFsZ3VuYSByZXN0cmljY2nDs24gc29icmUgbGEgb2JyYSwganVzdGlmaXF1ZSBsb3MgbW90aXZvcyBwb3IgbG9zIGN1YWxlcyBlbCBkb2N1bWVudG8geSBzdXMgYW5leG9zIG5vIHB1ZWRlbiBzZXIgcHVibGljYWRvcyBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIFJJVUQuCgoKU2kgcmVxdWllcmUgbcOhcyBlc3BhY2lvLCBwdWVkZSBhbmV4YXIgdW5hIGNvcGlhIHNpbWlsYXIgYSBlc3RhIGhvamEK |