Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica

Se aborda parte el trabajo futuro propuesto en el trabajo de grado Método para la síntesis de paisajes de optimización bidimensionales realizado por Mariana Medina. Se aborda el proceso de generación de problemas de prueba de optimizadores mediante la implementación de un VAE, proponiendo además el...

Full description

Autores:
López Guevara, Juan Pablo
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2024
Institución:
Universidad Distrital Francisco José de Caldas
Repositorio:
RIUD: repositorio U. Distrital
Idioma:
spa
OAI Identifier:
oai:repository.udistrital.edu.co:11349/42411
Acceso en línea:
http://hdl.handle.net/11349/42411
Palabra clave:
IA
Regresor simbólico
VAE
IC
Sintesis
Optimizador
Ingeniería Electrónica -- Tesis y disertaciones académicas
Autocodificadores variacionales (VAE)
Regresión simbólica
Optimización y funciones de prueba
Simbolic regressor
VAE
CI
Synthesis
Optimizer
AI
Rights
License
Abierto (Texto Completo)
id UDISTRITA2_577e219381c6e36f69b188f042e9d4f3
oai_identifier_str oai:repository.udistrital.edu.co:11349/42411
network_acronym_str UDISTRITA2
network_name_str RIUD: repositorio U. Distrital
repository_id_str
dc.title.none.fl_str_mv Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
dc.title.titleenglish.none.fl_str_mv Test function synthesis method for optimizers based on variational autoencoders and symbolic regression
title Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
spellingShingle Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
IA
Regresor simbólico
VAE
IC
Sintesis
Optimizador
Ingeniería Electrónica -- Tesis y disertaciones académicas
Autocodificadores variacionales (VAE)
Regresión simbólica
Optimización y funciones de prueba
Simbolic regressor
VAE
CI
Synthesis
Optimizer
AI
title_short Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
title_full Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
title_fullStr Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
title_full_unstemmed Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
title_sort Método de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólica
dc.creator.fl_str_mv López Guevara, Juan Pablo
dc.contributor.advisor.none.fl_str_mv Melgarejo Rey, Miguel Alberto
dc.contributor.author.none.fl_str_mv López Guevara, Juan Pablo
dc.contributor.orcid.none.fl_str_mv López Guevara, Juan Pablo [0009-0000-4427-356X]
dc.subject.none.fl_str_mv IA
Regresor simbólico
VAE
IC
Sintesis
Optimizador
topic IA
Regresor simbólico
VAE
IC
Sintesis
Optimizador
Ingeniería Electrónica -- Tesis y disertaciones académicas
Autocodificadores variacionales (VAE)
Regresión simbólica
Optimización y funciones de prueba
Simbolic regressor
VAE
CI
Synthesis
Optimizer
AI
dc.subject.lemb.none.fl_str_mv Ingeniería Electrónica -- Tesis y disertaciones académicas
Autocodificadores variacionales (VAE)
Regresión simbólica
Optimización y funciones de prueba
dc.subject.keyword.none.fl_str_mv Simbolic regressor
VAE
CI
Synthesis
Optimizer
AI
description Se aborda parte el trabajo futuro propuesto en el trabajo de grado Método para la síntesis de paisajes de optimización bidimensionales realizado por Mariana Medina. Se aborda el proceso de generación de problemas de prueba de optimizadores mediante la implementación de un VAE, proponiendo además el proceso de caracterización de los problemas generados mediante el uso de regresores simbólicos. Se realiza el diseño experimental sobre las variaciones en la cantidad de dimensiones que componen el espacio latente, se da por vencedor al regresor simbólico PySR, y finalmente, se comparan las bases de datos generadoras y generadas mediante la utilización de un mapa autoorganizado (SOM) entrenado mediante el uso de las características ELA de los problemas de optimización generados. Se propone como trabajo futuro la generación en alta dimensión y la generación controlada. El trabajo realizado contribuye al desarrollo del artículo Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-10-29T00:07:11Z
dc.date.available.none.fl_str_mv 2024-10-29T00:07:11Z
dc.date.created.none.fl_str_mv 2024-09-05
dc.type.none.fl_str_mv bachelorThesis
dc.type.degree.none.fl_str_mv Monografía
dc.type.driver.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.coar.none.fl_str_mv http://purl.org/coar/resource_type/c_7a1f
format http://purl.org/coar/resource_type/c_7a1f
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/11349/42411
url http://hdl.handle.net/11349/42411
dc.language.iso.none.fl_str_mv spa
language spa
dc.relation.references.none.fl_str_mv M. Melgarejo, M. Medina, J. Lopez y A. Rodriguez, «Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems,» Information Sciences, vol. 686, pág. 121 371, 2025, issn: 0020-0255. doi: https : / / doi . org / 10 . 1016 / j . ins . 2024 . 121371. dirección: https : //www.sciencedirect.com/science/article/pii/S0020025524012854.
M. Medina Muñoz, Método para la síntesis de paisajes de optimización bidimensionales basado en redes adversarias generativas, Grupo de Investigación: Laboratorio de Automática e Inteligencia Computacional, Bogotá D.C., Colombia, 2023.
B. van Stein, F. X. Long, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, DoE2Vec: Deep-learning Based Features for Exploratory Landscape Analysis, 2023. arXiv: 2304.01219 [math.OC].
M. J. Mahmoodabadi y A. R. Nemati, «A novel adaptive genetic algorithm for global optimization of mathematical test functions and real-world problems,» Engineering Science and Technology, an International Journal, vol. 19, n.o 4, págs. 2002-2021, 2016.
P. Chen, Z. Shihua, Z. Qiang y N. Kasabov, «A meta-inspired termite queen algorithm for global optimization and engineering design problems,» Engineering Applications of Artificial Intelligence, vol. 111, 2022.
B. Addis y M. Locatelli, «A new class of test functions for global optimization,» Journal of Global Optimization, vol. 38, n.o 3, págs. 479-501, 2007.
K. Hussain, M. Salleh, S. Cheng y R. Naseem, «Common Benchmark Functions for Metaheuristic Evaluation: A Review,» International Journal on Informatics Visualization, vol. 1, págs. 218-223, nov. de 2017. doi: 10.30630/joiv.1.4-2.65.
H. M. Azamathulla y F. C. Wu, «Support vector machine approach for longitudinal dispersion coefficients in natural streams,» Applied Soft Computing, vol. 11, n.o 2, págs. 2902-2905, 2011.
C. K. WNg y D. Li, «Test problem generator for unconstrained global optimization, » Computers and Operations Research, vol. 51, págs. 338-349, 2014.
D. Yazdani, J. Branke, M. N. Omidvar et al., «Generalized Moving Peaks Benchmark, » CoRR, vol. abs/2106.06174, 2021. arXiv: 2106.06174. dirección: https: //arxiv.org/abs/2106.06174.
D. Yazdani, M. N. Omidvar, D. Yazdani, K. Deb y A. H. Gandomi, GNBG: A Generalized and Configurable Benchmark Generator for Continuous Numerical Optimization, 2023. arXiv: 2312.07083 [cs.NE].
Y. Wang, N. Wagner y J. M. Rondinelli, «Symbolic regression in materials science, » MRS Communications, vol. 9, n.o 3, págs. 793-805, 2019. doi: 10.1557/mrc. 2019.85.
N. C. Cueto Ceilis y H. Peters, An empirical comparison of generative capabilities of GAN vs VAE, Dissertation, 2022.
P. Cristovao, H. Nakada, Y. Tanimura y H. Asoh, «Generating In-Between Images Through Learned Latent Space Representation Using Variational Autoencoders,» IEEE Access, vol. 8, págs. 149 456-149 467, 2020. doi: 10.1109/ACCESS.2020. 3016313.
W. G. L. Cava, P. Orzechowski, B. Burlacu et al., «Contemporary Symbolic Regression Methods and their Relative Performance,» CoRR, vol. abs/2107.14351, 2021. arXiv: 2107.14351. dirección: https://arxiv.org/abs/2107.14351.
K. Houston-Edwards, «Machine Learning Becomes a Mathematical Collaborator, » Quantamagazine, 2022.
S.-M. Udrescu y M. Tegmark, «AI Feynman: A physics-inspired method for symbolic regression,» Science Advances, vol. 6, n.o 16, eaay2631, 2020. doi: 10.1126/ sciadv . aay2631. eprint: https : / / www . science . org / doi / pdf / 10 . 1126 / sciadv.aay2631. dirección: https://www.science.org/doi/abs/10.1126/ sciadv.aay2631.
V. Novo Sanjurjo, Teoría de la optimización. UNED. Universidad Nacional de Educación a Distancia, 1999.
J. López, Optimización Multi-objetivo. Aplicaciones a problemas del mundo real. Universidad Nacional de la Plata, Facultad de Informática, 2015.
F. J. M. Estudillo, Introducción a las matemáticas para la economía. Desclée De Brouwer, S.A., 2005.
M. Bezerra, R. Santelli, E. Oliveira, L. Villar y L. Escaleira, «Response Surface Methodology (RSM) as a Tool for Optimization in Analytical Chemistry,» Talanta, vol. 76, págs. 965-77, oct. de 2008. doi: 10.1016/j.talanta.2008.05.019.
R. D. Lang y A. P. Engelbrecht, «An exploratory landscape analysis-based benchmark suite,» Algorithms, vol. 14, n.o 3, pág. 78, 2021.
F. Hillier y G. Lieberman, «Introduction To Operations Research,» en ene. de 1969, vol. 139. doi: 10.2307/2345190.
S. Edelkamp y S. Schrödl, Heuristic Search - Theory and Applications. ene. de 2012, isbn: 978-0-12-372512-7. doi: 10.1016/C2009-0-16511-X.
M.-E. Marmion, F. Mascia, M. López-Ibáñez y T. Stützle, «Towards the Automatic Design of Metaheuristics,» ene. de 2013.
V. V. Vazirani, Approximation Algorithms. Springer Publishing Company, Incorporated, 2010, isbn: 3642084699.
R. S. Sutton y A. G. Barto, Reinforcement Learning: An Introduction. Cambridge, MA, USA: A Bradford Book, 2018, isbn: 0262039249.
O. Mersmann, M. Preuss y H. Trautmann, «Benchmarking Evolutionary Algorithms: Towards Exploratory Landscape Analysis,» oct. de 2010, isbn: 978-3-642- 15843-8. doi: 10.1007/978-3-642-15844-5_8.
N. Hansen, S. Finck, R. Ros y A. Auger, «Real-Parameter Black-Box Optimization Benchmarking 2009: Noiseless Functions Definitions,» INRIA, Research Report RR-6829, 2009, inria-00362633v2.
A. Törn, M. Ali y S. Viitanen, «Stochastic Global Optimization: Problem Classes and Solution Techniques,» Journal of Global Optimization, vol. 14, págs. 437-447, jun. de 1999. doi: 10.1023/A:1008395408187.
G. E. P. Box y K. B. Wilson, «On the Experimental Attainment of Optimum Conditions,» Journal of the Royal Statistical Society: Series B (Methodological), vol. 13, n.o 1, págs. 1-38, dic. de 2018, issn: 0035-9246. doi: 10.1111/j.2517- 6161.1951.tb00067.x. eprint: https://academic.oup.com/jrsssb/articlepdf/ 13/1/1/49093871/jrsssb\_13\_1\_1.pdf. dirección: https://doi.org/ 10.1111/j.2517-6161.1951.tb00067.x.
X. Xue, C. Yang, L. Feng, K. Zhang, L. Song y K. C. Tan, A Scalable Test Problem Generator for Sequential Transfer Optimization, 2023. arXiv: 2304.08503 [cs.NE].
T. H. Fay y P. H. Kloppers, «The Gibbs’ phenomenon,» International Journal of Mathematical Education in Science and Technology, vol. 32, n.o 1, págs. 73-89, 2001.
N. Barzilay, S. T. Berkovitz y R. Giryes, «MISS GAN: A Multi-IlluStrator style generative adversarial network for image to illustration translation,» Pattern Recognition Letters, vol. 151, págs. 140-147, 2021.
A. Shokraei Fard, D. C. Reutens y V. Vegh, «From CNNs to GANs for crossmodality medical image estimation,» Computers in Biology and Medicine, vol. 146, 2022.
D. P. Kingma y M. Welling, «An Introduction to Variational Autoencoders,» Foundations and Trends® in Machine Learning, vol. 12, n.o 4, págs. 307-392, 2019, issn: 1935-8245. doi: 10.1561/2200000056. dirección: http://dx.doi. org/10.1561/2200000056.
Y. Yang, K. Zheng, C. Wu e Y. Yang, «Improving the Classification Effectiveness of Intrusion Detection by Using Improved Conditional Variational AutoEncoder and Deep Neural Network,» Sensors, vol. 19, pág. 2528, jun. de 2019. doi: 10. 3390/s19112528.
X. Glorot e Y. Bengio, «Understanding the difficulty of training deep feedforward neural networks,» en Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, Y. W. Teh y M. Titterington, eds., ép. Proceedings of Machine Learning Research, vol. 9, Chia Laguna Resort, Sardinia, Italy: PMLR, 13–15 May de 2010, págs. 249-256. dirección: https : / / proceedings.mlr.press/v9/glorot10a.html.
L. Friedrich y J. Maziero, «Avoiding barren plateaus with classical deep neural networks,» Physical Review A, vol. 106, n.o 4, oct. de 2022, issn: 2469-9934. doi: 10.1103/physreva.106.042433. dirección: http://dx.doi.org/10.1103/ PhysRevA.106.042433.
S. Ge, C. Hang y T. Zhang, «Adaptive neural network control of nonlinear systems by state and output feedback,» IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), vol. 29, n.o 6, págs. 818-828, 1999. doi: 10. 1109/3477.809035.
K. He, X. Zhang, S. Ren y J. Sun, Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification, 2015. arXiv: 1502.01852 [cs.CV].
R. Pastrana, Disentangling Variational Autoencoders, 2022. arXiv: 2211.07700 [cs.LG].
D. P. Kingma y M.Welling, Auto-Encoding Variational Bayes, 2022. arXiv: 1312. 6114 [stat.ML].
M. Rivera, How to train your VAE, 2024. arXiv: 2309.13160 [cs.LG].
S. Damm, D. Forster, D. Velychko, Z. Dai, A. Fischer y J. Lücke, The ELBO of Variational Autoencoders Converges to a Sum of Three Entropies, 2023. arXiv: 2010.14860 [stat.ML].
I. Higgins, L. Matthey, A. Pal et al., «beta-VAE: Learning Basic Visual Concepts with a Constrained Variational Framework,» en International Conference on Learning Representations, 2017. dirección: https://openreview.net/forum? id=Sy2fzU9gl.
N. Haut, W. Banzhaf y B. Punch, Correlation versus RMSE Loss Functions in Symbolic Regression Tasks, 2022. arXiv: 2205.15990 [cs.NE].
Z. Chen e Y.-G. Wang, «Efficient Regression Analysis with Ranked-Set Sampling, » Biometrics, vol. 60, n.o 4, págs. 997-1004, dic. de 2004, issn: 0006-341X. doi: 10.1111/j.0006-341X.2004.00255.x. eprint: https://academic.oup. com/biometrics/article- pdf/60/4/997/51877372/biometrics\_60\_4\ _997.pdf. dirección: https://doi.org/10.1111/j.0006-341X.2004.00255.x.
A. Acharya, A. Prakash, P. Saxena y A. Nigam, «Sampling: Why and How of it? Anita S Acharya, Anupam Prakash, Pikee Saxena, Aruna Nigam,» Indian Journal of Medical Specilaities, ene. de 2013. doi: 10.7713/ijms.2013.0032.
V. Melo, «Kaizen programming,» jul. de 2014, isbn: 978-1-4503-2662-9. doi: 10. 1145/2576768.2598264.
J. S. Farris, «Methods for Computing Wagner Trees,» Systematic Biology, vol. 19, n.o 1, págs. 83-92, mar. de 1970, issn: 1063-5157. doi: 10.1093/sysbio/19.1.83. eprint: https://academic.oup.com/sysbio/article-pdf/19/1/83/4642459/ 19-1-83.pdf. dirección: https://doi.org/10.1093/sysbio/19.1.83.
W. M. Fitch, «Toward Defining the Course of Evolution: Minimum Change for a Specific Tree Topology,» Systematic Zoology, vol. 20, n.o 4, págs. 406-416, 1971, issn: 00397989. dirección: http://www.jstor.org/stable/2412116 (visitado 02-07-2024).
J. R. Koza, Genetic programming: On the programming of computers by means of natural selection. MIT Press, 1992.
R. Poli, W. Langdon y N. Mcphee, A Field Guide to Genetic Programming. ene. de 2008, isbn: 978-1-4092-0073-4.
T. Stephens, gplearn Documentation, Release 0.4.2, ago. de 2023. dirección: https: //gplearn.readthedocs.io/en/0.4.2/.
M. Cranmer, Interpretable Machine Learning for Science with PySR and SymbolicRegression. jl, 2023. arXiv: 2305.01582 [astro-ph.IM].
M. Schmidt y H. Lipson, «Distilling Free-Form Natural Laws from Experimental Data,» Science (New York, N.Y.), vol. 324, págs. 81-5, mayo de 2009. doi: 10. 1126/science.1165893.
Z. Wang y A. C. Bovik, «Mean squared error: Love it or leave it? A new look at Signal Fidelity Measures,» IEEE Signal Processing Magazine, vol. 26, n.o 1, págs. 98-117, 2009. doi: 10.1109/MSP.2008.930649.
P. Schober, C. Boer y L. Schwarte, «Correlation Coefficients: Appropriate Use and Interpretation,» Anesthesia & Analgesia, vol. 126, pág. 1, feb. de 2018. doi: 10.1213/ANE.0000000000002864.
R. Steuer, J. Kurths, C. Daub, J. Weise y J. Selbig, «The Mutual Information: Detecting and Evaluating Dependencies between Variables,» Bioinformatics (Oxford, England), vol. 18 Suppl 2, S231-40, feb. de 2002. doi: 10.1093/ bioinformatics/18.suppl_2.S231.
A. Kiran y S. S. Kumar, «A Comparative Analysis of GAN and VAE based Synthetic Data Generators for High Dimensional, Imbalanced Tabular data,» en 2023 2nd International Conference for Innovation in Technology (INOCON), 2023, págs. 1-6. doi: 10.1109/INOCON57975.2023.10101315.
K.-L. Lim, X. Jiang y C. Yi, «Deep Clustering With Variational Autoencoder,» IEEE Signal Processing Letters, vol. 27, págs. 231-235, 2020. doi: 10.1109/LSP. 2020.2965328.
M. Abadi, A. Agarwal, P. Barham et al., «TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems,» CoRR, vol. abs/1603.04467, 2016. arXiv: 1603.04467. dirección: http://arxiv.org/abs/1603.04467.
A. Paszke, S. Gross, F. Massa et al., «PyTorch: An Imperative Style, High- Performance Deep Learning Library,» CoRR, vol. abs/1912.01703, 2019. arXiv: 1912.01703. dirección: http://arxiv.org/abs/1912.01703.
D. Kingma y J. Ba, «Adam: A Method for Stochastic Optimization,» International Conference on Learning Representations, dic. de 2014.
A. Kalinin, A. Jafari, E. Avots, C. Ozcinar y G. Anbarjafari, Generative AI-based Style Recommendation Using Fashion ItemDetection and Classification, jun. de 2024. doi: 10.21203/rs.3.rs-4517638/v1.
M. C. Connor, G. H. Canal y C. J. Rozell, Variational Autoencoder with Learned Latent Structure, 2021. arXiv: 2006.10597 [stat.ML]. dirección: https: //arxiv.org/abs/2006.10597.
D. Wolpert y W. Macready, «No free lunch theorems for optimization,» IEEE Transactions on Evolutionary Computation, vol. 1, n.o 1, págs. 67-82, 1997. doi: 10.1109/4235.585893.
Y.-H. Dai, «Convergence Properties of the BFGS Algoritm,» SIAM Journal on Optimization, vol. 13, n.o 3, págs. 693-701, 2002. doi: 10.1137/S1052623401383455. eprint: https : / / doi . org / 10 . 1137 / S1052623401383455. dirección: https : //doi.org/10.1137/S1052623401383455.
M. Jamil y X. Yang, «A Literature Survey of Benchmark Functions For Global Optimization Problems,» CoRR, vol. abs/1308.4008, 2013. arXiv: 1308.4008. dirección: http://arxiv.org/abs/1308.4008.
H. Kanemitsu, H. Imai y M. Miyaskoshi, «Definitions and Properties of (Local) Minima and Multimodal Functions using Level Set for Continuous Optimization Problems,» IEICE Proceeding Series, vol. 2, págs. 94-97, mar. de 2014. doi: 10. 15248/proc.2.94.
F. X. Long, B. van Stein, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, «Generating Cheap Representative Functions for Expensive Automotive Crashworthiness Optimization,» ACM Trans. Evol. Learn. Optim., feb. de 2024, Just Accepted. doi: 10.1145/3646554. dirección: https://doi.org/10.1145/3646554.
R. D. Lang y A. P. Engelbrecht, «An Exploratory Landscape Analysis-Based Benchmark Suite,» Algorithms, vol. 14, n.o 3, 2021, issn: 1999-4893. doi: 10. 3390/a14030078. dirección: https://www.mdpi.com/1999-4893/14/3/78.
dc.rights.coar.fl_str_mv http://purl.org/coar/access_right/c_abf2
dc.rights.acceso.none.fl_str_mv Abierto (Texto Completo)
rights_invalid_str_mv Abierto (Texto Completo)
http://purl.org/coar/access_right/c_abf2
dc.format.mimetype.none.fl_str_mv pdf
institution Universidad Distrital Francisco José de Caldas
bitstream.url.fl_str_mv https://repository.udistrital.edu.co/bitstreams/6fc76023-550b-4454-ad4c-044360f907bb/download
https://repository.udistrital.edu.co/bitstreams/1f71ec09-2448-495e-8ba2-51502defb94b/download
https://repository.udistrital.edu.co/bitstreams/6b8dfec9-5062-4bf2-978d-879e3bf1c075/download
bitstream.checksum.fl_str_mv a4d41aa00fb0c4a332ce462875955e1c
21f01ae78a38a2a7b55bfecae833a3d8
997daf6c648c962d566d7b082dac908d
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Universidad Distrital
repository.mail.fl_str_mv repositorio@udistrital.edu.co
_version_ 1837007119678701568
spelling Melgarejo Rey, Miguel AlbertoLópez Guevara, Juan PabloLópez Guevara, Juan Pablo [0009-0000-4427-356X]2024-10-29T00:07:11Z2024-10-29T00:07:11Z2024-09-05http://hdl.handle.net/11349/42411Se aborda parte el trabajo futuro propuesto en el trabajo de grado Método para la síntesis de paisajes de optimización bidimensionales realizado por Mariana Medina. Se aborda el proceso de generación de problemas de prueba de optimizadores mediante la implementación de un VAE, proponiendo además el proceso de caracterización de los problemas generados mediante el uso de regresores simbólicos. Se realiza el diseño experimental sobre las variaciones en la cantidad de dimensiones que componen el espacio latente, se da por vencedor al regresor simbólico PySR, y finalmente, se comparan las bases de datos generadoras y generadas mediante la utilización de un mapa autoorganizado (SOM) entrenado mediante el uso de las características ELA de los problemas de optimización generados. Se propone como trabajo futuro la generación en alta dimensión y la generación controlada. El trabajo realizado contribuye al desarrollo del artículo Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems.Part of the future work proposed in the degree work Method for the synthesis of two-dimensional optimization landscapes by Mariana Medina is addressed. The process of generating optimizer test problems through the implementation of a VAE is addressed, also proposing the process of characterization of the problems generated through the use of symbolic regressors. The experimental design is carried out on the variations in the number of dimensions that compose the latent space, the symbolic regressor PySR is considered the winner, and finally, the generated and generated databases are compared through the use of a self-organizing map (SOM) trained by means of the use of the ELA characteristics of the generated optimization problems. High-dimensional generation and controlled generation are proposed as future work. The work performed contributes to the development of the paper Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems.pdfspaIARegresor simbólicoVAEICSintesisOptimizadorIngeniería Electrónica -- Tesis y disertaciones académicasAutocodificadores variacionales (VAE)Regresión simbólicaOptimización y funciones de pruebaSimbolic regressorVAECISynthesisOptimizerAIMétodo de síntesis de funciones de prueba para optimizadores basado en autocodificadores variacionales y regresión simbólicaTest function synthesis method for optimizers based on variational autoencoders and symbolic regressionbachelorThesisMonografíainfo:eu-repo/semantics/bachelorThesishttp://purl.org/coar/resource_type/c_7a1fAbierto (Texto Completo)http://purl.org/coar/access_right/c_abf2M. Melgarejo, M. Medina, J. Lopez y A. Rodriguez, «Optimization test function synthesis with generative adversarial networks and adaptive neuro-fuzzy systems,» Information Sciences, vol. 686, pág. 121 371, 2025, issn: 0020-0255. doi: https : / / doi . org / 10 . 1016 / j . ins . 2024 . 121371. dirección: https : //www.sciencedirect.com/science/article/pii/S0020025524012854.M. Medina Muñoz, Método para la síntesis de paisajes de optimización bidimensionales basado en redes adversarias generativas, Grupo de Investigación: Laboratorio de Automática e Inteligencia Computacional, Bogotá D.C., Colombia, 2023.B. van Stein, F. X. Long, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, DoE2Vec: Deep-learning Based Features for Exploratory Landscape Analysis, 2023. arXiv: 2304.01219 [math.OC].M. J. Mahmoodabadi y A. R. Nemati, «A novel adaptive genetic algorithm for global optimization of mathematical test functions and real-world problems,» Engineering Science and Technology, an International Journal, vol. 19, n.o 4, págs. 2002-2021, 2016.P. Chen, Z. Shihua, Z. Qiang y N. Kasabov, «A meta-inspired termite queen algorithm for global optimization and engineering design problems,» Engineering Applications of Artificial Intelligence, vol. 111, 2022.B. Addis y M. Locatelli, «A new class of test functions for global optimization,» Journal of Global Optimization, vol. 38, n.o 3, págs. 479-501, 2007.K. Hussain, M. Salleh, S. Cheng y R. Naseem, «Common Benchmark Functions for Metaheuristic Evaluation: A Review,» International Journal on Informatics Visualization, vol. 1, págs. 218-223, nov. de 2017. doi: 10.30630/joiv.1.4-2.65.H. M. Azamathulla y F. C. Wu, «Support vector machine approach for longitudinal dispersion coefficients in natural streams,» Applied Soft Computing, vol. 11, n.o 2, págs. 2902-2905, 2011.C. K. WNg y D. Li, «Test problem generator for unconstrained global optimization, » Computers and Operations Research, vol. 51, págs. 338-349, 2014.D. Yazdani, J. Branke, M. N. Omidvar et al., «Generalized Moving Peaks Benchmark, » CoRR, vol. abs/2106.06174, 2021. arXiv: 2106.06174. dirección: https: //arxiv.org/abs/2106.06174.D. Yazdani, M. N. Omidvar, D. Yazdani, K. Deb y A. H. Gandomi, GNBG: A Generalized and Configurable Benchmark Generator for Continuous Numerical Optimization, 2023. arXiv: 2312.07083 [cs.NE].Y. Wang, N. Wagner y J. M. Rondinelli, «Symbolic regression in materials science, » MRS Communications, vol. 9, n.o 3, págs. 793-805, 2019. doi: 10.1557/mrc. 2019.85.N. C. Cueto Ceilis y H. Peters, An empirical comparison of generative capabilities of GAN vs VAE, Dissertation, 2022.P. Cristovao, H. Nakada, Y. Tanimura y H. Asoh, «Generating In-Between Images Through Learned Latent Space Representation Using Variational Autoencoders,» IEEE Access, vol. 8, págs. 149 456-149 467, 2020. doi: 10.1109/ACCESS.2020. 3016313.W. G. L. Cava, P. Orzechowski, B. Burlacu et al., «Contemporary Symbolic Regression Methods and their Relative Performance,» CoRR, vol. abs/2107.14351, 2021. arXiv: 2107.14351. dirección: https://arxiv.org/abs/2107.14351.K. Houston-Edwards, «Machine Learning Becomes a Mathematical Collaborator, » Quantamagazine, 2022.S.-M. Udrescu y M. Tegmark, «AI Feynman: A physics-inspired method for symbolic regression,» Science Advances, vol. 6, n.o 16, eaay2631, 2020. doi: 10.1126/ sciadv . aay2631. eprint: https : / / www . science . org / doi / pdf / 10 . 1126 / sciadv.aay2631. dirección: https://www.science.org/doi/abs/10.1126/ sciadv.aay2631.V. Novo Sanjurjo, Teoría de la optimización. UNED. Universidad Nacional de Educación a Distancia, 1999.J. López, Optimización Multi-objetivo. Aplicaciones a problemas del mundo real. Universidad Nacional de la Plata, Facultad de Informática, 2015.F. J. M. Estudillo, Introducción a las matemáticas para la economía. Desclée De Brouwer, S.A., 2005.M. Bezerra, R. Santelli, E. Oliveira, L. Villar y L. Escaleira, «Response Surface Methodology (RSM) as a Tool for Optimization in Analytical Chemistry,» Talanta, vol. 76, págs. 965-77, oct. de 2008. doi: 10.1016/j.talanta.2008.05.019.R. D. Lang y A. P. Engelbrecht, «An exploratory landscape analysis-based benchmark suite,» Algorithms, vol. 14, n.o 3, pág. 78, 2021.F. Hillier y G. Lieberman, «Introduction To Operations Research,» en ene. de 1969, vol. 139. doi: 10.2307/2345190.S. Edelkamp y S. Schrödl, Heuristic Search - Theory and Applications. ene. de 2012, isbn: 978-0-12-372512-7. doi: 10.1016/C2009-0-16511-X.M.-E. Marmion, F. Mascia, M. López-Ibáñez y T. Stützle, «Towards the Automatic Design of Metaheuristics,» ene. de 2013.V. V. Vazirani, Approximation Algorithms. Springer Publishing Company, Incorporated, 2010, isbn: 3642084699.R. S. Sutton y A. G. Barto, Reinforcement Learning: An Introduction. Cambridge, MA, USA: A Bradford Book, 2018, isbn: 0262039249.O. Mersmann, M. Preuss y H. Trautmann, «Benchmarking Evolutionary Algorithms: Towards Exploratory Landscape Analysis,» oct. de 2010, isbn: 978-3-642- 15843-8. doi: 10.1007/978-3-642-15844-5_8.N. Hansen, S. Finck, R. Ros y A. Auger, «Real-Parameter Black-Box Optimization Benchmarking 2009: Noiseless Functions Definitions,» INRIA, Research Report RR-6829, 2009, inria-00362633v2.A. Törn, M. Ali y S. Viitanen, «Stochastic Global Optimization: Problem Classes and Solution Techniques,» Journal of Global Optimization, vol. 14, págs. 437-447, jun. de 1999. doi: 10.1023/A:1008395408187.G. E. P. Box y K. B. Wilson, «On the Experimental Attainment of Optimum Conditions,» Journal of the Royal Statistical Society: Series B (Methodological), vol. 13, n.o 1, págs. 1-38, dic. de 2018, issn: 0035-9246. doi: 10.1111/j.2517- 6161.1951.tb00067.x. eprint: https://academic.oup.com/jrsssb/articlepdf/ 13/1/1/49093871/jrsssb\_13\_1\_1.pdf. dirección: https://doi.org/ 10.1111/j.2517-6161.1951.tb00067.x.X. Xue, C. Yang, L. Feng, K. Zhang, L. Song y K. C. Tan, A Scalable Test Problem Generator for Sequential Transfer Optimization, 2023. arXiv: 2304.08503 [cs.NE].T. H. Fay y P. H. Kloppers, «The Gibbs’ phenomenon,» International Journal of Mathematical Education in Science and Technology, vol. 32, n.o 1, págs. 73-89, 2001.N. Barzilay, S. T. Berkovitz y R. Giryes, «MISS GAN: A Multi-IlluStrator style generative adversarial network for image to illustration translation,» Pattern Recognition Letters, vol. 151, págs. 140-147, 2021.A. Shokraei Fard, D. C. Reutens y V. Vegh, «From CNNs to GANs for crossmodality medical image estimation,» Computers in Biology and Medicine, vol. 146, 2022.D. P. Kingma y M. Welling, «An Introduction to Variational Autoencoders,» Foundations and Trends® in Machine Learning, vol. 12, n.o 4, págs. 307-392, 2019, issn: 1935-8245. doi: 10.1561/2200000056. dirección: http://dx.doi. org/10.1561/2200000056.Y. Yang, K. Zheng, C. Wu e Y. Yang, «Improving the Classification Effectiveness of Intrusion Detection by Using Improved Conditional Variational AutoEncoder and Deep Neural Network,» Sensors, vol. 19, pág. 2528, jun. de 2019. doi: 10. 3390/s19112528.X. Glorot e Y. Bengio, «Understanding the difficulty of training deep feedforward neural networks,» en Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, Y. W. Teh y M. Titterington, eds., ép. Proceedings of Machine Learning Research, vol. 9, Chia Laguna Resort, Sardinia, Italy: PMLR, 13–15 May de 2010, págs. 249-256. dirección: https : / / proceedings.mlr.press/v9/glorot10a.html.L. Friedrich y J. Maziero, «Avoiding barren plateaus with classical deep neural networks,» Physical Review A, vol. 106, n.o 4, oct. de 2022, issn: 2469-9934. doi: 10.1103/physreva.106.042433. dirección: http://dx.doi.org/10.1103/ PhysRevA.106.042433.S. Ge, C. Hang y T. Zhang, «Adaptive neural network control of nonlinear systems by state and output feedback,» IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), vol. 29, n.o 6, págs. 818-828, 1999. doi: 10. 1109/3477.809035.K. He, X. Zhang, S. Ren y J. Sun, Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification, 2015. arXiv: 1502.01852 [cs.CV].R. Pastrana, Disentangling Variational Autoencoders, 2022. arXiv: 2211.07700 [cs.LG].D. P. Kingma y M.Welling, Auto-Encoding Variational Bayes, 2022. arXiv: 1312. 6114 [stat.ML].M. Rivera, How to train your VAE, 2024. arXiv: 2309.13160 [cs.LG].S. Damm, D. Forster, D. Velychko, Z. Dai, A. Fischer y J. Lücke, The ELBO of Variational Autoencoders Converges to a Sum of Three Entropies, 2023. arXiv: 2010.14860 [stat.ML].I. Higgins, L. Matthey, A. Pal et al., «beta-VAE: Learning Basic Visual Concepts with a Constrained Variational Framework,» en International Conference on Learning Representations, 2017. dirección: https://openreview.net/forum? id=Sy2fzU9gl.N. Haut, W. Banzhaf y B. Punch, Correlation versus RMSE Loss Functions in Symbolic Regression Tasks, 2022. arXiv: 2205.15990 [cs.NE].Z. Chen e Y.-G. Wang, «Efficient Regression Analysis with Ranked-Set Sampling, » Biometrics, vol. 60, n.o 4, págs. 997-1004, dic. de 2004, issn: 0006-341X. doi: 10.1111/j.0006-341X.2004.00255.x. eprint: https://academic.oup. com/biometrics/article- pdf/60/4/997/51877372/biometrics\_60\_4\ _997.pdf. dirección: https://doi.org/10.1111/j.0006-341X.2004.00255.x.A. Acharya, A. Prakash, P. Saxena y A. Nigam, «Sampling: Why and How of it? Anita S Acharya, Anupam Prakash, Pikee Saxena, Aruna Nigam,» Indian Journal of Medical Specilaities, ene. de 2013. doi: 10.7713/ijms.2013.0032.V. Melo, «Kaizen programming,» jul. de 2014, isbn: 978-1-4503-2662-9. doi: 10. 1145/2576768.2598264.J. S. Farris, «Methods for Computing Wagner Trees,» Systematic Biology, vol. 19, n.o 1, págs. 83-92, mar. de 1970, issn: 1063-5157. doi: 10.1093/sysbio/19.1.83. eprint: https://academic.oup.com/sysbio/article-pdf/19/1/83/4642459/ 19-1-83.pdf. dirección: https://doi.org/10.1093/sysbio/19.1.83.W. M. Fitch, «Toward Defining the Course of Evolution: Minimum Change for a Specific Tree Topology,» Systematic Zoology, vol. 20, n.o 4, págs. 406-416, 1971, issn: 00397989. dirección: http://www.jstor.org/stable/2412116 (visitado 02-07-2024).J. R. Koza, Genetic programming: On the programming of computers by means of natural selection. MIT Press, 1992.R. Poli, W. Langdon y N. Mcphee, A Field Guide to Genetic Programming. ene. de 2008, isbn: 978-1-4092-0073-4.T. Stephens, gplearn Documentation, Release 0.4.2, ago. de 2023. dirección: https: //gplearn.readthedocs.io/en/0.4.2/.M. Cranmer, Interpretable Machine Learning for Science with PySR and SymbolicRegression. jl, 2023. arXiv: 2305.01582 [astro-ph.IM].M. Schmidt y H. Lipson, «Distilling Free-Form Natural Laws from Experimental Data,» Science (New York, N.Y.), vol. 324, págs. 81-5, mayo de 2009. doi: 10. 1126/science.1165893.Z. Wang y A. C. Bovik, «Mean squared error: Love it or leave it? A new look at Signal Fidelity Measures,» IEEE Signal Processing Magazine, vol. 26, n.o 1, págs. 98-117, 2009. doi: 10.1109/MSP.2008.930649.P. Schober, C. Boer y L. Schwarte, «Correlation Coefficients: Appropriate Use and Interpretation,» Anesthesia & Analgesia, vol. 126, pág. 1, feb. de 2018. doi: 10.1213/ANE.0000000000002864.R. Steuer, J. Kurths, C. Daub, J. Weise y J. Selbig, «The Mutual Information: Detecting and Evaluating Dependencies between Variables,» Bioinformatics (Oxford, England), vol. 18 Suppl 2, S231-40, feb. de 2002. doi: 10.1093/ bioinformatics/18.suppl_2.S231.A. Kiran y S. S. Kumar, «A Comparative Analysis of GAN and VAE based Synthetic Data Generators for High Dimensional, Imbalanced Tabular data,» en 2023 2nd International Conference for Innovation in Technology (INOCON), 2023, págs. 1-6. doi: 10.1109/INOCON57975.2023.10101315.K.-L. Lim, X. Jiang y C. Yi, «Deep Clustering With Variational Autoencoder,» IEEE Signal Processing Letters, vol. 27, págs. 231-235, 2020. doi: 10.1109/LSP. 2020.2965328.M. Abadi, A. Agarwal, P. Barham et al., «TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems,» CoRR, vol. abs/1603.04467, 2016. arXiv: 1603.04467. dirección: http://arxiv.org/abs/1603.04467.A. Paszke, S. Gross, F. Massa et al., «PyTorch: An Imperative Style, High- Performance Deep Learning Library,» CoRR, vol. abs/1912.01703, 2019. arXiv: 1912.01703. dirección: http://arxiv.org/abs/1912.01703.D. Kingma y J. Ba, «Adam: A Method for Stochastic Optimization,» International Conference on Learning Representations, dic. de 2014.A. Kalinin, A. Jafari, E. Avots, C. Ozcinar y G. Anbarjafari, Generative AI-based Style Recommendation Using Fashion ItemDetection and Classification, jun. de 2024. doi: 10.21203/rs.3.rs-4517638/v1.M. C. Connor, G. H. Canal y C. J. Rozell, Variational Autoencoder with Learned Latent Structure, 2021. arXiv: 2006.10597 [stat.ML]. dirección: https: //arxiv.org/abs/2006.10597.D. Wolpert y W. Macready, «No free lunch theorems for optimization,» IEEE Transactions on Evolutionary Computation, vol. 1, n.o 1, págs. 67-82, 1997. doi: 10.1109/4235.585893.Y.-H. Dai, «Convergence Properties of the BFGS Algoritm,» SIAM Journal on Optimization, vol. 13, n.o 3, págs. 693-701, 2002. doi: 10.1137/S1052623401383455. eprint: https : / / doi . org / 10 . 1137 / S1052623401383455. dirección: https : //doi.org/10.1137/S1052623401383455.M. Jamil y X. Yang, «A Literature Survey of Benchmark Functions For Global Optimization Problems,» CoRR, vol. abs/1308.4008, 2013. arXiv: 1308.4008. dirección: http://arxiv.org/abs/1308.4008.H. Kanemitsu, H. Imai y M. Miyaskoshi, «Definitions and Properties of (Local) Minima and Multimodal Functions using Level Set for Continuous Optimization Problems,» IEICE Proceeding Series, vol. 2, págs. 94-97, mar. de 2014. doi: 10. 15248/proc.2.94.F. X. Long, B. van Stein, M. Frenzel, P. Krause, M. Gitterle y T. Bäck, «Generating Cheap Representative Functions for Expensive Automotive Crashworthiness Optimization,» ACM Trans. Evol. Learn. Optim., feb. de 2024, Just Accepted. doi: 10.1145/3646554. dirección: https://doi.org/10.1145/3646554.R. D. Lang y A. P. Engelbrecht, «An Exploratory Landscape Analysis-Based Benchmark Suite,» Algorithms, vol. 14, n.o 3, 2021, issn: 1999-4893. doi: 10. 3390/a14030078. dirección: https://www.mdpi.com/1999-4893/14/3/78.ORIGINALLopezGuevaraJuanPablo2024.pdfLopezGuevaraJuanPablo2024.pdfTrabajo de gradoapplication/pdf5690624https://repository.udistrital.edu.co/bitstreams/6fc76023-550b-4454-ad4c-044360f907bb/downloada4d41aa00fb0c4a332ce462875955e1cMD51LicenciaDeUsoyAutorizaciónLopezGuevaraJuanPablo2024.pdfLicenciaDeUsoyAutorizaciónLopezGuevaraJuanPablo2024.pdfLicencia de uso y autorizaciónapplication/pdf686428https://repository.udistrital.edu.co/bitstreams/1f71ec09-2448-495e-8ba2-51502defb94b/download21f01ae78a38a2a7b55bfecae833a3d8MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-87167https://repository.udistrital.edu.co/bitstreams/6b8dfec9-5062-4bf2-978d-879e3bf1c075/download997daf6c648c962d566d7b082dac908dMD5211349/42411oai:repository.udistrital.edu.co:11349/424112024-10-28 19:07:14.649open.accesshttps://repository.udistrital.edu.coRepositorio Universidad Distritalrepositorio@udistrital.edu.coTElDRU5DSUEgWSBBVVRPUklaQUNJw5NOIEVTUEVDSUFMIFBBUkEgUFVCTElDQVIgWSBQRVJNSVRJUiBMQSBDT05TVUxUQSBZIFVTTyBERSBDT05URU5JRE9TIEVOIEVMIFJFUE9TSVRPUklPIElOU1RJVFVDSU9OQUwgREUgTEEgVU5JVkVSU0lEQUQgRElTVFJJVEFMCgpUw6lybWlub3MgeSBjb25kaWNpb25lcyBkZSB1c28gcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyAoUklVRCkKCkNvbW8gdGl0dWxhcihlcykgZGVsKG9zKSBkZXJlY2hvKHMpIGRlIGF1dG9yLCBjb25maWVybyAoZXJpbW9zKSBhIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIChlbiBhZGVsYW50ZSwgTEEgVU5JVkVSU0lEQUQpIHVuYSBsaWNlbmNpYSBwYXJhIHVzbyBubyBleGNsdXNpdmEsIGxpbWl0YWRhIHkgZ3JhdHVpdGEgc29icmUgbGEgb2JyYSBxdWUgaW50ZWdyYXLDoSBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIChlbiBhZGVsYW50ZSwgUklVRCksIGRlIGFjdWVyZG8gYSBsYXMgc2lndWllbnRlcyByZWdsYXMsIGxhcyBjdWFsZXMgZGVjbGFybyAoYW1vcykgY29ub2NlciB5IGFjZXB0YXI6CgphKQlFc3RhcsOhIHZpZ2VudGUgYSBwYXJ0aXIgZGUgbGEgZmVjaGEgZW4gcXVlIHNlIGluY2x1eWEgZW4gZWwgUklVRCB5IGhhc3RhIHBvciB1biBwbGF6byBkZSBkaWV6ICgxMCkgQcOxb3MsIHByb3Jyb2dhYmxlIGluZGVmaW5pZGFtZW50ZSBwb3IgZWwgdGllbXBvIHF1ZSBkdXJlIGVsIGRlcmVjaG8gUGF0cmltb25pYWwgZGVsIGF1dG9yOyBsYSBjdWFsIHBvZHLDoSBkYXJzZSBwb3IgdGVybWluYWRhIHByZXZpYSBzb2xpY2l0dWQgYSBMQSBVTklWRVJTSURBRCBwb3IgZXNjcml0byBjb24gdW5hIGFudGVsYWNpw7NuIGRlIGRvcyAoMikgbWVzZXMgYW50ZXMgZGVsIHZlbmNpbWllbnRvIGRlbCBwbGF6byBpbmljaWFsIG8gZWwgZGUgc3UocykgcHLDs3Jyb2dhKHMpLgoKYikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIHB1YmxpY2FyIGxhIG9icmEgZW4gbGFzIGRpc3RpbnRhcyB2ZXJzaW9uZXMgcmVxdWVyaWRhcyBwb3IgZWwgUklVRCAoZGlnaXRhbCwgaW1wcmVzbywgZWxlY3Ryw7NuaWNvIHUgb3RybyBtZWRpbyBjb25vY2lkbyBvIHBvciBjb25vY2VyKSBMQSBVTklWRVJTSURBRCBubyBzZXLDoSByZXNwb25zYWJsZSBlbiBlbCBldmVudG8gcXVlIGVsIGRvY3VtZW50byBhcGFyZXpjYSByZWZlcmVuY2lhZG8gZW4gbW90b3JlcyBkZSBiw7pzcXVlZGEgbyByZXBvc2l0b3Jpb3MgZGlmZXJlbnRlcyBhbCBSSVVELCB1bmEgdmV6IGVsKG9zKSBhdXRvcihlcykgc29saWNpdGVuIHN1IGVsaW1pbmFjacOzbiBkZWwgUklVRCwgZGFkbyBxdWUgbGEgbWlzbWEgc2Vyw6EgcHVibGljYWRhIGVuIEludGVybmV0LgoKYykJTGEgYXV0b3JpemFjacOzbiBzZSBoYWNlIGEgdMOtdHVsbyBncmF0dWl0bywgcG9yIGxvIHRhbnRvLCBsb3MgYXV0b3JlcyByZW51bmNpYW4gYSByZWNpYmlyIGJlbmVmaWNpbyBhbGd1bm8gcG9yIGxhIHB1YmxpY2FjacOzbiwgZGlzdHJpYnVjacOzbiwgY29tdW5pY2FjacOzbiBww7pibGljYSB5IGN1YWxxdWllciBvdHJvIHVzbyBxdWUgc2UgaGFnYSBlbiBsb3MgdMOpcm1pbm9zIGRlIGxhIHByZXNlbnRlIGxpY2VuY2lhIHkgZGUgbGEgbGljZW5jaWEgZGUgdXNvIGNvbiBxdWUgc2UgcHVibGljYSAoQ3JlYXRpdmUgQ29tbW9ucykuCgpkKQlMb3MgY29udGVuaWRvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQgc29uIG9icmEocykgb3JpZ2luYWwoZXMpIHNvYnJlIGxhIGN1YWwoZXMpIGVsKG9zKSBhdXRvcihlcykgY29tbyB0aXR1bGFyZXMgZGUgbG9zIGRlcmVjaG9zIGRlIGF1dG9yLCBhc3VtZW4gdG90YWwgcmVzcG9uc2FiaWxpZGFkIHBvciBlbCBjb250ZW5pZG8gZGUgc3Ugb2JyYSBhbnRlIExBIFVOSVZFUlNJREFEIHkgYW50ZSB0ZXJjZXJvcy4gRW4gdG9kbyBjYXNvIExBIFVOSVZFUlNJREFEIHNlIGNvbXByb21ldGUgYSBpbmRpY2FyIHNpZW1wcmUgbGEgYXV0b3LDrWEgaW5jbHV5ZW5kbyBlbCBub21icmUgZGVsIGF1dG9yIHkgbGEgZmVjaGEgZGUgcHVibGljYWNpw7NuLgoKZSkJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGluY2x1aXIgbGEgb2JyYSBlbiBsb3Mgw61uZGljZXMgeSBidXNjYWRvcmVzIHF1ZSBlc3RpbWVuIG5lY2VzYXJpb3MgcGFyYSBtYXhpbWl6YXIgbGEgdmlzaWJpbGlkYWQgZWwgdXNvIHkgZWwgaW1wYWN0byBkZSBsYSBwcm9kdWNjacOzbiBjaWVudMOtZmljYSwgYXJ0w61zdGljYSB5IGFjYWTDqW1pY2EgZW4gbGEgY29tdW5pZGFkIGxvY2FsLCBuYWNpb25hbCBvIGludGVybmFjaW9uYWwuCgoKZikJTEEgVU5JVkVSU0lEQUQgcG9kcsOhIGNvbnZlcnRpciBsYSBvYnJhIGEgY3VhbHF1aWVyIG1lZGlvIG8gZm9ybWF0byBjb24gZWwgZmluIGRlIHN1IHByZXNlcnZhY2nDs24gZW4gZWwgdGllbXBvIHF1ZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSB5IGxhIGRlIHN1cyBwcsOzcnJvZ2FzLgoKCkNvbiBiYXNlIGVuIGxvIGFudGVyaW9yIGF1dG9yaXpvKGFtb3MpLCBhIGZhdm9yIGRlbCBSSVVEIHkgZGUgc3VzIHVzdWFyaW9zLCBsYSBwdWJsaWNhY2nDs24geSBjb25zdWx0YSBkZSBsYSBzaWd1aWVudGUgb2JyYToKClRpdHVsbwoKQXV0b3IgICAgICAgQXBlbGxpZG9zICAgICAgICAgTm9tYnJlcwoKMQoKMgoKMwoKCmcpCUF1dG9yaXpvKGFtb3MpLCBxdWUgbGEgb2JyYSBzZWEgcHVlc3RhIGEgZGlzcG9zaWNpw7NuIGRlbCBww7pibGljbyBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsb3MgbGl0ZXJhbGVzIGFudGVyaW9yZXMsIGJham8gbG9zIGzDrW1pdGVzIGRlZmluaWRvcyBwb3IgTEEgVU5JVkVSU0lEQUQsIGVuIGxhcyDigJxDb25kaWNpb25lcyBkZSB1c28gZGUgZXN0cmljdG8gY3VtcGxpbWllbnRv4oCdIGRlIGxvcyByZWN1cnNvcyBwdWJsaWNhZG9zIGVuIGVsIFJJVUQsIGN1eW8gdGV4dG8gY29tcGxldG8gc2UgcHVlZGUgY29uc3VsdGFyIGVuIGh0dHA6Ly9yZXBvc2l0b3J5LnVkaXN0cml0YWwuZWR1LmNvLwoKaCkJQ29ub3pjbyhjZW1vcykgeSBhY2VwdG8oYW1vcykgcXVlIG90b3JnbyhhbW9zKSB1bmEgbGljZW5jaWEgZXNwZWNpYWwgcGFyYSBwdWJsaWNhY2nDs24gZGUgb2JyYXMgZW4gZWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcywgbGljZW5jaWEgICBkZSBsYSBjdWFsIGhlIChoZW1vcykgb2J0ZW5pZG8gdW5hIGNvcGlhLgoKaSkJTWFuaWZpZXN0byhhbW9zKSBtaSAobnVlc3RybykgdG90YWwgYWN1ZXJkbyBjb24gbGFzIGNvbmRpY2lvbmVzIGRlIHVzbyB5IHB1YmxpY2FjacOzbiBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIHF1ZSBzZSBkZXNjcmliZW4geSBleHBsaWNhbiBlbiBlbCBwcmVzZW50ZSBkb2N1bWVudG8uCgpqKQlDb25vemNvKGNlbW9zKSBsYSBub3JtYXRpdmlkYWQgaW50ZXJuYSBkZSAgTEEgVU5JVkVSU0lEQUQ7IGVuIGNvbmNyZXRvLCBlbCBBY3VlcmRvIDAwNCBkZSAyMDEyIGRlbCBDU1UsIEFjdWVyZG8gMDIzIGRlIDIwMTIgZGVsIENTVSBzb2JyZSBQb2zDrXRpY2EgRWRpdG9yaWFsLCBBY3VlcmRvIDAyNiAgZGVsIDMxIGRlIGp1bGlvIGRlIDIwMTIgc29icmUgZWwgcHJvY2VkaW1pZW50byBwYXJhIGxhIHB1YmxpY2FjacOzbiBkZSB0ZXNpcyBkZSBwb3N0Z3JhZG8gZGUgbG9zIGVzdHVkaWFudGVzIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzLCAgQWN1ZXJkbyAwMzAgZGVsIDAzIGRlIGRpY2llbWJyZSBkZSAyMDEzIHBvciBtZWRpbyBkZWwgY3VhbCBzZSBjcmVhIGVsIFJlcG9zaXRvcmlvIEluc3RpdHVjaW9uYWwgZGUgbGEgVW5pdmVyc2lkYWQgRGlzdHJpdGFsIEZyYW5jaXNjbyBKb3PDqSBkZSBDYWxkYXMsIEFjdWVyZG8gMDM4IGRlIDIwMTUgMjAxNSDigJxwb3IgZWwgY3VhbCBzZSBtb2RpZmljYSBlbCBBY3VlcmRvIDAzMSBkZSAyMDE0IGRlIDIwMTQgcXVlIHJlZ2xhbWVudGEgZWwgdHJhYmFqbyBkZSBncmFkbyBwYXJhIGxvcyBlc3R1ZGlhbnRlcyBkZSBwcmVncmFkbyBkZSBsYSBVbml2ZXJzaWRhZCBEaXN0cml0YWwgRnJhbmNpc2NvIEpvc8OpIGRlIENhbGRhcyB5IHNlIGRpY3RhbiBvdHJhcyBkaXJlY3RyaWNlc+KAnSB5IGxhcyBkZW3DoXMgbm9ybWFzIGNvbmNvcmRhbnRlIHkgY29tcGxlbWVudGFyaWFzIHF1ZSByaWdlbiBhbCByZXNwZWN0bywgZXNwZWNpYWxtZW50ZSBsYSBsZXkgMjMgZGUgMTk4MiwgbGEgbGV5IDQ0IGRlIDE5OTMgeSBsYSBkZWNpc2nDs24gQW5kaW5hIDM1MSBkZSAxOTkzLiBFc3RvcyBkb2N1bWVudG9zIHBvZHLDoW4gc2VyIGNvbnN1bHRhZG9zIHkgZGVzY2FyZ2Fkb3MgZW4gZWwgcG9ydGFsIHdlYiBkZSBsYSBiaWJsaW90ZWNhIGh0dHA6Ly9zaXN0ZW1hZGViaWJsaW90ZWNhcy51ZGlzdHJpdGFsLmVkdS5jby8KCmspCUFjZXB0byhhbW9zKSBxdWUgTEEgVU5JVkVSU0lEQUQgbm8gc2UgcmVzcG9uc2FiaWxpemEgcG9yIGxhcyBpbmZyYWNjaW9uZXMgYSBsYSBwcm9waWVkYWQgaW50ZWxlY3R1YWwgbyBEZXJlY2hvcyBkZSBBdXRvciBjYXVzYWRhcyBwb3IgbG9zIHRpdHVsYXJlcyBkZSBsYSBwcmVzZW50ZSBMaWNlbmNpYSB5IGRlY2xhcmFtb3MgcXVlIG1hbnRlbmRyw6kgKGVtb3MpIGluZGVtbmUgYSBMQSBVTklWRVJTSURBRCBwb3IgbGFzIHJlY2xhbWFjaW9uZXMgbGVnYWxlcyBkZSBjdWFscXVpZXIgdGlwbyBxdWUgbGxlZ2FyZW4gYSBwcmVzZW50YXJzZSBwb3IgdmlvbGFjacOzbiBkZSBkZXJlY2hvcyBhIGxhIHByb3BpZWRhZCBpbnRlbGVjdHVhbCBvIGRlIEF1dG9yIHJlbGFjaW9uYWRvcyBjb24gbG9zIGRvY3VtZW50b3MgcmVnaXN0cmFkb3MgZW4gZWwgUklVRC4KCmwpCUVsIChsb3MpIGF1dG9yKGVzKSBtYW5pZmllc3RhKG1vcykgcXVlIGxhIG9icmEgb2JqZXRvIGRlIGxhIHByZXNlbnRlIGF1dG9yaXphY2nDs24gZXMgb3JpZ2luYWwsIGRlIGV4Y2x1c2l2YSBhdXRvcsOtYSwgeSBzZSByZWFsaXrDsyBzaW4gdmlvbGFyIG8gdXN1cnBhciBkZXJlY2hvcyBkZSBhdXRvciBkZSB0ZXJjZXJvczsgZGUgdGFsIHN1ZXJ0ZSwgZW4gY2FzbyBkZSBwcmVzZW50YXJzZSBjdWFscXVpZXIgcmVjbGFtYWNpw7NuIG8gYWNjacOzbiBwb3IgcGFydGUgZGUgdW4gdGVyY2VybyBlbiBjdWFudG8gYSBsb3MgZGVyZWNob3MgZGUgYXV0b3Igc29icmUgbGEgb2JyYSwgZWwgKGxvcykgZXN0dWRpYW50ZShzKSDigJMgYXV0b3IoZXMpIGFzdW1pcsOhKG4pIHRvZGEgbGEgcmVzcG9uc2FiaWxpZGFkIHkgc2FsZHLDoShuKSBlbiBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcy4gUGFyYSB0b2RvcyBsb3MgZWZlY3RvcywgTEEgVU5JVkVSU0lEQUQgYWN0w7phIGNvbW8gdW4gdGVyY2VybyBkZSBidWVuYSBmZS4KCgptKQlFbCAobG9zKSBhdXRvcihlcykgbWFuaWZpZXN0YShtb3MpIHF1ZSBjb25vemNvKGNlbW9zKSBsYSBhdXRvbm9tw61hIHkgbG9zIGRlcmVjaG9zLCBxdWUgcG9zZWUobW9zKSBzb2JyZSBsYSBvYnJhIHksIGNvbW8gdGFsLCBlcyAoc29tb3MpIHJlc3BvbnNhYmxlKHMpIGRlbCBhbGNhbmNlIGp1csOtZGljbyB5IGxlZ2FsLCBkZSBlc2NvZ2VyIGxhIG9wY2nDs24gZGUgbGEgcHVibGljYWNpw7NuIG8gZGUgcmVzdHJpY2Npw7NuIGRlIGxhIHB1YmxpY2FjacOzbiBkZWwgZG9jdW1lbnRvIHJlZ2lzdHJhZG8gZW4gZWwgUklVRC4KCgoKCgoKU0kgRUwgRE9DVU1FTlRPIFNFIEJBU0EgRU4gVU4gVFJBQkFKTyBRVUUgSEEgU0lETyBQQVRST0NJTkFETyBPIEFQT1lBRE8gUE9SIFVOQSBBR0VOQ0lBIE8gVU5BIE9SR0FOSVpBQ0nDk04sIENPTiBFWENFUENJw5NOIERFIExBIFVOSVZFUlNJREFEIERJU1RSSVRBTCBGUkFOQ0lTQ08gSk9TRSBERSBDQUxEQVMsIExPUyBBVVRPUkVTIEdBUkFOVElaQU4gUVVFIFNFIEhBIENVTVBMSURPIENPTiBMT1MKREVSRUNIT1MgWSBPQkxJR0FDSU9ORVMgUkVRVUVSSURPUyBQT1IgRUwgUkVTUEVDVElWTyBDT05UUkFUTyBPIEFDVUVSRE8uCgoKCgoKCgoKCgoKCgoKCgoKCgoKCkVuIGNvbnN0YW5jaWEgZGUgbG8gYW50ZXJpb3IsIGZpcm1vKGFtb3MpIGVsIHByZXNlbnRlIGRvY3VtZW50bywgZW4gbGEgY2l1ZGFkIGRlIEJvZ290w6EsIEQuQy4sIGEgbG9zCgoKRklSTUEgREUgTE9TIFRJVFVMQVJFUyBERSBERVJFQ0hPUyBERSBBVVRPUgoKX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fICAgQy5DLiBOby4gX19fX19fX19fX19fX19fX19fCgpfX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX18gICBDLkMuIE5vLiBfX19fX19fX19fX19fX19fX18KCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXyAgIEMuQy4gTm8uIF9fX19fX19fX19fX19fX19fXwoKCgpDb3JyZW8gRWxlY3Ryw7NuaWNvIEluc3RpdHVjaW9uYWwgZGVsIChkZSBsb3MpIEF1dG9yKGVzKToKCkF1dG9yCSAgICAgIENvcnJlbyBFbGVjdHLDs25pY28KCjEKCjIKCjMKCk5vbWJyZSBkZSBEaXJlY3RvcihlcykgZGUgR3JhZG86CgoxCgoyCgozCgpOb21icmUgRmFjdWx0YWQgeSBQcm95ZWN0byBDdXJyaWN1bGFyOgoKRmFjdWx0YWQJUHJveWVjdG8gQ3VycmljdWxhcgoKCgoKCgoKCk5vdGE6IEVuIGNhc28gcXVlIG5vIGVzdMOpIGRlIGFjdWVyZG8gY29uIGxhcyBjb25kaWNpb25lcyBkZSBsYSBwcmVzZW50ZSBsaWNlbmNpYSwgeSBtYW5pZmllc3RlIGFsZ3VuYSByZXN0cmljY2nDs24gc29icmUgbGEgb2JyYSwganVzdGlmaXF1ZSBsb3MgbW90aXZvcyBwb3IgbG9zIGN1YWxlcyBlbCBkb2N1bWVudG8geSBzdXMgYW5leG9zIG5vIHB1ZWRlbiBzZXIgcHVibGljYWRvcyBlbiBlbCBSZXBvc2l0b3JpbyBJbnN0aXR1Y2lvbmFsIGRlIGxhIFVuaXZlcnNpZGFkIERpc3RyaXRhbCBGcmFuY2lzY28gSm9zw6kgZGUgQ2FsZGFzIFJJVUQuCgoKU2kgcmVxdWllcmUgbcOhcyBlc3BhY2lvLCBwdWVkZSBhbmV4YXIgdW5hIGNvcGlhIHNpbWlsYXIgYSBlc3RhIGhvamEK