Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social
Teniendo en cuenta el creciente empleo de deepfakes con fines negativos como dañar reputaciones, difundir noticias falsas o realizar burlas, este trabajo presenta una plataforma de detección de contenidos deepfake en audio y video. Se evaluaron distintos modelos de aprendizaje profundo, analizando p...
- Autores:
-
Gélvez Galvis, Santiago Andrés
García Esquibel, Juan Nicolás
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2025
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/76372
- Acceso en línea:
- https://hdl.handle.net/1992/76372
- Palabra clave:
- Deepfakes
Deep learning
GenConViT
CNNs
MLPs
Detección de deepfakes
Ingeniería social
Redes neuronales
Ingeniería
- Rights
- openAccess
- License
- Attribution-NonCommercial-ShareAlike 4.0 International
id |
UNIANDES2_e4ae283cdec89b1e8f542e514d8e63f8 |
---|---|
oai_identifier_str |
oai:repositorio.uniandes.edu.co:1992/76372 |
network_acronym_str |
UNIANDES2 |
network_name_str |
Séneca: repositorio Uniandes |
repository_id_str |
|
dc.title.spa.fl_str_mv |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social |
title |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social |
spellingShingle |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social Deepfakes Deep learning GenConViT CNNs MLPs Detección de deepfakes Ingeniería social Redes neuronales Ingeniería |
title_short |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social |
title_full |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social |
title_fullStr |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social |
title_full_unstemmed |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social |
title_sort |
Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería social |
dc.creator.fl_str_mv |
Gélvez Galvis, Santiago Andrés García Esquibel, Juan Nicolás |
dc.contributor.advisor.none.fl_str_mv |
Donoso Meisel, Yezyd Enrique |
dc.contributor.author.none.fl_str_mv |
Gélvez Galvis, Santiago Andrés García Esquibel, Juan Nicolás |
dc.contributor.jury.none.fl_str_mv |
Donoso Meisel, Yezyd Enrique |
dc.subject.keyword.eng.fl_str_mv |
Deepfakes Deep learning GenConViT CNNs MLPs |
topic |
Deepfakes Deep learning GenConViT CNNs MLPs Detección de deepfakes Ingeniería social Redes neuronales Ingeniería |
dc.subject.keyword.spa.fl_str_mv |
Detección de deepfakes Ingeniería social Redes neuronales |
dc.subject.themes.spa.fl_str_mv |
Ingeniería |
description |
Teniendo en cuenta el creciente empleo de deepfakes con fines negativos como dañar reputaciones, difundir noticias falsas o realizar burlas, este trabajo presenta una plataforma de detección de contenidos deepfake en audio y video. Se evaluaron distintos modelos de aprendizaje profundo, analizando precisión, eficiencia y escalabilidad. La solución permite subir archivos mediante una API web y ofrece una clasificación con un intervalo de confianza, además de registrar resultados para facilitar futuros entrenamientos. Los resultados superan los estándares actuales y demuestran la viabilidad de la herramienta en entornos académicos y profesionales. |
publishDate |
2025 |
dc.date.accessioned.none.fl_str_mv |
2025-06-24T16:15:44Z |
dc.date.available.none.fl_str_mv |
2025-06-24T16:15:44Z |
dc.date.issued.none.fl_str_mv |
2025-06-10 |
dc.type.none.fl_str_mv |
Trabajo de grado - Pregrado |
dc.type.driver.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/acceptedVersion |
dc.type.coar.none.fl_str_mv |
http://purl.org/coar/resource_type/c_7a1f |
dc.type.content.none.fl_str_mv |
Text |
dc.type.redcol.none.fl_str_mv |
http://purl.org/redcol/resource_type/TP |
format |
http://purl.org/coar/resource_type/c_7a1f |
status_str |
acceptedVersion |
dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/1992/76372 |
dc.identifier.instname.none.fl_str_mv |
instname:Universidad de los Andes |
dc.identifier.reponame.none.fl_str_mv |
reponame:Repositorio Institucional Séneca |
dc.identifier.repourl.none.fl_str_mv |
repourl:https://repositorio.uniandes.edu.co/ |
url |
https://hdl.handle.net/1992/76372 |
identifier_str_mv |
instname:Universidad de los Andes reponame:Repositorio Institucional Séneca repourl:https://repositorio.uniandes.edu.co/ |
dc.language.iso.none.fl_str_mv |
spa |
language |
spa |
dc.relation.references.none.fl_str_mv |
Brodsky, S. (2024, 10 de septiembre). Tech industry ramps up efforts to combat rising deepfake threats. IBM. https://www.ibm.com/new/announcements/deepfake-detection Swatton, P., & Leblanc, M. (2024, 7 de junio). What are deepfakes and how can we detect them? The Alan Turing Institute. https://www.turing.ac.uk/blog/what-are-deepfakes-and-how-can-we-detect-them Leffer, L. (2024, 26 de enero). AI Audio Deepfakes Are Quickly Outpacing Detection. Scientific American. https://www.scientificamerican.com/article/ai-audio-deepfakes-are-quickly-outpacing-detection/ Mai, K. T., Bray, S., Davies, T., & Griffin, L. D. (2023). Warning: Humans cannot reliably detect speech deepfakes. PLOS ONE, 18(8). https://doi.org/10.1371/journal.pone.0285333 Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., & Bengio, Y. (2014). Generative Adversarial Networks. https://arxiv.org/pdf/1406.2661 O’Connor, R. (2022, 12 de mayo). Introduction to Diffusion Models for Machine Learning. AssemblyAI. https://www.assemblyai.com/blog/diffusion-models-for-machine-learning-introduction Jingnan, H. (2024, 5 de abril). Using AI to detect AI-generated deepfakes can work for audio — but not always. NPR. https://www.npr.org/2024/04/05/1241446778/deepfake-audio-detection Onfido. (2025). 2025 Identity Fraud Report. https://onfido.com/landing/identity-fraud-report/ El País. (2024). ¿Los colombianos son los más propensos a las estafas? Estudio reveló que desconocen la modalidad de robo por DeepFakes. https://www.elpais.com.co/colombia/los-colombianos-son-los-mas-propensos-a-las-estafas-estudio-revelo-que-desconocen-la-modalidad-de-robo-por-deepfakes-2926.html IBM. (s.f.). What are convolutional neural networks? https://www.ibm.com/think/topics/convolutional-neural-networks Deruty, E. (2022). Intuitive understanding of MFCCs. Medium. https://medium.com/@derutycsl/intuitive-understanding-of-mfccs-836d36a1f779 Valerio Velardo - The Sound of AI. (2020). Mel-Frequency Cepstral Coefficients Explained Easily [Video]. YouTube. https://www.youtube.com/watch?v=4_SH2nfbQZ8&ab_channel=ValerioVelardo-TheSoundofAI Tamayo Flórez, P. (2022). Voice anti-spoofing data-set built from Latin American Spanish accents implementing voice conversion and text-to-speech techniques. Universidad de los Andes. http://hdl.handle.net/1992/64313 Deloitte Center for Technology, Media & Telecommunications. (2024, 19 de noviembre). Deepfake disruption: A cybersecurity-scale challenge and its far-reaching consequences. Deloitte Insights. Recuperado de https://www2.deloitte.com/us/en/insights/industry/technology/technology-media-and-telecom-predictions/2025/gen-ai-trust-standards.html Chollet, F. (2017). Xception: Deep learning with depthwise separable convolutions. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 1251–1258). https://doi.org/10.1109/CVPR.2017.195 Singh, L. H., Charanarur, P. & Chaudhary, N. K. (2025). Advancements in detecting Deepfakes: AI algorithms and future prospects – a review. Discover Internet of Things, 5, 53. https://doi.org/10.1007/s43926-025-00154-0 Deressa, D. W., Mareen, H., Lambert, P., Atnafu, S., Akhtar, Z., & Van Wallendael, G. (2025). GenConViT: Deepfake video detection using generative convolutional vision transformer. https://doi.org/10.3390/app15126622 |
dc.rights.en.fl_str_mv |
Attribution-NonCommercial-ShareAlike 4.0 International |
dc.rights.uri.none.fl_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ |
dc.rights.accessrights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.coar.none.fl_str_mv |
http://purl.org/coar/access_right/c_abf2 |
rights_invalid_str_mv |
Attribution-NonCommercial-ShareAlike 4.0 International http://creativecommons.org/licenses/by-nc-sa/4.0/ http://purl.org/coar/access_right/c_abf2 |
eu_rights_str_mv |
openAccess |
dc.format.extent.none.fl_str_mv |
19 páginas |
dc.format.mimetype.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de los Andes |
dc.publisher.program.none.fl_str_mv |
Ingeniería de Sistemas y Computación |
dc.publisher.faculty.none.fl_str_mv |
Facultad de Ingeniería |
dc.publisher.department.none.fl_str_mv |
Departamento de Ingeniería de Sistemas y Computación |
publisher.none.fl_str_mv |
Universidad de los Andes |
institution |
Universidad de los Andes |
bitstream.url.fl_str_mv |
https://repositorio.uniandes.edu.co/bitstreams/b5345899-99b1-4074-8d1d-e97ce46f6ab9/download https://repositorio.uniandes.edu.co/bitstreams/b0c8f85d-4d9c-4825-a686-707d17d1997d/download https://repositorio.uniandes.edu.co/bitstreams/363e0664-4ff5-4df0-ade9-ecdf256a264c/download https://repositorio.uniandes.edu.co/bitstreams/9979e286-266e-4a12-855d-daf05274780a/download https://repositorio.uniandes.edu.co/bitstreams/1fdbd9e1-a466-4158-a4e5-3cdb105e1165/download https://repositorio.uniandes.edu.co/bitstreams/337779f9-ec5a-47f2-8752-5de586f4ebe3/download https://repositorio.uniandes.edu.co/bitstreams/52d208bf-2e64-4c44-aba3-bde1a2bf6d00/download https://repositorio.uniandes.edu.co/bitstreams/7ef14d5f-8ee9-4f1c-aa73-cb73a599c78c/download |
bitstream.checksum.fl_str_mv |
699724274dbe0a952672e4bd0915eaf8 34fa96df928db4ae874cf3f8fb05deb3 ae9e573a68e7f92501b6913cc846c39f 934f4ca17e109e0a05eaeaba504d7ce4 612f16318cf6e549c4f902d0ea86130b 97c37e7906660ed909a562080294754f 96a10e732eadcaa70e81eee835da7d22 a79868793d07522c44f2712f50485343 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio institucional Séneca |
repository.mail.fl_str_mv |
adminrepositorio@uniandes.edu.co |
_version_ |
1837005279479201792 |
spelling |
Donoso Meisel, Yezyd Enriquevirtual::24310-1Gélvez Galvis, Santiago AndrésGarcía Esquibel, Juan NicolásDonoso Meisel, Yezyd Enrique2025-06-24T16:15:44Z2025-06-24T16:15:44Z2025-06-10https://hdl.handle.net/1992/76372instname:Universidad de los Andesreponame:Repositorio Institucional Sénecarepourl:https://repositorio.uniandes.edu.co/Teniendo en cuenta el creciente empleo de deepfakes con fines negativos como dañar reputaciones, difundir noticias falsas o realizar burlas, este trabajo presenta una plataforma de detección de contenidos deepfake en audio y video. Se evaluaron distintos modelos de aprendizaje profundo, analizando precisión, eficiencia y escalabilidad. La solución permite subir archivos mediante una API web y ofrece una clasificación con un intervalo de confianza, además de registrar resultados para facilitar futuros entrenamientos. Los resultados superan los estándares actuales y demuestran la viabilidad de la herramienta en entornos académicos y profesionales.Pregrado19 páginasapplication/pdfspaUniversidad de los AndesIngeniería de Sistemas y ComputaciónFacultad de IngenieríaDepartamento de Ingeniería de Sistemas y ComputaciónAttribution-NonCommercial-ShareAlike 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Modelo de detección de audios en español y videos deepfake contra ataques de ingeniería socialTrabajo de grado - Pregradoinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_7a1fTexthttp://purl.org/redcol/resource_type/TPDeepfakesDeep learningGenConViTCNNsMLPsDetección de deepfakesIngeniería socialRedes neuronalesIngenieríaBrodsky, S. (2024, 10 de septiembre). Tech industry ramps up efforts to combat rising deepfake threats. IBM. https://www.ibm.com/new/announcements/deepfake-detectionSwatton, P., & Leblanc, M. (2024, 7 de junio). What are deepfakes and how can we detect them? The Alan Turing Institute. https://www.turing.ac.uk/blog/what-are-deepfakes-and-how-can-we-detect-themLeffer, L. (2024, 26 de enero). AI Audio Deepfakes Are Quickly Outpacing Detection. Scientific American. https://www.scientificamerican.com/article/ai-audio-deepfakes-are-quickly-outpacing-detection/Mai, K. T., Bray, S., Davies, T., & Griffin, L. D. (2023). Warning: Humans cannot reliably detect speech deepfakes. PLOS ONE, 18(8). https://doi.org/10.1371/journal.pone.0285333Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., & Bengio, Y. (2014). Generative Adversarial Networks. https://arxiv.org/pdf/1406.2661O’Connor, R. (2022, 12 de mayo). Introduction to Diffusion Models for Machine Learning. AssemblyAI. https://www.assemblyai.com/blog/diffusion-models-for-machine-learning-introductionJingnan, H. (2024, 5 de abril). Using AI to detect AI-generated deepfakes can work for audio — but not always. NPR. https://www.npr.org/2024/04/05/1241446778/deepfake-audio-detectionOnfido. (2025). 2025 Identity Fraud Report. https://onfido.com/landing/identity-fraud-report/El País. (2024). ¿Los colombianos son los más propensos a las estafas? Estudio reveló que desconocen la modalidad de robo por DeepFakes. https://www.elpais.com.co/colombia/los-colombianos-son-los-mas-propensos-a-las-estafas-estudio-revelo-que-desconocen-la-modalidad-de-robo-por-deepfakes-2926.htmlIBM. (s.f.). What are convolutional neural networks? https://www.ibm.com/think/topics/convolutional-neural-networksDeruty, E. (2022). Intuitive understanding of MFCCs. Medium. https://medium.com/@derutycsl/intuitive-understanding-of-mfccs-836d36a1f779Valerio Velardo - The Sound of AI. (2020). Mel-Frequency Cepstral Coefficients Explained Easily [Video]. YouTube. https://www.youtube.com/watch?v=4_SH2nfbQZ8&ab_channel=ValerioVelardo-TheSoundofAITamayo Flórez, P. (2022). Voice anti-spoofing data-set built from Latin American Spanish accents implementing voice conversion and text-to-speech techniques. Universidad de los Andes. http://hdl.handle.net/1992/64313Deloitte Center for Technology, Media & Telecommunications. (2024, 19 de noviembre). Deepfake disruption: A cybersecurity-scale challenge and its far-reaching consequences. Deloitte Insights. Recuperado de https://www2.deloitte.com/us/en/insights/industry/technology/technology-media-and-telecom-predictions/2025/gen-ai-trust-standards.htmlChollet, F. (2017). Xception: Deep learning with depthwise separable convolutions. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 1251–1258). https://doi.org/10.1109/CVPR.2017.195Singh, L. H., Charanarur, P. & Chaudhary, N. K. (2025). Advancements in detecting Deepfakes: AI algorithms and future prospects – a review. Discover Internet of Things, 5, 53. https://doi.org/10.1007/s43926-025-00154-0Deressa, D. W., Mareen, H., Lambert, P., Atnafu, S., Akhtar, Z., & Van Wallendael, G. (2025). GenConViT: Deepfake video detection using generative convolutional vision transformer. https://doi.org/10.3390/app15126622202212387201717860Publicationhttps://scholar.google.es/citations?user=Razvs2MAAAAJvirtual::24310-10000-0003-1659-1522virtual::24310-1https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000094706virtual::24310-16b9d423b-11e8-4930-b0d2-061b34e9806bvirtual::24310-16b9d423b-11e8-4930-b0d2-061b34e9806bvirtual::24310-1ORIGINALFormato de Autorización.pdfFormato de Autorización.pdfHIDEapplication/pdf313756https://repositorio.uniandes.edu.co/bitstreams/b5345899-99b1-4074-8d1d-e97ce46f6ab9/download699724274dbe0a952672e4bd0915eaf8MD51Modelo de Detección de Audios en Español.pdfModelo de Detección de Audios en Español.pdfapplication/pdf509945https://repositorio.uniandes.edu.co/bitstreams/b0c8f85d-4d9c-4825-a686-707d17d1997d/download34fa96df928db4ae874cf3f8fb05deb3MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82535https://repositorio.uniandes.edu.co/bitstreams/363e0664-4ff5-4df0-ade9-ecdf256a264c/downloadae9e573a68e7f92501b6913cc846c39fMD54CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81031https://repositorio.uniandes.edu.co/bitstreams/9979e286-266e-4a12-855d-daf05274780a/download934f4ca17e109e0a05eaeaba504d7ce4MD55TEXTFormato de Autorización.pdf.txtFormato de Autorización.pdf.txtExtracted texttext/plain2121https://repositorio.uniandes.edu.co/bitstreams/1fdbd9e1-a466-4158-a4e5-3cdb105e1165/download612f16318cf6e549c4f902d0ea86130bMD56Modelo de Detección de Audios en Español.pdf.txtModelo de Detección de Audios en Español.pdf.txtExtracted texttext/plain40671https://repositorio.uniandes.edu.co/bitstreams/337779f9-ec5a-47f2-8752-5de586f4ebe3/download97c37e7906660ed909a562080294754fMD58THUMBNAILFormato de Autorización.pdf.jpgFormato de Autorización.pdf.jpgIM Thumbnailimage/jpeg14690https://repositorio.uniandes.edu.co/bitstreams/52d208bf-2e64-4c44-aba3-bde1a2bf6d00/download96a10e732eadcaa70e81eee835da7d22MD57Modelo de Detección de Audios en Español.pdf.jpgModelo de Detección de Audios en Español.pdf.jpgIM Thumbnailimage/jpeg14291https://repositorio.uniandes.edu.co/bitstreams/7ef14d5f-8ee9-4f1c-aa73-cb73a599c78c/downloada79868793d07522c44f2712f50485343MD591992/76372oai:repositorio.uniandes.edu.co:1992/763722025-06-25 04:08:12.314http://creativecommons.org/licenses/by-nc-sa/4.0/Attribution-NonCommercial-ShareAlike 4.0 Internationalopen.accesshttps://repositorio.uniandes.edu.coRepositorio institucional Sénecaadminrepositorio@uniandes.edu.coPGgzPjxzdHJvbmc+RGVzY2FyZ28gZGUgUmVzcG9uc2FiaWxpZGFkIC0gTGljZW5jaWEgZGUgQXV0b3JpemFjacOzbjwvc3Ryb25nPjwvaDM+CjxwPjxzdHJvbmc+UG9yIGZhdm9yIGxlZXIgYXRlbnRhbWVudGUgZXN0ZSBkb2N1bWVudG8gcXVlIHBlcm1pdGUgYWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCBTw6luZWNhIHJlcHJvZHVjaXIgeSBkaXN0cmlidWlyIGxvcyByZWN1cnNvcyBkZSBpbmZvcm1hY2nDs24gZGVwb3NpdGFkb3MgbWVkaWFudGUgbGEgYXV0b3JpemFjacOzbiBkZSBsb3Mgc2lndWllbnRlcyB0w6lybWlub3M6PC9zdHJvbmc+PC9wPgo8cD5Db25jZWRhIGxhIGxpY2VuY2lhIGRlIGRlcMOzc2l0byBlc3TDoW5kYXIgc2VsZWNjaW9uYW5kbyBsYSBvcGNpw7NuIDxzdHJvbmc+J0FjZXB0YXIgbG9zIHTDqXJtaW5vcyBhbnRlcmlvcm1lbnRlIGRlc2NyaXRvcyc8L3N0cm9uZz4geSBjb250aW51YXIgZWwgcHJvY2VzbyBkZSBlbnbDrW8gbWVkaWFudGUgZWwgYm90w7NuIDxzdHJvbmc+J1NpZ3VpZW50ZScuPC9zdHJvbmc+PC9wPgo8aHI+CjxwPllvLCBlbiBtaSBjYWxpZGFkIGRlIGF1dG9yIGRlbCB0cmFiYWpvIGRlIHRlc2lzLCBtb25vZ3JhZsOtYSBvIHRyYWJham8gZGUgZ3JhZG8sIGhhZ28gZW50cmVnYSBkZWwgZWplbXBsYXIgcmVzcGVjdGl2byB5IGRlIHN1cyBhbmV4b3MgZGUgc2VyIGVsIGNhc28sIGVuIGZvcm1hdG8gZGlnaXRhbCB5L28gZWxlY3Ryw7NuaWNvIHkgYXV0b3Jpem8gYSBsYSBVbml2ZXJzaWRhZCBkZSBsb3MgQW5kZXMgcGFyYSBxdWUgcmVhbGljZSBsYSBwdWJsaWNhY2nDs24gZW4gZWwgU2lzdGVtYSBkZSBCaWJsaW90ZWNhcyBvIGVuIGN1YWxxdWllciBvdHJvIHNpc3RlbWEgbyBiYXNlIGRlIGRhdG9zIHByb3BpbyBvIGFqZW5vIGEgbGEgVW5pdmVyc2lkYWQgeSBwYXJhIHF1ZSBlbiBsb3MgdMOpcm1pbm9zIGVzdGFibGVjaWRvcyBlbiBsYSBMZXkgMjMgZGUgMTk4MiwgTGV5IDQ0IGRlIDE5OTMsIERlY2lzacOzbiBBbmRpbmEgMzUxIGRlIDE5OTMsIERlY3JldG8gNDYwIGRlIDE5OTUgeSBkZW3DoXMgbm9ybWFzIGdlbmVyYWxlcyBzb2JyZSBsYSBtYXRlcmlhLCB1dGlsaWNlIGVuIHRvZGFzIHN1cyBmb3JtYXMsIGxvcyBkZXJlY2hvcyBwYXRyaW1vbmlhbGVzIGRlIHJlcHJvZHVjY2nDs24sIGNvbXVuaWNhY2nDs24gcMO6YmxpY2EsIHRyYW5zZm9ybWFjacOzbiB5IGRpc3RyaWJ1Y2nDs24gKGFscXVpbGVyLCBwcsOpc3RhbW8gcMO6YmxpY28gZSBpbXBvcnRhY2nDs24pIHF1ZSBtZSBjb3JyZXNwb25kZW4gY29tbyBjcmVhZG9yIGRlIGxhIG9icmEgb2JqZXRvIGRlbCBwcmVzZW50ZSBkb2N1bWVudG8uPC9wPgo8cD5MYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGVtaXRlIGVuIGNhbGlkYWQgZGUgYXV0b3IgZGUgbGEgb2JyYSBvYmpldG8gZGVsIHByZXNlbnRlIGRvY3VtZW50byB5IG5vIGNvcnJlc3BvbmRlIGEgY2VzacOzbiBkZSBkZXJlY2hvcywgc2lubyBhIGxhIGF1dG9yaXphY2nDs24gZGUgdXNvIGFjYWTDqW1pY28gZGUgY29uZm9ybWlkYWQgY29uIGxvIGFudGVyaW9ybWVudGUgc2XDsWFsYWRvLiBMYSBwcmVzZW50ZSBhdXRvcml6YWNpw7NuIHNlIGhhY2UgZXh0ZW5zaXZhIG5vIHNvbG8gYSBsYXMgZmFjdWx0YWRlcyB5IGRlcmVjaG9zIGRlIHVzbyBzb2JyZSBsYSBvYnJhIGVuIGZvcm1hdG8gbyBzb3BvcnRlIG1hdGVyaWFsLCBzaW5vIHRhbWJpw6luIHBhcmEgZm9ybWF0byBlbGVjdHLDs25pY28sIHkgZW4gZ2VuZXJhbCBwYXJhIGN1YWxxdWllciBmb3JtYXRvIGNvbm9jaWRvIG8gcG9yIGNvbm9jZXIuPC9wPgo8cD5FbCBhdXRvciwgbWFuaWZpZXN0YSBxdWUgbGEgb2JyYSBvYmpldG8gZGUgbGEgcHJlc2VudGUgYXV0b3JpemFjacOzbiBlcyBvcmlnaW5hbCB5IGxhIHJlYWxpesOzIHNpbiB2aW9sYXIgbyB1c3VycGFyIGRlcmVjaG9zIGRlIGF1dG9yIGRlIHRlcmNlcm9zLCBwb3IgbG8gdGFudG8sIGxhIG9icmEgZXMgZGUgc3UgZXhjbHVzaXZhIGF1dG9yw61hIHkgdGllbmUgbGEgdGl0dWxhcmlkYWQgc29icmUgbGEgbWlzbWEuPC9wPgo8cD5FbiBjYXNvIGRlIHByZXNlbnRhcnNlIGN1YWxxdWllciByZWNsYW1hY2nDs24gbyBhY2Npw7NuIHBvciBwYXJ0ZSBkZSB1biB0ZXJjZXJvIGVuIGN1YW50byBhIGxvcyBkZXJlY2hvcyBkZSBhdXRvciBzb2JyZSBsYSBvYnJhIGVuIGN1ZXN0acOzbiwgZWwgYXV0b3IgYXN1bWlyw6EgdG9kYSBsYSByZXNwb25zYWJpbGlkYWQsIHkgc2FsZHLDoSBkZSBkZWZlbnNhIGRlIGxvcyBkZXJlY2hvcyBhcXXDrSBhdXRvcml6YWRvcywgcGFyYSB0b2RvcyBsb3MgZWZlY3RvcyBsYSBVbml2ZXJzaWRhZCBhY3TDumEgY29tbyB1biB0ZXJjZXJvIGRlIGJ1ZW5hIGZlLjwvcD4KPHA+U2kgdGllbmUgYWxndW5hIGR1ZGEgc29icmUgbGEgbGljZW5jaWEsIHBvciBmYXZvciwgY29udGFjdGUgY29uIGVsIDxhIGhyZWY9Im1haWx0bzpiaWJsaW90ZWNhQHVuaWFuZGVzLmVkdS5jbyIgdGFyZ2V0PSJfYmxhbmsiPkFkbWluaXN0cmFkb3IgZGVsIFNpc3RlbWEuPC9hPjwvcD4K |