Desempeño de un modelo transformer de análisis de noticias

El auge de los Large Language Models (LLMs) basados en una arquitectura Transformer supone la necesidad de buscar especializar estos modelos en el ámbito empresarial para mejorar su calidad y confiabilidad a la hora de emitir respuestas, así como mitigar posibles riesgos de seguridad en la informaci...

Full description

Autores:
Bernal Guevara, Daniel Alejandro
Cuervo Cerquera, Miguel Angel
Tipo de recurso:
Fecha de publicación:
2025
Institución:
Universidad Externado de Colombia
Repositorio:
Biblioteca Digital Universidad Externado de Colombia
Idioma:
spa
OAI Identifier:
oai:bdigital.uexternado.edu.co:001/26512
Acceso en línea:
https://bdigital.uexternado.edu.co/handle/001/26512
Palabra clave:
Seguridad en bases de datos
Privacidad de los datos
Protección de los datos
Aprendizaje automático (Inteligencia artificial)
ODS 4: Educación de calidad. Garantizar una educación inclusiva y equitativa de calidad y promover oportunidades de aprendizaje permanente para todos
ODS 9: Industria, innovación e infraestructura. Construir infraestructuras resilientes, promover la industrialización inclusiva y sostenible y fomentar la innovación
ODS 10: Reducción de las desigualdades. Reducir la desigualdad en los países y entre ellos
Large Language Models (LLMs)
Transformers
Fine-Tuning
T5
Rights
openAccess
License
http://purl.org/coar/access_right/c_abf2
Description
Summary:El auge de los Large Language Models (LLMs) basados en una arquitectura Transformer supone la necesidad de buscar especializar estos modelos en el ámbito empresarial para mejorar su calidad y confiabilidad a la hora de emitir respuestas, así como mitigar posibles riesgos de seguridad en la información que se les suministra. Esta monografía plantea conceptos introductorios para el Fine-Tuning de un modelo T5 de texto a texto en sus versiones Small y Base para el resumen confiable de noticias. Si bien el alcance de esta monografía no abarca los diferentes métodos y técnicas respecto a la seguridad de la información que consumen estos modelos, se considera uno de los factores determinantes para la implementación de procesos de fine-tuning que favorecen a la privacidad de los datos, con la intención de que estas técnicas sean abordadas en trabajos posteriores.