Desarrollo de aplicativo web para el pronóstico de ventas futuras utilizando modelos predictivos.
En este trabajo de grado se aborda el desarrollo de un aplicativo de software para el pronóstico de ventas utilizando algoritmos de inteligencia artificial. El problema evidenciado es la carencia de una herramienta que permita a las pequeñas y medianas empresas(PYMES) tomar mejores decisiones de man...
- Autores:
-
Bedoya Lopez, Joann Esteban
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2025
- Institución:
- Universidad del Valle
- Repositorio:
- Repositorio Digital Univalle
- Idioma:
- spa
- OAI Identifier:
- oai:bibliotecadigital.univalle.edu.co:10893/38557
- Acceso en línea:
- https://hdl.handle.net/10893/38557
- Palabra clave:
- Inteligencia artificial
Predicción de ventas
Redes neuronales
Inteligencia artificial
Predicción de ventas
Redes neuronales
- Rights
- openAccess
- License
- Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
| Summary: | En este trabajo de grado se aborda el desarrollo de un aplicativo de software para el pronóstico de ventas utilizando algoritmos de inteligencia artificial. El problema evidenciado es la carencia de una herramienta que permita a las pequeñas y medianas empresas(PYMES) tomar mejores decisiones de manera informada para la gestión de su inventario ya que para una empresa tener una buena gestión del inventario es crucial ya que lasventas pueden fluctuar de una manera poco predecible lo que puede llevar a pérdidas económicas por tener poco o demasiado inventario. Las pequeñas empresas, pueden enfrentar más dificultades en la gestión del inventario, lo cual puede resultar poco eficiente debido a que suelen realizar esta gestión de manera manual y sin un estudio previo. El objetivo principal de este trabajo de grado es crear una herramienta capaz de generar pronósticos de ventas precisos a partir de datos históricos, integrando modelos predictivos entrenados con técnicas de machine learning. Para ello, se implementaron y evaluaron tres modelos distintos: una red neuronal LSTM (Long Short-Term Memory), un modelo de soporte vectorial para regresión (SVM) con distintos kernels, y un modelo estadístico SARIMA (Seasonal Autoregressive Integrated Moving Average). Las métricas utilizadas para evaluar el desempeño de los modelos fueron el Error Cuadrático Medio (MSE), el Error Absoluto Medio (MAE) y el Error Porcentual Absoluto Medio (MAPE). El proyecto fue desarrollado bajo la metodología ágil Scrum, adaptada para un entorno de trabajo individual. Se construyó un backend en Python utilizando Django, con procesamiento de datos mediante bibliotecas como Pandas, NumPy, TensorFlow/Keras, Scikitlearn y Statsmodels. La base de datos utilizada fue MongoDB, y la interfaz web se diseñó con tecnologías modernas como React, permitiendo al usuario cargar datasets en formato CSV/Excel, configurar parámetros de entrenamiento y visualizar los resultados en gráficos interactivos. Durante la fase experimental, se trabajó con datasets obtenidos de plataformas como Kaggle y Data.gov, incluyendo datos de ventas de una pizzería y comercios minoristas. El modelo SVM con kernel sigmoide presentó el mejor desempeño en términos absolutos, con un MSE = 5.564, MAE = 1.937 y MAPE = 37.20 %. Por otro lado, el modelo LSTM destacó en precisión relativa, con un MAPE = 35.05 %, aunque tuvo un mayor MAE y MSE. El modelo SARIMA mostró un rendimiento intermedio, con buen ajuste en patrones estacionales pero menor precisión porcentual (MAPE = 40.04 %). Además de los experimentos con datos sintéticos, se realizaron pruebas reales con información de negocios locales de ensaladas y comida rápida. Los resultados arrojaron un MAPE por debajo del 20% en escenarios controlados y hasta 37% en contextos más ruidosos. También se aplicó una encuesta a usuarios finales, quienes destacaron la facilidad de uso, la utilidad de las visualizaciones y el potencial de la herramienta para apoyar la toma de decisiones. |
|---|
