Análisis de códigos fuente de métodos de explicabilidad de inteligencia artificial. Proyecto de Investigación
En la gestión hospitalaria, confiar en las predicciones de una inteligencia artificial (IA) tiene un riesgo asociado, en entornos de alto riesgo como la salud, es esencial entender el por qué los modelos llegan a sus conclusiones. La explicabilidad hace posible identificar las características más re...
- Autores:
-
Banquez Cabarcas, Andrés
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2025
- Institución:
- Universidad de Antioquia
- Repositorio:
- Repositorio UdeA
- Idioma:
- spa
- OAI Identifier:
- oai:bibliotecadigital.udea.edu.co:10495/48393
- Acceso en línea:
- https://hdl.handle.net/10495/48393
- Palabra clave:
- Computers, Pipeline
Pipelines
Administración Hospitalaria
Hospital Administration
Inteligencia artificial
Artificial intelligence
http://id.loc.gov/authorities/subjects/sh85029569
https://id.nlm.nih.gov/mesh/D006739
- Rights
- openAccess
- License
- http://creativecommons.org/licenses/by-nc-sa/4.0/
| Summary: | En la gestión hospitalaria, confiar en las predicciones de una inteligencia artificial (IA) tiene un riesgo asociado, en entornos de alto riesgo como la salud, es esencial entender el por qué los modelos llegan a sus conclusiones. La explicabilidad hace posible identificar las características más relevantes tanto para las predicciones globales, como para las predicciones locales de un sistema, lo que permite a los usuarios comprender la razón detrás de cada decisión hecha por el modelo, ya sea a nivel de un caso individual o la totalidad del sistema. Este proyecto propone un pipeline para seleccionar el mejor algoritmo de explicabilidad, enfocándose en el contexto de la gestión hospitalaria, considerando la importancia de la transparencia de la inteligencia artificial contextualizada en entornos médicos. La metodología incluye una revisión bibliográfica de las técnicas existentes y su uso en diferentes aplicaciones, incluyendo el ámbito de la salud, con este propósito, se definirán métricas para evaluar la calidad de sus explicaciones y comparar las distintas opciones disponibles. Luego, se desarrollará el pipeline para poder seleccionar e implementar la alternativa que cumpla con los criterios y objetivos establecidos para cada trabajo en particular. Finalmente, se probarán los resultados obtenidos con datos cuyos valores esperados sean conocidos, de manera que pueda confirmarse que los cálculos obtenidos son correctos. Tras el desarrollo del pipeline, se utilizó un modelo de Random Forest con datos de MIMIC IV, SHAP demostró mayor fidelidad y un comportamiento ideal para entornos que requieren trazabilidad. Mientras que LIME ofreció explicaciones simples, rápidas, útiles para decisiones rápidas. |
|---|
