Análisis de códigos fuente de métodos de explicabilidad de inteligencia artificial. Proyecto de Investigación

En la gestión hospitalaria, confiar en las predicciones de una inteligencia artificial (IA) tiene un riesgo asociado, en entornos de alto riesgo como la salud, es esencial entender el por qué los modelos llegan a sus conclusiones. La explicabilidad hace posible identificar las características más re...

Full description

Autores:
Banquez Cabarcas, Andrés
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2025
Institución:
Universidad de Antioquia
Repositorio:
Repositorio UdeA
Idioma:
spa
OAI Identifier:
oai:bibliotecadigital.udea.edu.co:10495/48393
Acceso en línea:
https://hdl.handle.net/10495/48393
Palabra clave:
Computers, Pipeline
Pipelines
Administración Hospitalaria
Hospital Administration
Inteligencia artificial
Artificial intelligence
http://id.loc.gov/authorities/subjects/sh85029569
https://id.nlm.nih.gov/mesh/D006739
Rights
openAccess
License
http://creativecommons.org/licenses/by-nc-sa/4.0/
Description
Summary:En la gestión hospitalaria, confiar en las predicciones de una inteligencia artificial (IA) tiene un riesgo asociado, en entornos de alto riesgo como la salud, es esencial entender el por qué los modelos llegan a sus conclusiones. La explicabilidad hace posible identificar las características más relevantes tanto para las predicciones globales, como para las predicciones locales de un sistema, lo que permite a los usuarios comprender la razón detrás de cada decisión hecha por el modelo, ya sea a nivel de un caso individual o la totalidad del sistema. Este proyecto propone un pipeline para seleccionar el mejor algoritmo de explicabilidad, enfocándose en el contexto de la gestión hospitalaria, considerando la importancia de la transparencia de la inteligencia artificial contextualizada en entornos médicos. La metodología incluye una revisión bibliográfica de las técnicas existentes y su uso en diferentes aplicaciones, incluyendo el ámbito de la salud, con este propósito, se definirán métricas para evaluar la calidad de sus explicaciones y comparar las distintas opciones disponibles. Luego, se desarrollará el pipeline para poder seleccionar e implementar la alternativa que cumpla con los criterios y objetivos establecidos para cada trabajo en particular. Finalmente, se probarán los resultados obtenidos con datos cuyos valores esperados sean conocidos, de manera que pueda confirmarse que los cálculos obtenidos son correctos. Tras el desarrollo del pipeline, se utilizó un modelo de Random Forest con datos de MIMIC IV, SHAP demostró mayor fidelidad y un comportamiento ideal para entornos que requieren trazabilidad. Mientras que LIME ofreció explicaciones simples, rápidas, útiles para decisiones rápidas.