Inteligencia artificial explicable en la analítica digital: transparencia en los modelos predictivos de consumo
DOI:
https://doi.org/10.23857/dc.v11i4.4613Palabras clave:
Inteligencia artificial explicable (XAI), analítica digital, modelos predictivos de consumo, transparencia algorítmica, interpretabilidad de datosResumen
Este estudio aborda la Inteligencia Artificial explicable (XAI) aplicada a la Analítica Digital del comportamiento de consumo, enfatizando la urgencia corporativa de asegurar transparencia, auditabilidad y confiabilidad en los modelos predictivos utilizados para la toma de decisiones estratégicas. El objetivo central es evaluar cómo los mecanismos de explicabilidad fortalecen la interpretación de los patrones de consumo, reducen la opacidad algorítmica y optimizan la eficiencia en la asignación de recursos de marketing. Desde una perspectiva teórica, se fundamenta en los enfoques contemporáneos de machine learning interpretativo, modelos pos-hoc y marcos de gobernanza algorítmica. Se destacan conceptos clave como interpretabilidad intrínseca, atribución de características, sesgo algorítmico, responsabilidad digital, así como técnicas ampliamente aceptadas en XAI, entre ellas SHAP, LIME, modelos árbol-transparente y visualizaciones de sensibilidad. La revisión conceptual establece que la transparencia no solo es un requisito ético, sino un activo estratégico para ecosistemas empresariales intensivos en datos. Los resultados más relevantes evidencian que los modelos predictivos explicables incrementan la precisión operacional del análisis de consumo en entornos complejos, facilitan la comprensión ejecutiva de los drivers del comportamiento y permiten validar la coherencia entre los datos utilizados y las decisiones comerciales derivadas. Además, se identifican mejoras sustantivas en la detección temprana de anomalías, la mitigación del sesgo y la construcción de confianza entre stakeholders internos y externos. En conclusión, la incorporación de XAI en la Analítica Digital no solo potencia el rendimiento de los modelos, sino que consolida un enfoque de toma de decisiones responsable, alineado con estándares emergentes de gobernanza tecnológica y competitividad empresarial.
Citas
Adebayo, J., Gilmer, J., Muelly, M., Goodfellow, I., Hardt, M., & Kim, B. (2018). Sanity checks for saliency maps. Advances in Neural Information Processing Systems, 31.
Akter, S. (2022). Algorithmic bias in machine learning-based marketing: sources and mitigation strategies. Journal of Business Research (article summary). https://www.sciencedirect.com/science/article/pii/S0148296322000959.
Alvarez-Melis, D., & Jaakkola, T. (2018). On the robustness of interpretability methods. arXiv:1806.08049.
Arrieta, A. B., et al. (2020). Explainable Artificial Intelligence (XAI): A survey. Information Fusion, 58, 82–115.
Bach, S., Binder, A., Montavon, G., Klauschen, F., Müller, K., & Samek, W. (2015). On pixel-wise explanations by layer-wise relevance propagation. PLOS ONE, 10(7), e0130140.
Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and machine learning.
Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in ML algorithms. Big Data & Society, 3(1).
Cai, C., Jonsson, L., & Tenenbaum, J. (2019). Interpretable machine learning: Moving from myth to practice. MIT Press.
Carvalho, D., Pereira, E., & Cardoso, J. (2019). Machine learning interpretability: A survey. Journal of Information, 11(2), 30–42.
Castelvecchi, D. (2016). Can we open the black box of AI? Nature, 538, 20–23.
Chen, J., et al. (2020). True to the model? SHAP explanations mismatch the model. arXiv:2006.16234.
Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv:1702.08608.
Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review, 1(1).
Friedman, J. (2001). Greedy function approximation: A gradient boosting machine. Annals of Statistics, 29(5), 1189–1232.
Guidotti, R., et al. (2019). A survey of methods for explaining black-box models. ACM Computing Surveys, 51(5).
Gunning, D., & Aha, D. (2019). DARPA’s Explainable AI program. AI Magazine, 40(2), 44–58.
Kumar, V., et al. (2021). Customer analytics and AI-driven personalization. Journal of Retailing.
Lepri, B., et al. (2018). Fair, transparent, and accountable algorithmic decision-making processes. DataPop Alliance / Research brief. https://datapopalliance.org/wp-content/uploads/2020/09/Fair-Transparent-and-Accountable-Algorithmic-Decision-making-Processes.pdf.
Lipton, Z. C. (2018). The mythos of model interpretability. Communications of the ACM, 61(10), 36–43.
Lundberg, S. M., & Lee, S.-I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30.
Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1–38.
Molnar, C. (2022). Interpretable Machine Learning (2nd ed.).
Morley, J., et al. (2020). Ethics of AI: A systematic review. MIT Press.
Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why should I trust you?” Explaining predictions of any classifier. KDD.
Rudin, C. (2019). Stop explaining black box machine learning models. Nature Machine Intelligence, 1, 206–215.
Samek, W., & Müller, K.-R. (2019). Towards explainable artificial intelligence. In Explainable AI: Interpreting, Explaining and Visualizing Deep Learning (pp. 5–22). Springer.
Sculley, D., Holt, G., Golovin, D., Davydov, E., Phillips, T., Ebner, D., ... & Dennison, D. (2015). Hidden technical debt in machine learning systems. Advances in Neural Information Processing Systems, 28.
Selvaraju, R. R., et al. (2017). Grad-CAM: Visual explanations from deep networks. ICCV.
Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the GDPR. International Data Privacy Law, 7(2).
Wang, D., et al. (2019). Designing theory-based XAI systems. CHI.
Zhou, X., et al. (2021). Evaluating XAI: A multidimensional framework. arXiv:2104.01490.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 Doménica Patricia Lalama Freire

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Authors retain copyright and guarantee the Journal the right to be the first publication of the work. These are covered by a Creative Commons (CC BY-NC-ND 4.0) license that allows others to share the work with an acknowledgment of the work authorship and the initial publication in this journal.




