Redes bayesianas con algoritmos basados en restricciones, scores e híbridos aplicados al problema de clasificación
DOI:
https://doi.org/10.21704/ac.v80i1.1370Palabras clave:
edes bayesianas, clasificador, Naive Bayes, TAN, independencia condicional, selección de variables.Resumen
Las redes bayesianas son gráficos acíclicos dirigidos que codifican las relaciones de dependencia e independencia condicional en un conjunto de variables predictoras. En este trabajo de investigación se presentan tres algoritmos que permiten obtener la estructura que define una red bayesiana. Sobre esta estructura se construyeron clasificadores, incluyendo una variable dependiente en el gráfico que tiene las clases o categorías de interés, obteniendo un rendimiento predictivo similar en comparación con los clasificadores por redes bayesianas tradicionales, Naive Bayes y TAN. Se presenta también el algoritmo de selección de variables Statistically Equivalent Signature obteniendo resultados similares a los clasificadores construidos con todas las variables predictoras.
Descargas
Referencias
de distribuciones de probabilidad discretas con árboles de dependencia. Transacciones IEEE sobre teoría de la información. 14 (3): 462-467.
Denis, J.; Scutari, M. 2014. Réseaux bayésiens avec r: Élaboration, manipulation et utilisation en modélisation appliquée. FALTA EDITORIAL Y CIUDAD O UNA DE LAS DOS
Duda, R.O.; Hart, P.E.; Stork, D.G. et al. 1973. Pattern classification, volume 2. Wiley New York.
Dheeru, D.; y Karra Taniskidou, E. 2017. UCI machine learning repository.
Friedman, N.; Geiger, D.; Goldszmidt, M. 1997. Bayesian network classifiers. Machine learning, 29 (2-3): 131–163.
Friedman, N.; Nachman, I.; Peér, D. 1999. Learning bayesian network structure from massive datasets: the «sparse candidate «algorithm. In: Proceedings of the Fifteenth conference on Uncertainty in artificial intelligence. Morgan Kaufmann Publishers Inc. 206-215 p.
Huang, G.T.; Tsamardinos, I.; Raghu, V.; Kaminski, N.; Benos, P.V. 2014. T-recs: stable selection of dynamically formed groups of features with application to prediction of clinical outcomes. In: Pacific Symposium on Biocomputing Co-Chairs, World Scientific. 431-442 p.
Kerber, R. 1992. Chimerge: Discretization of numeric attributes. In Proceedings of the tenth national conference on Artificial intelligence, Aaai Press. 123-128 p.
Margaritis, D. 2003. Learning bayesian network model structure from data. Technical report, Carnegie-Mellon Univ. Pittsburgh Pa School of Computer Science.
Martınez, A.M.; Webb, G.I.; Chen, S.; Zaidi, N.A. 2016. Scalable learning of bayesian network classifiers. Journal of Machine Learning Research, 17 (44): 1–35.
Nagarajan, R.; Scutari, M.; Lèbre, S. 2013. Bayesian networks in r. Springer, 122: 125–127.
Pearl, J. 1988. Probabilistic reasoning in intelligent systems: Networks of plausible inference. Morgan Kauffman Pub.
Taheri, S.; Yearwood, J.; Mammadov, M.; Seifollahi, S. 2014. Attribute weighted naive bayes classifier using a local optimization. Neural Computing and Applications 24 (5): 995–1002.
Tsamardinos, I.; Brown, L.E.; Aliferis, C F. 2006. The max-min hill-climbing bayesian network structure learning algorithm. Machine learning, 65 (1): 31–78.
Tsamardinos, I.; Lagani, V.; Pappas, D. 2013. Discovering multiple, equivalent biomarker signatures. In: 7th Conference of the Hellenic Society for Computational Biology and Bioinformatics (HSCBB12).