Redes bayesianas con algoritmos basados en restricciones, scores e híbridos aplicados al problema de clasicación
24
Enero - Junio 2019
posterior construcción del clasicador, es
ligeramente mayor al que se requiere con los
clasicadores tradicionales Naive Bayes y
TAN. Las librerías bnlearn, dprep y MXM
no presentaron inconveniente alguno al
trabajar con los conjuntos de datos usados
en el presente trabajo de investigación.
El algoritmo de selección de variables
Statistically Equivalent Signatures, utilizado
antes de la aplicación de los algoritmos de
estimación de la estructura, permitió obtener
clasicadores sobre una menor cantidad de
variables predictoras. Sin embargo, no se
obtiene una diferencia importante en la tasa
de elementos correctamente clasicados
en comparación con los clasicadores
construidos con todas las variables
predictoras, según los valores de la Tabla 5.
Por otro lado, elegir las variables predictoras
a utilizar en una etapa inicial permite un
menor gasto computacional al momento de
aplicar los algoritmos propuestos.
5. Recomendaciones
Los clasicadores usados en el presente
trabajo de investigación requieren una etapa
inicial de discretización de las variables
cuantitativas continuas para llevar a cabo
el proceso de estimación de la estructura,
a partir de los algoritmos propuestos.
Sin embargo, esto puede llevarnos a una
inevitable pérdida de información por lo
que es importante considerar metodologías
que permitan trabajar con ambos tipos de
variables.
Es posible usar las redes bayesianas
gaussianas para los conjuntos de datos que
tienen solamente variables cuantitativas
continuas. En este tipo de redes, se asume
que la distribución global es normal
multivariada y que cada distribución local
se puede expresar como un modelo lineal
gaussiano clásico de regresión donde el
nodo es la variable respuesta y sus padres
son las variables explicativas.
Las redes bayesianas mixtas permiten
trabajar con variables discretas y continuas,
pudiendo utilizar casi cualquier modelo de
probabilidad para las distribuciones locales
dentro de lo razonable. Desafortunadamente,
esta mayor exibilidad hace que la red
bayesiana sea más compleja. No existe
en R alguna librería que permita manejar
este tipo de redes bayesianas por lo que el
proceso de estimación de la estructura y de
los parámetros requieren de un esfuerzo de
programación por parte del usuario.
6. Literatura citada
Chow, C.; Liu, C. 1968. Aproximación
de distribuciones de probabilidad
discretas con árboles de dependencia.
Transacciones IEEE sobre teoría de la
información. 14 (3): 462-467.
Denis, J.; Scutari, M. 2014. Réseaux bayésiens
avec r: Élaboration, manipulation et
utilisation en modélisation appliquée.
Duda, R.O.; Hart, P.E.; Stork, D.G. et al.
1973. Pattern classication, volume 2.
Wiley New York.
Dheeru, D.; y Karra, E. 2017. UCI machine
learning repository.
Friedman, N.; Geiger, D.; Goldszmidt, M.
1997. Bayesian network classiers.
Machine learning, 29 (2-3): 131–163.
Friedman, N.; Nachman, I.; Peér, D. 1999.
Learning bayesian network structure
from massive datasets: the «sparse
candidate «algorithm. In: Proceedings of
the Fifteenth conference on Uncertainty
in articial intelligence. Morgan
Kaufmann Publishers Inc. 206-215 p.
Huang, G.T.; Tsamardinos, I.; Raghu, V.;
Kaminski, N.; Benos, P.V. 2014. T-recs:
stable selection of dynamically formed
groups of features with application to
prediction of clinical outcomes. In:
Pacic Symposium on Biocomputing
Co-Chairs, World Scientic. 431-442 p.
Kerber, R. 1992. Chimerge: Discretization of
numeric attributes. In Proceedings of the
tenth national conference on Articial
intelligence, Aaai Press. 123-128 p.
Margaritis, D. 2003. Learning bayesian
network model structure from data.
Technical report, Carnegie-Mellon
Univ. Pittsburgh Pa School of Computer
Science.
Martınez, A.M.; Webb, G.I.; Chen, S.; Zaidi,
N.A. 2016. Scalable learning of bayesian
network classiers. Journal of Machine
Learning Research, 17 (44): 1–35.
Nagarajan, R.; Scutari, M.; Lèbre, S. 2013.
Bayesian networks in r. Springer, 122: