Un modelo variacional nuevo para la clasificación binaria en el contexto de aprendizaje automático supervisado

Resumen

Se examina el problema de aprendizaje supervisado en su planteación continua. Posteriormente se da una condición de optimalidad general a través de técnicas del análisis funcional y el cálculo de variaciones. Esto nos permite resolver la condición de optimalidad para la función deseada u numéricamente y hacer varias comparaciones con otros modelos de aprendizaje supervisado ampliamente utilizados. Se emplea la precisión porcentual y el área bajo la curva característica operativa del receptor (AUC por sus siglas en inglés) como métricas del rendimiento. Finalmente, se realizan 3 análisis basados en estas dos métricas mencionadas donde comparamos los modelos y hacemos conclusiones para determinar si nuestro método es competitivo o no.

Citas

[1] Goodfellow, Ian, Yoshua Bengio, and Aaron Courville: Deep learning. MIT press, 2016.
[2] A. Singh, N. Thakur and A. Sharma, "A review of supervised machine learning algorithms," 2016 3rd International Conference on Computing for Sustainable Global Development (INDIACom), New Delhi, 2016, pp. 1310-1315.
[3] Fernández-Delgado, Manuel, et al. "Do we need hundreds of classifiers to solve real world classification problems." J. Mach. Learn. Res 15.1 (2014): 3133-3181.
[4] Kotsiantis, Sotiris B., I. Zaharakis, and P. Pintelas: "Supervised machine learning: A review of classification techniques." (2007): 3-24.
[5] Caruana, Rich, and Alexandru Niculescu-Mizil. "An empirical comparison of supervised learning algo- rithms." Proceedings of the 23rd international conference on Machine learning. ACM, 2006.
[6] Shore, John, and Rodney Johnson. "Axiomatic derivation of the principle of maximum entropy and the principle of minimum cross-entropy." IEEE Transactions on information theory 26.1 (1980): 26-37.
[7] Evans, Lawrence. "Partial differential equations." (2010).
[8] Lin, Tong, et al. "Supervised learning via Euler’s Elastica models." Journal of Machine Learning Research 16 (2015): 3637-3686.
[9] Moré, Jorge J. "The Levenberg-Marquardt algorithm: implementation and theory." Numerical analysis. Springer, Berlin, Heidelberg, 1978. 105-116.
[10] Press, William H., et al. Numerical recipes in C. Vol. 2. Cambridge: Cambridge university press, 1996.
[11] Hanley, James A., and Barbara J. McNeil. "The meaning and use of the area under a receiver operating characteristic (ROC) curve." Radiology 143.1 (1982): 29-36.
[12] Pedregosa, Fabian, et al. "Scikit-learn: Machine learning in Python." Journal of Machine Learning Research 12.Oct (2011): 2825-2830.
[13] Fawcett, Tom. "An introduction to ROC analysis." Pattern recognition letters 27.8 (2006): 861-874.
[14] Belkin, Mikhail, Partha Niyogi, and Vikas Sindhwani. "Manifold regularization: A geometric framework for learning from labeled and unlabeled examples." Journal of machine learning research 7.Nov (2006): 2399-2434.
Publicado
2018-08-29
Sección
Artículos de Investigación