Resolver problemas de clasificación multiclase utilizando esquemas de Código de Salida de Corrección de Errores (ECOC) ofrece flexibilidad y robustez, pero los enfoques tradicionales basados en secuencias de Rademacher sufren un aumento exponencial de dicotomías con el número de clases. Este artículo presenta dos contribuciones principales. En primer lugar, proponemos el uso de secuencias de Walsh para construir directamente dicotomías ECOC, permitiendo abordar problemas multiclase con clases C usando únicamente clasificadores C − 1, mientras se mantienen altas distancias de Hamming por parejas entre códigos de clase (C∕2). En segundo lugar, presentamos un método basado en principios para estimar probabilidades de clase posterior a partir de los resultados de clasificadores discriminativos entrenados con divergencias de Bregman. Esto proporciona una alternativa a la decodificación de Hamming, mejora la estimación de confianza y evita la inversión de matrices debido a la ortogonalidad de los códigos de Walsh. Los resultados experimentales en cinco conjuntos de datos multiclase —incluyendo Fashion-MNIST, Reconocimiento de Letras y Vocales— demuestran mejoras consistentes en la precisión de la clasificación (por ejemplo, una reducción del 5% de error en el conjunto de datos de Letras) y en la eficiencia computacional respecto a métodos de referencia como OvR y ECOC-Rademacher. El rendimiento se evaluó utilizando matrices estándar de precisión y confusión, validando las ventajas de nuestro enfoque tanto en rendimiento predictivo como en escalabilidad.
Solving multiclass classification problems using Error Correcting Output Code (ECOC) schemes offers flexibility and robustness, but traditional approaches based on Rademacher sequences suffer from an exponential increase in dichotomies with the number of classes. This paper introduces two main contributions. First, we propose the use of Walsh sequences for directly constructing ECOC dichotomies, enabling multiclass problems with C classes to be addressed using only C − 1 classifiers, while preserving high pairwise Hamming distances between class codes (C∕2). Second, we present a principled method to estimate posterior class probabilities from the outputs of discriminative classifiers trained with Bregman divergences. This provides an alternative to Hamming decoding, improves confidence estimation, and avoids matrix inversion due to the orthogonality of Walsh codes. Experimental results on five multiclass datasets—including Fashion-MNIST, Letter Recognition, and Vowel—demonstrate consistent improvements in classification accuracy (e.g., a 5% error reduction on the Letter dataset) and computational efficiency over baseline methods such as OvR and ECOC-Rademacher. Performance was evaluated using standard classification accuracy and confusion matrices, validating the advantages of our approach in both predictive performance and scalability.
Nuevo articulo publicado por nuestra investigadora Dra. Lorena Álvarez
