Nuevo artículo publicado: A hybrid neural network with multistage feature fusion for detecting heart failure and murmurs from time–frequency representations of phonocardiograms

Heart failure produces abnormal sounds and murmurs due to weakened cardiac function and turbulent blood flow. This study presents a hybrid neural network model with interior multistage feature fusion to detect heart pathologies using the time–frequency analysis of phonocardiogram (PCG) recordings. The model combines convolutional neural networks with long short-term memory layers in a unique architecture to efficiently capture the spectro-temporal dependencies at multiple cascaded network stages. Moreover, a fusion mechanism is used to aggregate internal features from multiple stages to enhance pattern modeling. We investigated various time–frequency representations of PCG signals to extract relevant features for model training and evaluation. These representations were derived using multiresolution analysis (MRA) via the short-time Fourier transform or the continuous wavelet transform. Additionally, we examined representations obtained through adaptive multiresolution analysis (AMRA) by employing the Hilbert–Huang transform based on empirical mode decomposition, variational mode decomposition, or empirical wavelet transform. The classification performance of the model was evaluated using two separate datasets, showing that the fusion strategy increases the accuracy and that MRA is superior to AMRA, achieving a classification accuracy of 90.20% for the detection of heart murmurs. Compared with MRA, AMRA demonstrated high adaptability, achieving an accuracy of 99.30% in distinguishing five heart valvular conditions.

La insuficiencia cardíaca produce sonidos anómalos y soplos debido al debilitamiento de la función cardíaca y al flujo sanguíneo turbulento. Este estudio presenta un modelo híbrido de red neuronal con fusión interna de características en múltiples etapas para detectar patologías cardíacas mediante el análisis tiempo–frecuencia de grabaciones de fonocardiogramas (PCG). El modelo combina redes neuronales convolucionales con capas de memoria a corto y largo plazo (LSTM) en una arquitectura única, con el fin de capturar de manera eficiente las dependencias espectro-temporales en múltiples etapas encadenadas de la red. Además, se emplea un mecanismo de fusión para agregar características internas de varias etapas y mejorar el modelado de patrones. Se investigaron diversas representaciones tiempo–frecuencia de señales PCG para extraer características relevantes para el entrenamiento y la evaluación del modelo. Estas representaciones se obtuvieron mediante análisis multirresolución (MRA) usando la transformada de Fourier de corta duración (STFT) o la transformada wavelet continua. Adicionalmente, se analizaron representaciones obtenidas a través de análisis multirresolución adaptativo (AMRA), empleando la transformada de Hilbert–Huang basada en descomposición en modos empíricos (EMD), descomposición variacional en modos (VMD) o transformada wavelet empírica (EWT). El rendimiento de clasificación del modelo se evaluó utilizando dos conjuntos de datos independientes, mostrando que la estrategia de fusión incrementa la precisión y que el MRA es superior al AMRA, alcanzando una exactitud del 90,20% en la detección de soplos cardíacos. En comparación con MRA, AMRA demostró una alta adaptabilidad, logrando una precisión del 99,30% al distinguir cinco condiciones valvulares cardíacas.

Articulo publicado por Dr. Mahmoud Fakhry, investigador en nuestro instituto CEIEC

Scroll al inicio