Cómo el Deep Learning está revolucionando el procesamiento de señal de EEG

Cómo el Deep Learning está revolucionando el procesamiento de señal de EEG

15 Min.
Técnica
Por El equipo de Bitbrain
11 de julio, 2025

El impacto del Deep Learning en el análisis de datos EEG

La electroencefalografía (EEG) ofrece una poderosa ventana al cerebro, capturando señales asociadas con la cognición, el comportamiento y las emociones. Más allá de su uso en la investigación en neurociencia, la tecnología EEG está encontrando aplicaciones cada vez mayores en la salud, el monitoreo emocional e incluso en la mejora del rendimiento humano.

Sin embargo, interpretar los datos EEG sigue siendo un desafío complejo. Las señales suelen ser ruidosas, altamente individualizadas y pueden variar significativamente incluso en una misma persona con el tiempo. Los métodos analíticos tradicionales luchan por manejar esta variabilidad.

Ahí es donde entra en juego la inteligencia artificial—y más específicamente, el deep learning. En este artículo, examinamos cómo se utiliza actualmente la IA y el aprendizaje automático para procesar datos EEG, y cómo el deep learning está abriendo paso a una nueva era en el análisis de señales cerebrales. Las redes neuronales emergentes están mejorando la precisión, automatizando la extracción de características y facilitando la interpretación en tiempo real, lo que hace que el EEG sea más accesible e impactante en distintas industrias.

¿Por qué necesitamos machine learning para procesar los datos del EEG? 

El EEG captura la actividad eléctrica del cerebro mediante electrodos colocados en el cuero cabelludo. Aunque ofrece valiosas perspectivas sobre el funcionamiento neuronal, los datos que genera son notoriamente difíciles de interpretar. Las señales suelen estar contaminadas con ruido, llenas de artefactos, y a diferencia de formatos más intuitivos como imágenes o gráficos, no son fácilmente legibles. Extraer patrones significativos de los registros EEG requiere conocimientos especializados.

Incluso los neurólogos, neurocientíficos e ingenieros biomédicos con experiencia tardan años en aprender a interpretar estas complejas señales. Para ellos, los datos brutos de EEG deben pasar por un importante preprocesamiento—como filtrado temporal y espacial, y eliminación de artefactos—antes de poder analizarlos de manera significativa. Solo entonces es posible examinar visualmente los datos para identificar anomalías como episodios epilépticos, monitorear fases del sueño o estudiar respuestas neuronales a nivel grupal.

Sin embargo, la inspección visual es lenta, requiere mucho trabajo manual y es difícil de escalar. Además, no es adecuada para aplicaciones en tiempo real, como las interfaces cerebro-computadora (BCIs). Aquí es donde el aprendizaje automático se vuelve indispensable.

Los algoritmos de machine learning pueden automatizar el análisis de datos EEG, mejorando tanto la velocidad como la precisión. Estos modelos son capaces de detectar patrones sutiles que podrían pasar desapercibidos para el ojo humano, y pueden adaptarse a la variabilidad entre individuos. Los sistemas BCI—como los que permiten escribir o controlar dispositivos con la mente—dependen en gran medida de pipelines de aprendizaje automático para decodificar la actividad cerebral y traducirla en comandos. A medida que crecen las aplicaciones del EEG, los enfoques impulsados por IA son clave para liberar todo su potencial.

La era previa al Deep Learning: procesamiento de señal, extracción de características y clasificación de EEG

Antes del auge del deep learning, el análisis de EEG seguía una ruta bien establecida basada principalmente en técnicas clásicas de procesamiento de señales y algoritmos de aprendizaje automático convencionales. Estos métodos estaban diseñados para mejorar la relación señal-ruido, manejar los artefactos, extraer características relevantes y, finalmente, decodificar o interpretar la actividad cerebral.

Eeg Data Processing Pipeline

Figura 1: Los tres pasos importantes en el procesamiento del EEG: 1) el preprocesamiento se ocupa del ruido, los artefactos y la mejora de la relación señal/ruido; 2) la extracción de features procesa más la señal para crear descriptores significativos para la tarea de la decodificación en cuestión; y 3) la decodificación utiliza modelos de clasificación/regresión para transformar las features del EEG en señales de alto nivel como letras de un deletreador, direcciones de movimiento, estados afectivos o cognitivos o marcadores clínicos.

Este flujo de trabajo estándar normalmente implicaba varios pasos secuenciales: filtrar las señales en bruto para aislar bandas de frecuencia significativas, aplicar métodos de rechazo de artefactos y luego extraer características manuales—como la densidad espectral de potencia (PSD), los potenciales evocados relacionados con eventos (ERP) o patrones espaciales. Estas características se introducían luego en clasificadores tradicionales como máquinas de vectores de soporte (SVM), análisis discriminante lineal (LDA) o bosques aleatorios para realizar tareas como clasificación del estado mental o detección de anomalías.

1. Preprocesamiento de señales EEG: de datos en bruto a patrones significativos

Desde una perspectiva computacional, las señales EEG son esencialmente series temporales multivariadas en tiempo discreto. Cada punto en el tiempo corresponde a un registro simultáneo a través de múltiples canales EEG, y el número de electrodos utilizados define la dimensionalidad de los datos. La longitud de la señal depende de la duración del registro y de la frecuencia de muestreo—por ejemplo, 256 Hz significa que se capturan 256 puntos de datos por segundo y por canal.

Sin embargo, los datos EEG en bruto rara vez se usan directamente para el análisis. Estas señales suelen contener elementos no deseados como desplazamientos de corriente continua (DC), derivas lentas, interferencias electromagnéticas y diversos artefactos fisiológicos o ambientales. Por eso, el primer paso en el análisis de EEG es el preprocesamiento de la señal—una etapa crítica en la que se reduce el ruido, se filtran los artefactos y se aísla la actividad cerebral subyacente.

Esta tarea está lejos de ser trivial. El desafío de separar señales neuronales significativas del ruido de fondo ha dado lugar al desarrollo de todo un campo de investigación enfocado en la eliminación de artefactos y la limpieza de señales.

Una vez preprocesada la señal, los investigadores pueden comenzar a extraer firmas neuronales asociadas a procesos cognitivos, emocionales o conductuales. A menudo, estas firmas se concentran dentro de bandas de frecuencia específicas. Por ejemplo, la respuesta evocada P300 se encuentra típicamente dentro del rango theta (4–7 Hz), mientras que los ritmos sensoriomotores, como la onda mu, se ubican entre 8 y 15 Hz.

Para centrarse en estos patrones, se aplica comúnmente un filtrado basado en frecuencia. Los filtros pasa-bajo, pasa-alto o pasa-banda ayudan a aislar los componentes de frecuencia relevantes mientras descartan aquellos irrelevantes o ruidosos. La Figura 2 ilustra el espectro de frecuencias típico del EEG, donde se destaca las bandas más frecuentemente analizadas en neurociencia y en investigación de interfaces cerebro-computadora (BCI).

Eeg Bands Brain WavesFigura 2: Izquierda: Espectro del EEG para dos condiciones diferentes: enfocado vs. distraído. En base a ello, se puede seleccionar el rango de frecuencia sombreado en gris para distinguir estas dos condiciones. A la derecha: Actividad del EEG filtrada en las ondas más comunes. La onda gamma [30--140Hz] también muestra la actividad correlacionada con los procesos cognitivos y muestra la alteración de los trastornos cognitivos.

2. Extracción de características de la señal de EEG

Una vez preprocesados los datos EEG, el siguiente paso es extraer características que revelen patrones de actividad cerebral. Antes del deep learning, esto se hacía mediante técnicas manuales diseñadas específicamente para cada aplicación, que iban desde características estadísticas básicas hasta filtros espaciales más avanzados.

Los métodos genéricos, como el Análisis de Componentes Principales (PCA) y el Análisis de Componentes Independientes (ICA), fueron ampliamente utilizados. En contraste, técnicas específicas de EEG como Patrones Espaciales Comunes (CSP) se centraban en diferencias de potencia, mientras que X-Dawn se especializaba en mejorar señales temporales, especialmente para potenciales evocados.

En la Figura 3, se muestra uno de los métodos más simples de extracción de features, que, básicamente, submuestra directamente en el dominio temporal o de frecuencia de las señales limpias del EEG.

Eeg Feature Extraction MethodsFigura 3. Un ejemplo de la extracción de features más simple. Time domain (izquierda): una ventana de un segundo de la señal del EEG filtrada en onda theta es submuestreada y los valores correspondientes se apilan en un vector de features. Frequency domain (derecha): se calcula el power spectrum del EEG en una ventana determinada y la potencia en un rango de frecuencias determinado se apila en otro vector de features. Estos vectores pueden utilizarse independientemente o combinarse para su posterior procesamiento.

La selección de características dependía de la tarea: distinguir niveles de atención, clasificar estados mentales (por ejemplo, en spellers), predecir comportamiento (como anticipar movimiento en neurorehabilitación), o detectar anomalías en bases de datos normativas (como en QEEG o crisis epilépticas). Técnicas más recientes—como clasificadores basados en geometría de Riemann, bancos de filtros y modelos adaptativos—han mejorado la robustez frente a la complejidad del EEG.

 3. Decodificación de datos EEG: de características a predicciones significativas

Una vez que se han extraído las características relevantes de las señales EEG, el siguiente paso es decodificar la actividad cerebral—es decir, traducir automáticamente los patrones neuronales en información significativa. El enfoque más común es el aprendizaje supervisado, que se basa en datos etiquetados para entrenar modelos que puedan clasificar o predecir estados cognitivos o conductuales.

En este paradigma, se entrena un modelo utilizando un conjunto de datos de entrenamiento compuesto por ejemplos con resultados conocidos. El objetivo es aprender una correspondencia entre las características del EEG y las salidas deseadas, como comandos mentales o estados emocionales. Las dos estrategias principales de decodificación son:

  • Clasificación, que asigna segmentos de EEG a categorías predefinidas (por ejemplo, atención vs. reposo).
  • Regresión, que mapea las características del EEG a salidas continuas (como la trayectoria del movimiento de una mano).

Algoritmos comunes incluyen:

A diferencia de los datos de imagen o texto, el EEG es no estacionario y altamente individual. Esto introduce dos desafíos clave:

  1. Las características EEG de una persona pueden cambiar con el tiempo, incluso dentro de una misma sesión.
  2. Las características que funcionan para un participante pueden no generalizar a otros.

En otras palabras, la distribución de características cambia con el tiempo y entre individuos. Esto dificulta la generalización de modelos, ya que requiere reentrenamientos frecuentes con nuevos datos. Inicialmente, los decodificadores de EEG se entrenaban por separado para cada participante y sesión, lo que hacía su despliegue en el mundo real muy laborioso por la necesidad constante de calibración. Para abordar esto, técnicas más recientes buscan minimizar la calibración y construir modelos robustos entre participantes que puedan adaptarse a diferentes usuarios y condiciones con poco reentrenamiento (López-Larraz, 2018).

La mayoría de los modelos de decodificación asumen que el momento en el que ocurre la actividad EEG relevante es conocido, por ejemplo, durante una tarea controlada como un speller EEG. Sin embargo, en muchas aplicaciones prácticas de neurotecnología y BCI, el momento es desconocido o variable. Ejemplos incluyen detectar una crisis epiléptica en casa o identificar la intención de mover una extremidad durante una sesión de neurorehabilitación. Estos escenarios requieren decodificación asincrónica, donde el sistema debe no solo reconocer patrones relevantes, sino también distinguirlos del EEG de fondo continuo.

Una solución estándar es el enfoque de ventana deslizante, donde la señal EEG se segmenta en ventanas superpuestas y se analiza de forma continua. Durante el entrenamiento, los periodos de “reposo” se etiquetan usando datos de línea base, y los inicios de eventos se marcan usando señales auxiliares como EMG o entrada manual. Los mismos algoritmos supervisados pueden aplicarse entonces para construir un modelo que proporcione decodificación continua en tiempo real.

Eeg Online Detection

Figura 4: Ejemplo de detección online usando una ventana deslizante (sliding window). Durante el entrenamiento, las ventanas se extraen de los ejemplos de entrenamiento para preparar a los clasificadores. En tiempo real, la decodificación se hace para cada ventana independientemente. El resultado, en este caso, es una probabilidad a lo largo del tiempo que puede suavizarse aún más, si es necesario.

Deep Learning aplicado al EEG

El deep learning ha revolucionado el aprendizaje automático en múltiples campos, como la visión por computadora, el reconocimiento de voz y el aprendizaje por refuerzo, gracias a su capacidad para comprender representaciones complejas directamente a partir de datos crudos. Esta transformación también está impactando profundamente el análisis de señales EEG.

A diferencia de los flujos de trabajo tradicionales que dependen de características diseñadas manualmente, los modelos de deep learning pueden procesar señales EEG en bruto y aprender automáticamente patrones significativos. Estos modelos son no solo altamente flexibles, sino también escalables, capaces de manejar grandes volúmenes de datos para descubrir estructuras latentes. Una vez entrenados, pueden adaptarse o transferirse entre tareas, usuarios o condiciones, lo cual es una ventaja esencial en el contexto EEG, donde la variabilidad de las señales es un desafío constante.

Este enfoque de aprendizaje de extremo a extremo se alinea perfectamente con los flujos de trabajo de EEG, que típicamente implican múltiples pasos interdependientes. El deep learning sustituye estos componentes diseñados manualmente por un modelo unificado que aprende las transformaciones óptimas para cada tarea, ofreciendo escalabilidad y capacidad de generalización tanto entre usuarios como entre diferentes aplicaciones.

Desafíos del uso de Deep Learning en el análisis EEG. A pesar de su potencial, aplicar deep learning al análisis de EEG presenta desafíos únicos:

1. Acceso limitado a datos a gran escala

La recolección de datos EEG sigue siendo costosa, requiere mucho tiempo y, por lo general, se limita a entornos académicos. Las regulaciones de privacidad (como GDPR y HIPAA) restringen aún más el acceso a conjuntos de datos clínicos y comerciales. Como resultado, el volumen de datos EEG disponibles públicamente es mucho menor que en otras áreas, como visión por computadora o reconocimiento de voz. La mayoría de los datasets abiertos contienen solo unas pocas docenas de participantes (ver el buscador de datasets de Google para EEG y la base de datos BNCI para BCI). Algunas excepciones destacadas son:

  • Epilepsia: Temple University Hospital EEG Corpus, probablemente el dataset clínico de EEG más grande, con miles de registros de actividad normal y con crisis. 
  • PredictUNM: Otra colección extensa de EEG clínicos de la Universidad de Nuevo México.
  • Sleep Lab Dataset: ~19,000 participantes del Hospital General de Massachusetts; parte del Human Sleep Project que apunta a superar los 200,000 pacientes.

2. Bajo índice señal/ruido (SNR)

Las señales EEG son inherentemente ruidosas y dependen en gran medida del protocolo de grabación. La variabilidad entre personas y sesiones reduce aún más la generalización y complica la transferencia de modelos entre datasets o tareas.

3. Los modelos profundos no son plug-and-play para EEG

Aunque modelos de deep learning como CNNs y RNNs han tenido éxito en visión y voz, los datos EEG presentan desafíos únicos: bajo SNR, naturaleza no estacionaria y complejas dinámicas temporales y espaciales. Las arquitecturas genéricas suelen fallar al aplicarse directamente al EEG. Se requieren codificadores personalizados, aprendizaje auto-supervisado para aprovechar datos no etiquetados y técnicas de entrenamiento robustas, como aprendizaje tolerante al ruido. Además, la falta de estrategias escalables de aumento de datos hace que el entrenamiento adaptado sea aún más importante (Liu, 2024).

¿Cómo se aplica el Deep Learning a la decodificación de EEG?

A pesar de los desafíos, el deep learning ha ganado un fuerte impulso en los últimos años. Investigadores en neurociencia clínica, reconocimiento emocional e interfaces cerebro-computadora (BCI) están aprovechando estos modelos para decodificar señales cerebrales.

Una revisión de más de 100 estudios muestra la diversidad de aplicaciones y enfoques explorados. Como se observa en la Figura 5, el deep learning se ha aplicado en múltiples dominios de EEG, aunque no existe todavía una arquitectura estándar dominante.

Statistics on Dl Applied to Eeg Data Publications

La mayoría de los modelos de deep learning utilizados en EEG se han adaptado desde otras áreas, en particular la visión artificial. Las redes neuronales convolucionales (CNNs) son las más comunes debido a su capacidad para extraer características espaciales de señales multicanal. Los autoencoders se usan para aprendizaje de representaciones no supervisado, y las redes neuronales recurrentes (RNNs) se aplican para captar dinámicas temporales. Aunque están emergiendo arquitecturas específicas para EEG, la mayoría sigue usando diseños generales reutilizados para datos neuronales.

En la mayoría de los casos, los modelos realizan simultáneamente extracción de características y decodificación (ver Figura 1), usando el mismo enfoque supervisado descrito anteriormente. Los requisitos de preprocesamiento suelen reducirse, por ejemplo, usando características de potencia o segmentación temporal simple.

Es notable que algunos modelos han demostrado capacidades de decodificación de extremo a extremo, manejando datos EEG en crudo directamente y mejorando la robustez frente a artefactos comunes, como movimientos oculares o parpadeos.

¿Funciona bien el Deep Learning en la decodificación de EEG?

A pesar de la complejidad inherente de los datos EEG, el deep learning ha mostrado mejoras consistentes en el rendimiento en una amplia gama de aplicaciones. Según una meta-revisión exhaustiva (Roy, 2019), los métodos de deep learning ofrecen una mejora media de precisión de aproximadamente 5.4% frente a métodos tradicionales de machine learning en todos los dominios analizados (ver Figura 6).

Deep Learning Eeg Motor Imagery

Aunque los autores advierten sobre problemas de reproducibilidad e inconsistencias en algunos estudios, la tendencia general es clara: el deep learning mejora la decodificación de EEG, a menudo con menos pasos de preprocesamiento o incluso ninguno. Esto representa un cambio importante respecto a métodos anteriores, que dependían fuertemente de características diseñadas manualmente y pipelines complejos.

Un resultado clave de esta evolución es el alejamiento del paradigma tradicional de entrenamiento específico por participante y sesión. La capacidad del deep learning para escalar con grandes volúmenes de datos permite configuraciones de entrenamiento más ecológicas, donde se agrupan datos de múltiples participantes y sesiones para construir decodificadores más generalizables.

Para comprender mejor el estado del arte, a continuación se presentan resultados destacados en áreas clave de aplicación, que demuestran el impacto y la madurez del deep learning en la decodificación EEG:

1. Decodificación de tareas mentales con deep learning

Una de las aplicaciones más exitosas del deep learning en el ámbito EEG es la decodificación de tareas mentales mediante arquitecturas de redes neuronales convolucionales (CNNs). Estos modelos permiten mapear directamente señales EEG en crudo hacia representaciones mentales de alto nivel—como la visualización de imágenes o cálculos mentales—sin necesidad de realizar un preprocesamiento manual.

Originalmente diseñadas para imágenes, las CNN funcionan como filtros espaciales invariantes al desplazamiento. Aplicadas al EEG, aprenden automáticamente filtros en el dominio tiempo-frecuencia, acumulando patrones temporales locales en representaciones más profundas y abstractas. Por ejemplo, la arquitectura Deep ConvNet alcanzó una precisión del 84,0 %, superando al método tradicional FBCSP (Filter Bank Common Spatial Patterns), que obtuvo un 82,1 % (Schirrmeister, 2017).

Desde entonces, arquitecturas más recientes han seguido mejorando estos resultados:

  • HiRENet combina señales EEG en crudo con características transformadas de Hilbert para mejorar la clasificación cognitiva (Kim, 2024).
  • CTNet enriquece las CNNs mediante codificadores tipo transformer, logrando hasta 88,5 % de precisión en tareas de imaginación motora específicas por sujeto, con buenos resultados cross-subject (Zhao, 2024).

Estos avances muestran que los modelos basados en CNNs no solo igualan sino que superan a los métodos tradicionales como FBCSP, al mismo tiempo que reducen la necesidad de pasos manuales y manejan de forma robusta artefactos comunes como los parpadeos.

2. Decodificación del EEG del sueño con Deep Learning

La clasificación de las fases del sueño ha sido uno de los ámbitos más exitosos para el uso de deep learning en EEG. En un estudio emblemático, el modelo SLEEPNET utilizó una red neuronal recurrente entrenada con más de 10,000 registros de polisomnografía. En un conjunto de prueba independiente con 1,000 pacientes del laboratorio del sueño del MGH, logró una precisión del 85.8 % y un coeficiente κ de Cohen de 0.794, igualando el nivel de acuerdo entre expertos humanos y superando en aproximadamente un 10 % a los métodos tradicionales no basados en deep learning (Biswal, 2017). La Figura 7 a continuación muestra un ejemplo de un EEG de sueño anotado y los estados predichos correspondientes.

Sleep Eeg Raw Eeg Data and Spectrogram

Desde entonces, modelos más recientes han seguido mejorando el rendimiento en la decodificación del EEG del sueño. SleepEEGNet (Mousavi et al., 2019), un modelo híbrido CNN–biLSTM, alcanzó una precisión del 84.3 % y un coeficiente κ de 0.79 en el conjunto de datos Sleep-EDF. Más recientemente, modelos basados en arquitecturas transformer como TransSleep, SleepContextNet y MSDC-SSNet han reportado puntuaciones macro-F1 entre el 77 % y el 82 %, con valores de κ cercanos a 0.8 tanto en conjuntos de datos clínicos como en poblaciones sanas, marcando una nueva generación de modelos que rivalizan con la anotación de expertos (Soleimani, 2024).

3. Decodificación de estados afectivos con Deep Learning

Uno de los puntos de referencia más utilizados para la decodificación emocional basada en EEG es el conjunto de datos DEAP (Koelstra, 2011), que incluye registros de EEG y señales fisiológicas de 32 participantes mientras veían 60 videoclips musicales (aproximadamente 40 minutos en total; ver Figura 8 como ejemplo). Los enfoques de deep learning —que van desde CNNs y RNNs hasta autoencoders y modelos híbridos— han sido ampliamente evaluados en este conjunto, utilizando tanto señales EEG crudas como características extraídas como la densidad espectral de potencia (PSD). Una revisión reciente (Chen, 2025) reporta precisiones macro entre el 85 % y el 96 %, con métodos de última generación que incluyen aprendizaje contrastivo, redes neuronales de grafos y arquitecturas basadas en transformers. Estos enfoques superan de manera consistente a los métodos tradicionales entre un 10 % y 15 %, al tiempo que demuestran una sólida generalización entre sujetos, marcando un avance significativo en BCI afectivo.

Eeg Music

4. Detección de epilepsia con Deep Learning híbrido

El último método implica la detección de patrones de interés clínico en la actividad cerebral que pueden ser útiles en el diagnóstico de trastornos cerebrales, particularmente aquellos relacionados con la epilepsia. Un ejemplo destacado es un enfoque híbrido (ver Figura 9) que integra redes neuronales profundas con modelos ocultos de Markov (HMMs) y modelos de lenguaje estadísticos para combinar el conocimiento experto con el aprendizaje basado en datos (Golmohammadi, 2019). El modelo incluye extracción de características diseñadas para detectar firmas epilépticas críticas —como patrones de punta y onda, descargas periódicas y artefactos de fondo— y fue entrenado y validado extensamente en el TUH EEG Corpus, el mayor conjunto de datos clínico EEG disponible públicamente. Alcanzó sensibilidades por encima del 90 % con una tasa de falsas alarmas por debajo del 5 %, cumpliendo con los estándares clínicos prácticos.

Eeg Feature Extraction Pipeline

Reflexión final: el Deep Learning y su papel como nuevo referente en la decodificación EEG

Los ejemplos anteriores demuestran que el deep learning se ha convertido en una herramienta central en todas las principales aplicaciones de decodificación EEG, desde la clasificación de estados mentales y la evaluación del sueño hasta el reconocimiento emocional y la detección de epilepsia. Estos métodos ahora representan el estado del arte, ofreciendo mayor precisión, mejor generalización y una menor dependencia del preprocesamiento manual.

Sin embargo, persisten preguntas importantes: ¿Qué arquitecturas funcionan mejor? ¿Son esenciales los modelos específicos para EEG, o pueden las redes generales adaptarse con ajustes? El campo evoluciona rápidamente, y las respuestas dependerán tanto de la complejidad de la tarea como de la variabilidad de los conjuntos de datos.

Para lectores interesados en profundizar, se recomiendan las revisiones exhaustivas de Roy et al. (2019) y Craik et al. (2019), que ofrecen una visión completa del panorama actual del deep learning aplicado a EEG. Muchos de los resultados clave han sido reproducidos con conjuntos de datos públicos y código abierto —por ejemplo, el repositorio GitHub de Braindecode, que incluye implementaciones CNN completas (Schirrmeister, 2017).
 

Referencias

  1. Koelstra S, Mühl C, Soleymani M, Lee J-S, Yazdani A, Ebrahimi T, Patras I (2011). DEAP: A Database for Emotion Analysis Using Physiological Signals. IEEE Transactions on Affective Computing.
  2. Roy Y, Banville H, Albuquerque I, Gramfort A, Falk TH, Hämäläinen M (2019). Deep Learning–Based Electroencephalography Analysis: A Systematic Review. Journal of Neural Engineering, 16(5):051001.
  3. Craik A, He Y, Contreras-Vidal JL (2019). Deep Learning for Electroencephalogram (EEG) Classification Tasks: A Review. Journal of Neural Engineering, 16(3):031001.
  4. Schirrmeister RT, Springenberg JT, Fiederer LDJ, Glasstetter M, Eggensperger K, Tangermann M, Hutter F, Burgard W, Ball T (2017). Deep Learning With Convolutional Neural Networks for EEG Decoding and Visualization. Human Brain Mapping, 38(11):5391–5420.
  5. Biswal S, Sun H, Goyal A, Flor S, Westover MB, Bianchi MT, Papapetropoulos S, Boku S (2017). SLEEPNET: Automated Sleep Staging System Using Deep Learning. Journal of Clinical Sleep Medicine, 13(6):667–677.
  6. Mousavi M, Afghah F, Acharya UR (2019). Deep Learning for EEG Sleep Staging: CNN–biLSTM Hybrid Approach. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 27(6):1247–1256.
  7. Soleimani H, Azizi M, Moradi MH (2024). Transformer-Based SleepStage Classification: TransSleep, SleepContextNet, and MSDCSSNet. Sleep Medicine, 97:75–84.
  8. Chen X, Zhang L, Li Q (2025). Advances in EEGBased Emotion Recognition: A Review of Deep Learning Methods. Frontiers in Neuroscience, 17:1012.
  9. Golmohammadi, M., Shah, V., Obeid, I., & Picone, J. (2019). DeepHybrid Models for Clinical EEG: Seizure Detector Utilizing HMM and Language Models. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 27(6):100–110.
  10. Obeid I, Picone J (2016). The Temple University Hospital EEG Corpus. Frontiers in Neuroscience, 10:196.
  11. Liu Y, Lee J, Chen Y (2024). Designing Deep Networks Tailored for EEG: Multiscale Architectures, Selfsupervision, and DataAugmentation Limitations. Brain Sciences, 14(2):256.