Apple PARS: así quiere Apple leer tu actividad cerebral desde el oído

Última actualización: 04/12/2025
Autor: Isaac
  • Apple PARS es un método de autoaprendizaje que aprende la estructura temporal de señales EEG sin datos anotados.
  • El enfoque se combina con ear-EEG y patentes de auriculares con electrodos para medir la actividad cerebral desde el oído.
  • Los modelos entrenados con PARS igualan o superan a métodos previos en tareas como sueño, epilepsia o EEG anormal.
  • Esta tecnología podría desembocar en futuros AirPods capaces de monitorizar salud cerebral y bienestar de forma cotidiana.

Apple PARS IA EEG

La idea de que unos auriculares puedan escuchar tu música y, al mismo tiempo, “escuchar” tu cerebro parece sacada de ciencia ficción, pero Apple ya está allanando ese camino con una combinación muy potente: nuevos sensores en el oído y modelos avanzados de inteligencia artificial. Detrás de todo esto está un método llamado PARS (PAirwise Relative Shift), un enfoque de autoaprendizaje que permite a un algoritmo entender la actividad eléctrica cerebral sin depender de especialistas anotando datos a mano.

En lugar de centrarse en un gadget concreto, la investigación de Apple se enfoca en cómo un modelo de IA puede aprender la estructura temporal de las señales EEG (electroencefalografía) y después aplicar ese conocimiento a tareas como la clasificación de las fases del sueño o la detección de anomalías neurológicas. Y, aunque el estudio no menciona los AirPods de forma directa, se suma a patentes y prototipos que apuntan a un futuro en el que unos simples auriculares podrían convertirse en una especie de “mini laboratorio” de monitorización cerebral desde el oído.

Qué es Apple PARS (PAirwise Relative Shift) y por qué es tan relevante

Algoritmo PARS Apple

El método PARS nace de una investigación presentada por un equipo de Apple y colaboradores académicos, en un trabajo aceptado en el taller Foundation Models for the Brain and Body de NeurIPS 2025. El estudio se titula en inglés “Learning the relative composition of EEG signals using pairwise relative shift pretraining” y propone una manera distinta de entrenar modelos con señales de electroencefalografía sin usar etiquetas humanas.

En la práctica, PARS es una técnica de aprendizaje auto-supervisado (self-supervised learning) aplicada a EEG. En lugar de pedir a neurólogos que indiquen manualmente qué segmento de señal corresponde a cada fase del sueño o al inicio de una crisis epiléptica, el modelo se entrena con datos sin anotar y se ve obligado a resolver un problema artificial pero muy útil: predecir qué distancia temporal separa dos fragmentos de señal.

La idea básica es que, si el modelo aprende a estimar cuánto tiempo hay entre dos ventanas de EEG, acaba entendiendo la estructura global y las dependencias de largo alcance de la actividad cerebral. Eso le permite posteriormente rendir mejor en tareas clínicas reales, como la detección de patrones de sueño, la identificación de epilepsia o el reconocimiento de señales motoras.

Los autores destacan que, frente a los métodos clásicos de autoaprendizaje en EEG, centrados sobre todo en reconstruir partes enmascaradas de la señal (como hacen los masked autoencoders, MAE), PARS se enfoca en la composición temporal relativa. Es decir, no se limita a rellenar “huecos” locales, sino que captura cómo encajan entre sí fragmentos separados de la señal a lo largo del tiempo.

En las pruebas realizadas, los modelos basados en PARS muestran que son capaces de igualar o superar a las estrategias previas en varios benchmarks de EEG, especialmente cuando hay pocas etiquetas disponibles (escenario muy habitual en medicina). Esto convierte a PARS en una propuesta muy atractiva para cualquier sistema que quiera aprovechar grandes volúmenes de señales cerebrales sin depender de anotaciones exhaustivas.

Cómo funciona PARS: del tokenizado a la estimación del desplazamiento relativo

Funcionamiento de PARS en EEG

Para aplicar el enfoque PARS a EEG, los investigadores diseñan una arquitectura basada en transformers con varios pasos clave. Todo arranca con el preprocesado de la señal y su conversión a una representación que el modelo pueda manejar con facilidad.

En primer lugar, la señal de EEG se divide en ventanas temporales o “tokens”. Este proceso de tokenización permite representar cada trozo de señal como una unidad sobre la que puede operar el transformer, muy en la línea de lo que se hace con texto o imágenes. A estos tokens se les añaden positional embeddings, aunque de forma particular, porque PARS juega precisamente con la máscara y la manipulación de estas posiciones temporales.

Uno de los componentes distintivos del método es el uso de masked positional embedding. En vez de dar al modelo directamente la información exacta de la posición en el tiempo de cada token, se ocultan o alteran ciertos datos posicionales. De esta forma se fuerza al encoder a inferir la estructura temporal a partir del contenido, sin apoyarse únicamente en un índice o un sello temporal explícito.

  Copilot no funciona: causas y soluciones para todos los escenarios

El corazón del preentrenamiento PARS es la tarea de estimación del desplazamiento relativo por pares (pairwise relative shift estimation). El modelo recibe dos ventanas de EEG extraídas aleatoriamente de una misma grabación y debe predecir la distancia temporal entre ellas. No se trata solo de adivinar si están cerca o lejos, sino de aprender un mapeo continuo o discretizado que refleje el intervalo temporal relativo.

Para ello se utiliza un decoder con mecanismos de cross-attention. Este componente cruza la información codificada de ambas ventanas y aprende a relacionar sus características internas para deducir cuánto tiempo las separa. Gracias a este proceso, el transformer acaba modelando dependencias a largo plazo y patrones de evolución de la actividad cerebral que van bastante más allá del entorno local de unos pocos milisegundos.

En fases posteriores, el modelo se adapta a distintas tareas mediante fine-tuning multi-canal y evaluación específica. Esto significa que, una vez preentrenado con PARS en una variedad de grabaciones EEG (incluyendo configuraciones con múltiples electrodos), se ajusta finamente para tareas concretas como la clasificación de sueño, la detección de EEG anormal o de crisis epilépticas.

El artículo técnico también detalla aspectos prácticos como los datasets utilizados, la arquitectura exacta del encoder, el tipo de decoder elegido, los esquemas de mask y de muestreo de parches, así como los recursos de cómputo empleados. Además, se comparan diferentes variantes de la arquitectura con ablation studies para comprobar qué decisiones de diseño aportan más rendimiento.

Comparación con otros métodos: MAE, MP3, DropPos y compañía

Comparativa PARS con otros modelos

El estudio no se limita a describir PARS, sino que lo contrasta con métodos de referencia en autoaprendizaje para EEG. Entre los enfoques comparados se encuentran los masked autoencoders (MAE), MP3 y DropPos, cada uno con una filosofía distinta a la hora de aprender de datos sin etiquetar.

Los MAE se centran en reconstruir partes enmascaradas de la señal. Durante el preentrenamiento, se ocultan trozos de la entrada y el modelo intenta recuperarlos a partir del contexto. Esto fuerza al encoder a aprender representaciones significativas, pero está muy orientado a patrones locales, es decir, a rellenar “huecos” cercanos más que a entender relaciones a larga distancia.

MP3 y otros enfoques similares también exploran estrategias de pretexto para capturar información estructural, pero, según los resultados del paper, siguen siendo menos eficaces que PARS a la hora de modelar los intervalos temporales relativos entre segmentos alejados de la señal.

DropPos, por su parte, modifica o elimina información posicional explícita en el transformer con la idea de hacer al modelo más robusto a la posición exacta. Aunque este tipo de técnica ayuda a que las redes no dependan en exceso de los embeddings posicionales, se ha visto que, por sí sola, no es suficiente para explotar de forma óptima la estructura temporal de las señales EEG.

Las pruebas experimentales demuestran que los modelos preentrenados con PARS igualan o superan a estas alternativas en tres de los cuatro benchmarks EEG utilizados. Donde más brilla es en escenarios de label efficiency, es decir, cuando solo se dispone de una fracción de las anotaciones. Esto es clave en el ámbito clínico, donde etiquetar cada minuto de EEG con precisión es muy costoso en tiempo y requiere expertos especializados.

En el anexo del trabajo se describe con detalle la configuración de cada baseline, los hiperparámetros probados, el efecto de distintos niveles de máscara o de diferentes arquitecturas de decoder y los resultados cuantitativos finales. El mensaje que queda claro es que, para EEG, aprender explícitamente la relación temporal entre fragmentos de señal ofrece una ventaja práctica frente a limitarse a reconstruir o enmascarar.

Datasets utilizados: del sueño con ear-EEG a la detección de epilepsia

Datasets ear EEG y epilepsia

Para validar PARS, Apple y sus colaboradores utilizaron cuatro conjuntos de datos EEG bien conocidos, que cubren distintos escenarios de uso: sueño, patologías, actividad motora e incluso configuraciones de electrodos en el oído.

El primer dataset es Wearable Sleep Staging (EESM17), centrado en monitorización del sueño con dispositivos portables. Incluye grabaciones nocturnas de 9 sujetos con un sistema de ear-EEG de 12 canales y un EEG de cuero cabelludo de 6 canales. Este conjunto de datos es especialmente interesante porque demuestra que los electrodos ubicados en la oreja pueden captar buena parte de la actividad cerebral relevante para distinguir las fases del sueño.

  Cómo hacer llamadas a la API de DeepSeek en Python: Guía completa

El segundo es TUAB (Temple University Abnormal EEG Corpus), un corpus diseñado para la detección de EEG anormal. Reúne registros etiquetados como normales o patológicos, útiles para entrenar modelos que detecten alteraciones neurológicas generales, más allá de una condición concreta.

El tercero, TUSZ (Temple University Seizure Corpus), está enfocado en la detección de crisis epilépticas. Incluye anotaciones que marcan el inicio y final de las convulsiones, así como segmentos interictales. Es uno de los conjuntos de datos de referencia en epilepsia para evaluar algoritmos de IA.

Por último, el cuarto dataset es PhysioNet-MI, centrado en tareas de imaginación motora. En este caso, los participantes imaginan movimientos (por ejemplo, mover una mano) mientras se registra el EEG, lo que permite entrenar modelos que reconozcan patrones asociados a la intención de movimiento, algo clave en interfaces cerebro-máquina.

El preentrenamiento PARS se realiza sobre estos y otros conjuntos de datos descritos en el apéndice técnico, mientras que el fine-tuning se adapta a tareas concretas en cada uno de ellos. La elección de benchmarks tan variados muestra que el enfoque no se limita a un solo caso de uso y que puede servir como base general para modelos de EEG auto-supervisados.

Ear-EEG y AirPods: cómo se conecta la investigación de PARS con los auriculares de Apple

Una parte especialmente llamativa de todo este tema es el uso de ear-EEG, es decir, la captación de señales cerebrales desde el oído. En el dataset EESM17 ya se trabaja con sistemas que sitúan electrodos en el canal auditivo y la oreja, en lugar de en el cuero cabelludo, lo que reduce mucho el impacto visual y mejora la comodidad.

Paralelamente, documentos públicos y patentes de Apple indican que la empresa lleva tiempo explorando auriculares capaces de medir biosignales desde el oído. En una solicitud de patente de 2023, la compañía describe un “dispositivo electrónico wearable” diseñado para registrar actividad cerebral mediante electrodos situados en o alrededor de la oreja, como alternativa menos visible a los sistemas clásicos de EEG en el cuero cabelludo.

La propia patente reconoce que las soluciones de ear-EEG convencionales suelen requerir dispositivos personalizados para cada usuario (adaptados al tamaño y forma de su oreja, canal auditivo, etc.), lo que resulta caro y poco práctico. Además, incluso un dispositivo a medida puede perder contacto con la piel con el tiempo, lo que degrada la calidad de la señal.

Para abordar estos retos, Apple plantea en ese documento una solución basada en colocar más electrodos de los estrictamente necesarios, repartidos por el auricular, y dejar que un modelo de IA determine cuáles ofrecen mejor lectura en cada momento. Para ello se analizan métricas como la impedancia, el nivel de ruido, la calidad del contacto con la piel o la distancia entre electrodos activos y de referencia.

Una vez calculadas estas métricas, el sistema asigna pesos diferentes a cada electrodo y combina sus señales en una única forma de onda optimizada. La patente incluso contempla gestos simples, como pulsar o apretar el auricular, para iniciar o detener la medición, además de distintas variantes de diseño y ensamblaje que harían viable el hardware.

De la teoría al producto: sensores en AirPods y monitorización cerebral cotidiana

La conjunción de esta línea de investigación con PARS hace bastante fácil imaginar AirPods con sensores capaces de medir EEG desde el canal auditivo. De hecho, ya se han visto avances en ese sentido: los AirPods Pro 3 han incorporado un sensor fotopletismógrafo (PPG) para medir el ritmo cardíaco, y Apple ha ido sumando funciones de salud a sus wearables durante los últimos años.

Si a esto se le suman electrodos para ear-EEG y un modelo auto-supervisado como PARS capaz de interpretar las señales sin grandes bases de datos anotadas, el resultado sería un dispositivo que podría detectar fases del sueño, cambios en la atención o señales tempranas de ciertas patologías neurológicas, todo ello de forma transparente para el usuario.

En los experimentos descritos en el trabajo de investigación, el algoritmo PARS toma segmentos aleatorios de la señal cerebral y aprende a predecir la distancia temporal entre ellos. A partir de esa habilidad, el modelo desarrolla una comprensión enriquecida de cómo evoluciona la actividad cerebral a lo largo del tiempo, lo que se traduce en mejores resultados al clasificar etapas de sueño, localizar eventos epilépticos o distinguir EEG normales de anómalos.

El gran atractivo de este enfoque es que puede operar en un contexto en el que las etiquetas son escasas. En un producto comercial, eso podría significar que unos AirPods equipados con esta tecnología serían capaces de adaptarse a cada usuario con muy poca información supervisada, aprovechando enormes cantidades de señal en bruto captadas durante el uso diario.

  Rusia presenta AIdol, su robot humanoide, y la demo termina con una caída

Según los resultados del estudio, los modelos preentrenados con PARS llegan a igualar o superar la precisión de métodos previos en varias tareas, y esto abre la puerta a que dispositivos eminentemente de consumo, como unos auriculares, comiencen a ofrecer mediciones que antes estaban reservadas a equipos hospitalarios voluminosos y especializados.

Por supuesto, todo esto viene acompañado de interrogantes razonables sobre privacidad y seguridad de los datos y límites éticos. La idea de que la IA no solo conozca tu ritmo cardíaco o tus pasos diarios, sino también tus patrones de actividad cerebral, genera cierto respeto. De momento, tanto el paper como las patentes se mantienen en el terreno de la investigación y diseño conceptual, sin una fecha concreta para un producto comercial.

Aplicaciones potenciales: salud, bienestar, conducción y rendimiento cognitivo

Si la tecnología basada en PARS y ear-EEG llega a cristalizar en futuros AirPods u otros wearables, el abanico de aplicaciones podría ser muy amplio. En primer lugar, resultaría ideal para monitorizar el sueño de forma continua y cómoda, clasificando automáticamente las fases REM y NREM (NREM 1, NREM 2 y NREM 3) y proporcionando información detallada sobre la calidad del descanso.

Además, la detección de niveles de atención, episodios de estrés o estados de alerta sería extremadamente útil para contextos como la conducción, el trabajo con alta carga mental o el estudio. Un dispositivo que identificase caídas bruscas en la atención podría avisar al usuario cuando corre riesgo de dormirse al volante o de cometer errores importantes por fatiga.

En el ámbito clínico, una monitorización cerebral discreta y continua podría facilitar la detección temprana de trastornos como la epilepsia, problemas de sueño o enfermedades neurodegenerativas. No se trata de sustituir a un neurólogo ni a un hospital, pero sí de proporcionar datos valiosos que sirvan como alerta temprana o complemento al diagnóstico.

Otra línea interesante es el biofeedback enfocado al bienestar mental. Si el dispositivo es capaz de relacionar determinados patrones EEG con estados de relajación, concentración profunda o estrés, podría guiar al usuario en ejercicios de respiración, meditación o entrenamiento cognitivo, proporcionando indicadores en tiempo real sobre si esas prácticas están teniendo el efecto deseado.

La cosa no se quedaría solo en el cerebro. Los documentos públicos de Apple mencionan la posible incorporación de sensores para medir el volumen sanguíneo, la actividad muscular facial y los movimientos oculares desde el propio auricular. Combinados con la señal EEG y procesados en un iPhone u otro dispositivo, estos datos podrían alimentar modelos de IA capaces de ofrecer una imagen muy completa del estado fisiológico y emocional del usuario.

Todos estos usos tendrían que ir acompañados de controles estrictos sobre consentimiento, gestión de datos y acceso por parte de terceros. En los ejemplos planteados, se contempla que la información pueda compartirse con profesionales de la salud solo si el usuario lo autoriza, y que gran parte del procesado se haga de forma local para minimizar riesgos.

En la práctica, lo que muestran tanto el paper de PARS como las patentes y prototipos es una convergencia muy clara: Apple explora, por un lado, la mejor manera de recoger señales cerebrales desde el oído y, por otro, la mejor forma de interpretarlas con IA sin depender de anotaciones humanas. Si ambas piezas encajan, los auriculares podrían dejar de ser simples reproductores de audio para convertirse en herramientas avanzadas de salud y rendimiento, siempre que se gestionen bien los aspectos éticos y de privacidad.

Todo apunta a que estamos ante el principio de una nueva generación de wearables en la que métodos como Apple PARS (PAirwise Relative Shift) y sensores discretos como el ear-EEG pueden transformar cómo entendemos nuestro sueño, nuestra atención y nuestra salud neurológica desde algo tan cotidiano como unos AirPods.

qué es semantic scholar
Artículo relacionado:
Qué es Semantic Scholar: buscador académico con IA