Apple PARS: É assim que a Apple quer ler sua atividade cerebral a partir do seu ouvido.

Última atualização: 04/12/2025
autor: Isaac
  • O Apple PARS é um método de autoaprendizagem que aprende a estrutura temporal dos sinais de EEG sem dados anotados.
  • A abordagem combina EEG auricular e fones de ouvido patenteados com eletrodos para medir a atividade cerebral a partir da orelha.
  • Os modelos treinados com o PARS igualam ou superam os métodos anteriores em tarefas como sono, epilepsia ou EEG anormal.
  • Essa tecnologia poderá levar ao desenvolvimento de AirPods capazes de monitorar a saúde e o bem-estar cerebral diariamente.

Apple PARS AI EEG

A ideia de que fones de ouvido podem Ouça sua música e, ao mesmo tempo, "escute" seu cérebro. Parece algo saído de um filme de ficção científica, mas a Apple já está abrindo caminho com uma combinação muito poderosa: novos sensores intra-auriculares e modelos avançados de Inteligencia artificialPor trás de tudo isso existe um método chamado PARS (Deslocamento Relativo aos Pares), uma abordagem de autoaprendizagem que permite a um algoritmo compreender a atividade elétrica cerebral sem depender de especialistas que registem dados manualmente.

Em vez de se concentrar em um dispositivo específico, a pesquisa da Apple se concentra em como um modelo de IA lata Aprenda a estrutura temporal dos sinais de EEG. (eletroencefalografia) e, em seguida, aplicar esse conhecimento a tarefas como classificar estágios do sono ou detectar anormalidades neurológicas. E, embora o estudo não mencione diretamente os AirPods, ele se soma a patentes e protótipos que apontam para um futuro em que fones de ouvido simples poderiam se tornar uma espécie de "minilaboratório" para monitoramento cerebral a partir do ouvido.

O que é o Apple PARS (Pairwise Relative Shift) e por que ele é tão relevante?

Algoritmo PARS da Apple

O método PARS teve origem em uma pesquisa apresentada por uma equipe da Apple e colaboradores acadêmicos, em um artigo aceito na conferência. Workshop NeurIPS 2025: Modelos Fundamentais para o Cérebro e o CorpoO estudo, intitulado "Aprendendo a composição relativa de sinais de EEG usando pré-treinamento de deslocamento relativo aos pares", propõe uma maneira diferente de treinar modelos com sinais de eletroencefalografia sem usar rótulos humanos.

Na prática, o PARS é uma técnica de aprendizagem autossupervisionada aplicado ao EEG. Em vez de pedir aos neurologistas que indiquem manualmente qual segmento do sinal corresponde a cada fase do sono ou ao início de uma crise epiléptica, o modelo é treinado com dados não anotados e forçado a resolver um problema artificial, porém muito útil: Prever qual a distância temporal que separa dois fragmentos de sinal..

A ideia básica é que, se o modelo aprender a estimar quanto tempo há entre duas janelas de EEG, ele eventualmente entenderá o estrutura global e dependências de longo alcance da atividade cerebral. Isso, consequentemente, permite um melhor desempenho em tarefas clínicas reais, como detectar padrões de sono, identificar epilepsia ou reconhecer sinais motores.

Os autores enfatizam que, em contraste com os métodos clássicos de autoaprendizagem de EEG, que se concentram principalmente em reconstruir partes mascaradas do sinal Assim como os autoencoders mascarados (MAE), o PARS se concentra na composição temporal relativa. Ou seja, ele não apenas preenche "lacunas" locais, mas captura como fragmentos separados do sinal se encaixam ao longo do tempo.

Nos testes realizados, os modelos baseados em PARS mostram que são capazes de para igualar ou superar estratégias anteriores Em diversos benchmarks de EEG, especialmente quando há poucas informações disponíveis (um cenário muito comum na medicina), o PARS se destaca como uma opção bastante atraente para qualquer sistema que deseje aproveitar grandes volumes de sinais cerebrais sem depender de anotações exaustivas.

Como funciona o PARS: da tokenização à estimativa de deslocamento relativo

Funcionamento do PARS no EEG

Para aplicar a abordagem PARS ao EEG, os pesquisadores projetam uma arquitetura baseada em Transformadores com várias etapas principaisTudo começa com o pré-processamento do sinal e sua conversão em uma representação que o modelo possa facilmente processar.

Primeiro, o sinal de EEG é dividido em janelas temporárias ou “tokens”Esse processo de tokenização permite que cada fragmento de sinal seja representado como uma unidade sobre a qual o transformador pode operar, de forma semelhante ao uso de texto ou imagens. Esses tokens são então somados... incorporações posicionais, embora de uma forma particular, porque o PARS brinca precisamente com a máscara e a manipulação dessas posições temporais.

Um dos componentes distintivos do método é o uso de incorporação posicional mascaradaEm vez de fornecer ao modelo as informações de posição exatas diretamente em o tempo Para cada token, certos dados posicionais são ocultados ou alterados. Isso força o codificador a inferir a estrutura temporal a partir do conteúdosem depender exclusivamente de um índice ou de um registro de data e hora explícito.

  Apple Intelligence integrará Google Gemini como alternativa ao ChatGPT no iOS 18.4

A essência do pré-treino PARS é a tarefa de estimativa de deslocamento relativo aos paresO modelo recebe duas janelas de EEG extraídas aleatoriamente da mesma gravação e deve prever a distância temporal entre elas. Não se trata apenas de adivinhar se estão próximas ou distantes, mas de aprender um mapeamento contínuo ou discretizado que reflita o intervalo de tempo relativo.

Para isso, um decodificador com mecanismos de atenção cruzadaEste componente cruza as informações codificadas de ambas as janelas e aprende a relacionar suas características internas para deduzir o intervalo de tempo entre elas. Graças a esse processo, o Transformer acaba modelando dependências de longo prazo e padrões de evolução da atividade cerebral que se estendem muito além do ambiente local de alguns milissegundos.

Em fases posteriores, o modelo é adaptado a diferentes tarefas por meio de ajuste fino multicanal e avaliação específicaIsso significa que, uma vez pré-treinado com o PARS em uma variedade de gravações de EEG (incluindo configurações com múltiplos eletrodos), ele é ajustado para tarefas específicas, como: Classificação do sono, detecção de EEG anormal ou crises epilépticas..

O artigo técnico também detalha aspectos práticos, tais como: conjuntos de dados utilizados, a arquitetura exata do codificador, o tipo de decodificador escolhido, os esquemas de amostragem de máscara e de patches.Bem como recursos computacionais utilizadosAlém disso, diferentes variantes arquitetônicas são comparadas com estudos de ablação para determinar quais decisões de projeto produzem o melhor desempenho.

Comparação com outros métodos: MAE, MP3, DropPos e outros.

Comparação do PARS com outros modelos

O estudo não se limita a descrever a PARS, mas a contrasta com Métodos de referência em autoaprendizagem para EEGEntre as abordagens comparadas estão as autoencoders mascarados (MAE), MP3 e DropPos, cada um com uma filosofia diferente quando se trata de aprender com dados não rotulados.

Os MAEs se concentram em reconstruir partes mascaradas do sinalDurante o pré-treinamento, partes da entrada são ocultadas e o modelo tenta recuperá-las a partir do contexto. Isso força o codificador a aprender representações significativas, mas ele é altamente orientado para padrões locais — ou seja, preenchendo "lacunas" próximas em vez de compreender relações de longo alcance.

O MP3 e outras abordagens semelhantes também exploram estratégias de pretexto para capturar informações estruturaisNo entanto, de acordo com os resultados do artigo, eles ainda são menos eficazes do que o PARS na modelagem dos intervalos de tempo relativos entre segmentos distantes do sinal.

DropPos, por sua vez, modifica ou remove informações posicionais explícitas no transformador com a ideia de tornar o modelo mais robusto na posição exataEmbora esse tipo de técnica ajude as redes a não dependerem excessivamente de representações posicionais, foi demonstrado que, por si só, ela não é suficiente para explorar de forma otimizada a estrutura temporal dos sinais de EEG.

Testes experimentais demonstram que os modelos Pré-treinados com PARS igualam ou superam essas alternativas. em três dos quatro parâmetros de EEG utilizados. Onde realmente se destaca é em cenários de eficiência de rotulagemOu seja, quando apenas uma fração das gravações está disponível. Isso é crucial no contexto clínico, onde rotular com precisão cada minuto de EEG é muito demorado e requer especialistas.

O apêndice da obra descreve em detalhes o Configuração de cada linha de base, os hiperparâmetros testados, o efeito de diferentes níveis de máscara ou diferentes arquiteturas de decodificador. e os resultados quantitativos finais. A mensagem clara é que, para o EEG, aprender explicitamente a relação temporal entre os fragmentos de sinal oferece uma vantagem prática em relação à simples reconstrução ou mascaramento.

Conjuntos de dados utilizados: desde EEG auricular do sono até detecção de epilepsia

Conjuntos de dados de EEG auricular e epilepsia

Para validar o PARS, a Apple e seus colaboradores utilizaram quatro conjuntos de dados de EEG bem conhecidosque abrangem diferentes cenários de uso: sono, patologias, atividade motora e até mesmo configurações de eletrodos na orelha.

O primeiro conjunto de dados é Estadiamento do sono por dispositivos vestíveis (EESM17), com foco no monitoramento do sono com dispositivos vestíveis. Inclui gravações noturnas de 9 indivíduos com um sistema de monitoramento do sono. EEG auricular de 12 canais e EEG de couro cabeludo de 6 canais.Este conjunto de dados é particularmente interessante porque demonstra que eletrodos colocados na orelha podem captar uma parte significativa da atividade cerebral relevante para distinguir os estágios do sono.

  Qual smartphone Elon Musk usará em 2025? Este é o modelo que você escolheu

O segundo é TUAB (Corpus EEG anormal da Universidade Temple), um corpus projetado para o detecção de EEG anormalEla reúne registros classificados como normais ou patológicos, úteis para o treinamento de modelos que detectam alterações neurológicas gerais, além de uma condição específica.

O terceiro, TUSZ (Corpo de Apreensão da Universidade Temple), está focado no detecção de crises epilépticasInclui anotações que marcam o início e o fim das crises epilépticas, bem como os segmentos interictais. É um dos conjuntos de dados de referência em epilepsia para avaliação de algoritmos de IA.

Finalmente, o quarto conjunto de dados é PhysioNet-MI, focado em tarefas de imaginação motoraNeste caso, os participantes imaginam movimentos (por exemplo, mover uma mão) enquanto o EEG é registrado, permitindo o treinamento de modelos que reconhecem padrões associados à intenção de movimento, algo fundamental em interfaces cérebro-máquina.

O pré-treinamento do PARS é realizado nesses e em outros conjuntos de dados descritos no apêndice técnico, enquanto o ajuste fino é adaptado a tarefas específicas dentro de cada um deles. A escolha de benchmarks tão variados demonstra a abordagem. Não se limita a um único caso de uso. e isso pode servir como base geral para modelos de EEG automonitorados.

Eletroencefalografia auricular e AirPods: como a pesquisa da PARS se conecta aos fones de ouvido da Apple.

Um aspecto particularmente marcante de todo este tópico é o uso de EEG auricular, ou seja, a captação de sinais cerebrais a partir da orelha.O conjunto de dados EESM17 já utiliza sistemas que posicionam eletrodos no canal auditivo e na orelha, em vez de no couro cabeludo, o que reduz consideravelmente o impacto visual e aumenta o conforto.

Entretanto, documentos públicos e patentes da Apple indicam que a empresa vem explorando essa possibilidade há algum tempo. fones de ouvido capazes de medir biossinais da orelha. Em um pedido de patente de 2023, a empresa descreve um “dispositivo eletrônico vestível” projetado para registrar a atividade cerebral usando eletrodos localizados dentro ou ao redor da orelha, como uma alternativa menos visível aos sistemas clássicos de EEG de couro cabeludo.

A própria patente reconhece que as soluções convencionais de EEG auricular normalmente exigem Dispositivos personalizados para cada usuário (feito sob medida para o tamanho e formato da sua orelha, canal auditivo, etc.), o que é caro e impraticável. Além disso, mesmo um dispositivo feito sob medida pode perder contato com a pele com o tempo, degradando a qualidade do sinal.

Para enfrentar esses desafios, a Apple propõe uma solução nesse documento baseada na colocação de mais eletrodos do que o estritamente necessário, distribuídos por toda a orelha.e deixar que um modelo de IA determine quais oferecem a melhor leitura em um determinado momento. Para isso, métricas como a impedância, nível de ruído, qualidade do contato com a pele ou distância entre os eletrodos ativo e de referência..

Após o cálculo dessas métricas, o sistema atribui pesos diferentes para cada eletrodo e combina seus sinais em uma única forma de onda otimizada. A patente inclui até mesmo gestos simples, como pressionar ou apertar o fone de ouvido, para iniciar ou parar a medição, bem como diferentes variações de design e montagem que tornariam o Hardwares.

Da teoria ao produto: sensores nos AirPods e monitoramento cerebral do dia a dia.

A combinação dessa linha de pesquisa com o PARS torna bastante fácil imaginar AirPods com sensores capazes de medir o EEG a partir do canal auditivoNa verdade, já houve avanços nessa direção: os AirPods Pro 3 incorporaram um sensor fotopletismográfico (PPG) para medir a frequência cardíaca, e a Apple vem adicionando recursos de saúde aos seus dispositivos vestíveis nos últimos anos.

Se adicionarmos a isso eletrodos para EEG auricular e um modelo de automonitoramento como o PARS, capaz de interpretar os sinais sem grandes bases de dados observadoO resultado seria um dispositivo capaz de detectar estágios do sono, alterações na atenção ou sinais precoces de certas patologias neurológicas, tudo de forma transparente para o usuário.

Nos experimentos descritos no artigo de pesquisa, o algoritmo PARS leva em consideração segmentos aleatórios do sinal cerebral e aprender a prever a distância temporal entre eles.Com base nessa capacidade, o modelo desenvolve uma compreensão mais aprofundada de como a atividade cerebral evolui ao longo do tempo, resultando em melhores resultados na classificação dos estágios do sono, na localização de eventos epilépticos ou na distinção entre EEGs normais e anormais.

O grande atrativo dessa abordagem é que ela pode operar em um contexto onde os rótulos são escassos. Em um produto comercial, isso poderia significar que os AirPods equipados com essa tecnologia seriam capazes de... Adaptar-se a cada usuário com pouquíssima informação supervisionada., aproveitando as enormes quantidades de sinal bruto captadas durante o uso diário.

  AMD Ryzen Z2 AI Extreme: O novo negócio de laptops com IA

De acordo com os resultados do estudo, os modelos pré-treinados com PARS atingem igualar ou superar a precisão dos métodos anteriores em diversas tarefas, e isso abre caminho para que dispositivos eminentemente voltados para o consumidor, como fones de ouvido, comecem a oferecer recursos que antes eram reservados para equipamentos hospitalares volumosos e especializados.

É claro que tudo isso levanta questões pertinentes sobre privacidade e segurança de dados e limites éticos. A ideia de que a IA possa conhecer não apenas sua frequência cardíaca ou seus passos diários, mas também seus padrões de atividade cerebral, gera certa preocupação. Por ora, tanto o artigo quanto as patentes permanecem no âmbito da pesquisa e do projeto conceitual, sem uma data específica para um produto comercial.

Aplicações potenciais: saúde, bem-estar, condução e desempenho cognitivo.

Se a tecnologia PARS e a EEG auricular se materializarem nos futuros AirPods ou em outros dispositivos vestíveis, a gama de aplicações poderá ser muito ampla. Em primeiro lugar, seria ideal para Monitore o sono de forma contínua e confortável., classificando automaticamente as fases REM e NREM (NREM 1, NREM 2 e NREM 3) e fornecendo informações detalhadas sobre a qualidade do repouso.

Além disso, a detecção de níveis de atenção, episódios de estresse ou estados de alerta Isso seria extremamente útil em contextos como dirigir, realizar trabalhos mentalmente exigentes ou estudar. Um dispositivo que identifica quedas repentinas de atenção poderia alertar o usuário quando ele corre o risco de adormecer ao volante ou cometer erros graves devido à fadiga.

No contexto clínico, o monitoramento cerebral discreto e contínuo poderia facilitar a detecção precoce de distúrbios como epilepsia, problemas de sono ou doenças neurodegenerativasNão se trata de substituir um neurologista ou um hospital, mas sim de fornecer dados valiosos que podem servir como um alerta precoce ou complementar o diagnóstico.

Outra frase interessante é a biofeedback com foco no bem-estar mentalSe o dispositivo for capaz de relacionar certos padrões de EEG a estados de relaxamento, concentração profunda ou estresse, ele poderá orientar o usuário em exercícios de respiração, meditação ou treinamento cognitivo, fornecendo indicadores em tempo real sobre se essas práticas estão tendo o efeito desejado.

Não se limitaria apenas ao cérebro. Os documentos públicos da Apple mencionam a possível adição de Sensores para medir o volume sanguíneo, a atividade muscular facial e os movimentos oculares. do próprio fone de ouvido. Combinado com o sinal de EEG e processado em um iPhone ou outro dispositivo, esses dados poderiam alimentar modelos de IA capazes de fornecer um retrato muito completo do estado fisiológico e emocional do usuário.

Todos esses usos teriam que ser acompanhados por controles rigorosos sobre consentimento, gerenciamento de dados e acesso por terceirosNos exemplos apresentados, presume-se que as informações só podem ser compartilhadas com profissionais de saúde se o usuário autorizar e que grande parte do processamento é feita localmente para minimizar os riscos.

Na prática, o que tanto o artigo da PARS quanto as patentes e protótipos demonstram é uma convergência muito clara: a Apple está explorando, por um lado, A melhor maneira de coletar sinais cerebrais a partir do ouvido e por outro a melhor maneira de interpretá-los com IA sem depender de anotações humanasSe ambas as peças se encaixarem, os fones de ouvido poderão deixar de ser simples reprodutores de áudio e se tornar ferramentas avançadas de saúde e desempenho, desde que os aspectos éticos e de privacidade sejam bem administrados.

Tudo indica que estamos no início de uma nova geração de dispositivos vestíveis, na qual Métodos como o Apple PARS (Parwise Relative Shift) e sensores discretos como o EEG auricular Elas podem transformar a forma como entendemos nosso sono, nossa atenção e nossa saúde neurológica, começando com algo tão cotidiano quanto os AirPods.

O que é o Semantic Scholar?
Artigo relacionado:
O que é o Semantic Scholar: um mecanismo de busca acadêmica com inteligência artificial?