Como acessar a NPU no Copilot+ PC: um guia completo para aproveitar ao máximo a IA

Última atualização: 08/10/2025
autor: Isaac
  • Requisitos e Hardwares: 40 TOPS NPU, divisão de CPU/GPU/NPU e plataformas suportadas.
  • Acesso e desenvolvimento: Windows ML com ONNX Runtime, EPs automáticos (QNN/OpenVINO) e fallback seguro.
  • Modelos e desempenho: quantização INT8, Olive para otimização e criação de perfil com WPR/WPA/ORT.
  • Uso no mundo real: produtividade, eficiência energética e privacidade do Copilot+ com processamento local.

NPU no Copilot+ PC

Se você está se perguntando como aproveitar ao máximo a NPU do seu PC Copilot+, você veio ao lugar certo. Neste guia, explico em detalhes e em espanhol o que você precisa para aproveitar, como acessá-lo e como Windows 11 e do seu Aplicativos, quais APIs usar, quais formatos de modelo são suportados e como medir o desempenho para garantir que sua aceleração seja IA funciona como deveria.

Além da parte técnica, Você verá quais experiências da vida real o Copilot+ possibilita. (produtividade, duração da bateria, privacidade), como a NPU se compara à CPU e à GPU e o que acontece se o seu dispositivo não atingir os 40 TOPS exigidos pela Microsoft para a experiência completa do Copilot+. Isso lhe dá uma visão geral prática de todo o ecossistema sem se perder em detalhes técnicos desnecessários.

O que é um Copilot+ PC e por que a NPU muda as regras?

O Copilot+ PC define uma nova classe de laptops e sobremesas com o Windows 11 projetado em torno de uma unidade de processamento neural (NPU) de alto desempenho. Essas NPUs são especializadas em cargas de trabalho de aprendizado profundo — tradução em tempo real, geração/edição de imagens, efeitos de vídeo com tecnologia de IA — e são capazes de exceder 40 TOPS (trilhões de operações por segundo), permitindo que os modelos sejam executados localmente com baixa latência e baixíssimo consumo de energia.

A chave é que A NPU trabalha em conjunto com a CPU e a GPUO Windows 11 aloca cada tarefa ao recurso mais apropriado para equilibrar velocidade e eficiência: CPU para lógica geral, GPU para gráficos/ML paralelizáveis ​​e NPU para inferência de IA sustentada com o melhor desempenho por watt. Essa alocação é o que permite funções de IA suaves sem esgotar a bateria no meio da manhã.

No ecossistema Copilot+, A Microsoft oferece experiências nativas de IA do Windows e APIs agrupadas no Windows AI Foundry, com suporte para modelos otimizados em execução na NPU. Esses recursos são progressivamente integrados às versões modernas do Windows 11 e do Windows App SDK, reduzindo o atrito para desenvolvedores e usuários finais.

A diferença em relação a um PC tradicional? Embora uma GPU potente possa acelerar a IA, a NPU é ajustada para sustentar longas cargas de inferência de forma silenciosa e eficiente, resultando em maior duração da bateria e capacidade de resposta consistente em tarefas em segundo plano (legendas ao vivo, desfoque inteligente, supressão de ruído, etc.).

Aceleração de IA com NPU

Requisitos e compatibilidade do dispositivo

A experiência completa do Copilot+ requer um dispositivo compatível.A Microsoft estabeleceu um parâmetro de 40 TPS para o desempenho da NPU para garantir fluidez e eficiência. Esse padrão já é alcançado por computadores com a última geração de SoCs ARM, e as plataformas Intel e AMD estão gradualmente adicionando suporte ao Windows 11.

Se você trabalha em um ambiente profissional, Variantes do Copilot+ estão disponíveis para empresas. (por exemplo, computadores Surface com foco em TI) com segurança de nível empresarial e os mesmos benefícios de computação de IA local. Independentemente do fabricante, é essencial que seu dispositivo inclua uma NPU de alto desempenho e firmware/drivers atualizados para que o Windows possa habilitar os caminhos de aceleração corretos.

E se o seu PC não atingir 40 TOPS? Você poderá usar os recursos de IA, mas não tudo o que está sob o selo Copilot+.O Windows pode usar uma GPU ou CPU como alternativa, embora com maior consumo de energia e latência. Isso significa que você ainda terá IA, mas não a experiência otimizada de ponta a ponta que distingue o Copilot+.

Snapdragon X Elite e outras plataformas: como a carga de trabalho é dividida

O Snapdragon X Elite SoC, Baseado em ARM e fabricado pela Qualcomm, incorpora essa filosofia: integra uma NPU líder na categoria, capaz de processar grandes lotes de dados em paralelo com eficiência energética muito superior à de CPU/GPU para IA. Na prática, isso significa maior duração da bateria e menos aquecimento nas cargas de trabalho diárias de IA.

  Como habilitar o modo de eficiência no Gerenciador de Tarefas do Windows 11

Windows 11 gerencia a orquestração entre CPU, GPU e NPUAo abrir um aplicativo com recursos de IA, o sistema decide se envia operações para a NPU (preemptiva), a GPU ou a CPU, alternando com base na disponibilidade e estabilidade dos provedores de execução. Isso acontece de forma transparente; você percebe que tudo funciona perfeitamente e a bateria dura mais.

Em outras frentes, Intel e a AMD também avança com NPUs integradas e provedores de execução compatíveis (OpenVINO na Intel, EPs específicos na AMD) que o Windows pode ativar via Windows ML. O objetivo comum é oferecer aceleração nativa, mantendo a compatibilidade com hardware e drivers anteriores sempre que possível.

Recursos exclusivos de IA no Copilot+ e APIs disponíveis

O Copilot+ PC inclui Experiências de IA integradas ao Windows 11 e acessível via APIs do Windows AI Foundry/Windows Runtime para modelos NPU otimizados. Isso abrange desde efeitos de videochamada (enquadramento, desfoque, cancelamento de ruído) até recursos de sumarização, tradução e geração local, todos projetados para serem executados independentemente da nuvem.

Para o desenvolvedor, O caminho de inferência preferido é o Windows Machine Learning (Windows ML)A Microsoft está migrando o acesso recomendado do DirectML para o Windows ML para simplificar a implantação, gerenciar automaticamente os provedores de execução (EPs) e manter o ONNX Runtime como o mecanismo de inferência subjacente sem que você precise lidar com binários e dependências.

Acesso ao NPU no Copilot+ PC para usuários e desenvolvedores

Como usuário, Você pode verificar se sua NPU está sendo usada em tempo real do Administrador de tarefasAbra o Desempenho e você verá o gráfico de NPU juntamente com CPU, GPU, memória, disco e rede. Ative, por exemplo, os efeitos de estúdio da webcam e você verá uma atividade de NPU modesta e constante — perfeita para videochamadas sem consumir muita bateria.

Como desenvolvedor, A NPU é um recurso de hardware que você deve abordar. por meio das APIs apropriadas. As NPUs são projetadas para operações redes neurais modernos (convoluções, ativações, atenção, etc.), e seu acesso no Windows agora é canalizado pelo Windows ML com ONNX Runtime por baixo, garantindo o melhor caminho de aceleração disponível em cada máquina.

Acesso programático com Windows ML: EPs, ORTs e fallback

Introdução ao Windows ML Descoberta e entrega integradas de provedores de execução (EP). Você não precisa mais empacotar manualmente o QNNExecutionProvider da Qualcomm, o OpenVINO EP da Intel ou outros: o Windows os inclui ou os fornece por meio de Windows Update, reduzindo o tamanho do aplicativo e dores de cabeça com dependências.

Debaixo, ONNX Runtime (ORT) continua sendo o mecanismo de inferência Código aberto que executa seus modelos ONNX. O Windows ML abstrai a complexidade: ele consulta o hardware disponível, seleciona o EP ideal (QNN se houver uma NPU Qualcomm; OpenVINO se aplicável; GPU/CPU como backup), baixa/carrega o provedor e inicia a inferência. Se o EP preferencial falhar ou estiver ausente, ele retorna automaticamente para outro caminho sem interromper seu aplicativo.

Esta colaboração é apoiada por O trabalho direto da Microsoft com os fabricantes (Qualcomm, Intel, AMD, etc.) para garantir compatibilidade de driver com versões anteriores e suporte para novo silício (por exemplo, Snapdragon X Elite, Intel CoreUltra), permitindo que você se concentre na experiência em vez da integração de baixo nível.

Modelos compatíveis, quantização e integração com Olive

Muitos modelos são treinados em altas precisões como FP32, mas a maioria das NPUs tem melhor desempenho com números inteiros menores, normalmente INT8. É por isso que o modelo é frequentemente convertido ou quantizado para ser executado na NPU, aumentando o desempenho e a eficiência sem perder muita qualidade.

Se você não usar um modelo já otimizado, Você pode trazer seu próprio modelo (BYOM) e executá-lo através da cadeia de ferramentas Olive, que compacta, otimiza e compila para o ONNX Runtime com aceleração NPU. O Olive simplifica etapas que antes exigiam scripts e ajustes por EP, e acelera o tempo de produção com ajustes automáticos de desempenho.

Como medir o desempenho de modelos NPU e IA

Para validar que sua integração está funcionando, você precisa de métricas e rastrosO Windows oferece um poderoso conjunto de ferramentas que registram a atividade da NPU, medem os tempos de inferência e eliminam gargalos por operador, sessão ou provedor de execução.

  ChatGPT no Mac! Aprenda como conectar IA com seus aplicativos favoritos

Entre as principais capacidades, você poderá registrar um rastreamento do sistema Ao usar seu aplicativo, você pode visualizar o uso de NPU e pilha de chamadas, correlacionar cargas de trabalho de CPU/GPU/NPU, analisar tempos de carga e inicialização (carregamento de modelo e criação de sessão ORT), revisar parâmetros de configuração de EP e criar perfis de operadores individuais para entender sua contribuição para o tempo geral.

Além disso, Eventos de tempo de execução ONNX no Windows Performance Analyzer (a partir do ORT 1.17, com melhorias na versão 1.18.1) permite visualizar tempos de carregamento do modelo, configurações de EP, tempos de inferência, subcomponentes específicos (como QNNs) e perfis de operadores. É um instantâneo preciso do que seu modelo está fazendo em cada camada.

Ferramentas recomendadas para diagnóstico e criação de perfil

  • Administrador de tarefas: Uma visão geral rápida e em tempo real do seu sistema (CPU, memória, disco, rede, GPU e agora NPU), com porcentagens de uso, memória compartilhada, versão do driver e muito mais. Ideal para verificar se sua função realmente ativa a NPU.
  • Gravador de desempenho do Windows (WPR): Agora inclui um perfil de "Processamento Neural" que registra a interação do Microsoft Compute Driver Model (MCDM) com a NPU. Isso permite identificar quais processos estão usando a NPU e quais chamadas estão enviando trabalho. Isso é útil para isolar regressões ou validações de EP.
  • Analisador de Desempenho do Windows (WPA): Transforma rastros ETW em gráficos e tabelas de lapso de tempo para analisar eventos de CPU, disco, rede, ORT e um gráfico específico de NPU, tudo na mesma escala de tempo. É a ferramenta central para correlacionar fases (pré-busca/pós-busca) e visualizar o panorama geral do desempenho.
  • GPUView: Lê eventos de kernel e vídeo de arquivos .etl e os apresenta visualmente. Suporta operações de GPU e NPU e a visualização de eventos DirectX para dispositivos MCDM, como a NPU. Muito útil se o seu pipeline combina gráficos e ML.
  • Qualcomm Snapdragon Profiler (qprof): Uma solução de criação de perfil para todo o sistema que detalha o sub-HW da NPU (largura de banda, contadores), bem como a CPU/GPU/DSP. Se você estiver trabalhando com o Snapdragon X Elite, ele oferece sinais essenciais para ajustes finos.

Desempenho TOPS: O que significa e como descobrir o desempenho da sua equipe

TOPS (trilhões de operações por segundo) quantificar quantas operações um processador pode executar por unidade de tempo em um formato numérico específico. A Microsoft usa 40 TOPS como referência para a certificação Copilot+, o que lhe dá uma ideia do tipo de modelos e efeitos que você poderá executar confortavelmente localmente.

Para saber a capacidade da sua NPU, Primeiro identifique o processador do seu computador em "Configurações > Sistema > Informações". Com essas informações, pesquise no site do fabricante o número oficial do TOPS. Se quiser comparações mais técnicas, ferramentas como o Procyon AI Benchmark permitem medir e comparar com outras NPUs, embora sejam mais voltadas para profissionais.

Use o Gerenciador de Tarefas para ver o NPU em ação

Além dos TOPS teóricos, exibe o uso real da NPU Usando o Gerenciador de Tarefas, abra "Desempenho" e vá para a seção "NPU". Você verá um gráfico de atividade e métricas associadas. Ative recursos como efeitos de estúdio de webcam para confirmar que sua transmissão está sendo usada pela NPU e não pela CPU/GPU.

Para um diagnóstico aprofundado, combina WPR/WPA com os perfis apropriadosUm fluxo de trabalho típico seria: baixar os perfis 'ort.wprp' e 'etw_provider.wprp', iniciar a captura junto com os perfis 'NeuralProcessing' e CPU, reproduzir o caso, parar a captura e abrir o arquivo .etl no WPA.

Como exemplo, do console você pode executar: wpr -start ort.wprp -start etw_provider.wprp -start NeuralProcessing -start CPU, jogue seu cenário e termine com wpr -stop onnx_NPU.etl -compress. Em seguida, abra o arquivo no WPA e marque 'Processamento Neural: Utilização de NPU' e 'Eventos Genéricos para ONNX' para fazer referência cruzada de atividade, tempo e threads.

Copilot+ na vida cotidiana: produtividade, duração da bateria e privacidade

Na vida cotidiana, O Copilot+ atua como um assistente pessoal integrado No Windows: redija e-mails e documentos, resuma textos longos, ajuste configurações, encontre arquivos e automatize tarefas usando linguagem natural. A chave Copilot Alguns dispositivos (como o ASUS) oferecem acesso instantâneo sem precisar abrir menus.

  Como usar a Pesquisa de Compras da OpenAI para a Black Friday

A NPU também eleva a experiência multimídia e de colaboração: desfoque e refocalização de fundo em tempo real, legendas automáticas, supressão inteligente de ruído e aprimoramentos de vídeo que antes exigiam software pesado. Tudo acontece localmente, de forma suave e silenciosa, graças à NPU que alivia a CPU/GPU.

Outra vantagem clara é a autonomia: Gerenciamento inteligente de energia e NPU maximizam a vida útil da bateriaModelos como o ASUS Zenbook A14 apresentaram números de uso estendidos, permitindo que você trabalhe o dia todo com a IA em segundo plano, sem precisar ficar preso a um carregador. O sistema sabe quando forçar os limites e quando não deve ser usado.

Em privacidade e segurança, Executar IA no dispositivo reduz a dependência da nuvemRecursos como reconhecimento de voz e digitalização de documentos pessoais podem permanecer no seu PC. Dispositivos como o ASUS Vivobook adicionam obturadores físicos de webcam e login por impressão digital para completar a proteção.

Compatibilidade, rumores e o caso Intel/AMD/Qualcomm

Parte da conversa atual gira em torno de os 40 requisitos TOPS para Copilot+Houve rumores de que algumas CPUs de desktop (por exemplo, o próximo Intel Core Ultra 'Arrow Lake-S Refresh') manteriam NPUs em torno de 13 TOPS, o que tornaria impossível atingir o rótulo Copilot+ sem ajuda externa.

Isso não significa que você "não pode usar IA": Um desktop com uma GPU dedicada pode fornecer energia e executar cargas pesadas de IA, excedendo em muito 300 TOPS no INT8 com placas como uma RTX 4070. A diferença é que o Copilot+ prioriza a eficiência sustentada da NPU para experiências sempre ativas e de baixo consumo de energia.

Por sua parte, o A Qualcomm agora oferece NPUs alinhadas com o Copilot+ em plataformas Arm, como o Snapdragon X Elite, e a Microsoft está trabalhando com a Intel e a AMD para fazer com que o Windows ML e os EPs (OpenVINO, etc.) funcionem de forma estável em hardwares atuais e futuros. O ecossistema está se tornando rapidamente mais padronizado.

Recursos úteis e onde aprender mais

Se você deseja uma introdução clara aos conceitos-chave, como CPU, GPU, NPU e TOPSPara produtividade, desempenho e segurança do Copilot+, recomendamos a consulta de materiais de treinamento e fichas técnicas dos fabricantes. Por exemplo, você pode conferir este visual da AMD: Baixar pdf.

Para desenvolvedores, aprofundar-se no Windows ML e no ONNX Runtime para executar modelos localmente, aproveitando a NPU e, se você trouxer seu próprio modelo, confie na cadeia Olive para quantização e otimização. E não se esqueça de instrumentar: eventos WPR/WPA, GPUView e ORT, a partir da versão 1.17, são seus aliados para passar de "apenas funcionando" para "voando".

Se você estiver vindo da prévia do Copilot em um PC mais antigo (por exemplo, um Skylake), Sim, a NPU pode ser usada como um acelerador, assim como a GPU, mas melhor em cargas sustentadasO Copilot+ adiciona a camada de eficiência e continuidade fornecida pela NPU e expande as experiências locais; em computadores sem uma NPU 40-TOPS, o Windows tentará resolver o problema usando a CPU/GPU, embora a autonomia e a latência não sejam as mesmas.

Se você vai investir em novos equipamentos, Olhe além da CPU/GPU e preste atenção à NPU e seus TOPSSe você já tem o Copilot+ no PC, habilite os recursos de IA, monitore o NPU no Gerenciador de Tarefas e, se estiver desenvolvendo, migre para o Windows ML com ORT para garantir que o sistema escolha o melhor caminho (QNN/OpenVINO) e que você tenha perfis confiáveis ​​no WPR/WPA.