- Utilizando ambientes virtuais com Miniconda em Windows 11 evita conflitos entre versões de PythonTensorFlow, CUDA e cuDNN.
- O TensorFlow 2.10 é a versão mais recente com suporte oficial a GPU via CUDA. Windows Nativo, requer CUDA 11.2 e cuDNN 8.1.
- O plugin tensorflow-directml oferece aceleração por GPU através do DirectML para GPUs. NVIDIA, AMD e Intel sem depender do CUDA.
- A verificação por GPU no TensorFlow e benchmarks como o ai-benchmark demonstram melhorias de desempenho de até 8 a 10 vezes em comparação com a CPU.
Configure o TensorFlow para aproveitar ao máximo a GPU no Windows 11. Pode se tornar um pouco complicado se você começar sem nenhum conhecimento prévio: versões incompatíveis, erros estranhos, guias desatualizados e conflitos com instalações anteriores do Python, CUDA ou cuDNN. Se você já se perguntou: "Por que o TensorFlow continua usando a CPU se tem uma GPU poderosa?", este tutorial é para você.
Após compilar e unificar informações de diversos guias oficiais e práticas do mundo real, você verá Como configurar o TensorFlow para funcionar com GPU no Windows 11 usando ambientes virtuais (Conda/Miniconda) de forma confiável, você verá Exemplos de Python para IAEste guia explica quais combinações de versões funcionam, quais opções você tem se sua GPU for NVIDIA (CUDA) ou se você quiser usar DirectML (AMD, Intel, NVIDIA), e como verificar se tudo está configurado corretamente. O objetivo é que, ao final, você tenha um ambiente estável e isolado, sem afetar outras instalações ou projetos Python.
Requisitos de hardware e opções de aceleração no Windows 11
Antes de instalar qualquer coisa, é crucial saber que tipo de aceleração você deseja usar. e se você Hardwares É compatível. Existem basicamente duas maneiras de usar a GPU com o TensorFlow no Windows 11: a pilha clássica da NVIDIA (CUDA + cuDNN) ou o plugin. Plugin TensorFlow-DirectML, que funciona com DirectX 12 e é compatível com GPUs NVIDIA, AMD e Intel.
Se você tiver uma GPU NVIDIA com suporte a CUDA (Por exemplo, uma GeForce RTX 2060, RTX 3060 ou similar) você pode seguir a abordagem tradicional com CUDA e cuDNN, que se integra melhor com o TensorFlow 2.10 no Windows nativo. Esse método depende muito da compatibilidade das versões: DriversCUDA Toolkit, cuDNN, Python e TensorFlow. Para instruções práticas sobre a instalação do CUDA Toolkit, você pode consultar guias específicos sobre CUDA + cuDNN.
No entanto, se sua GPU for AMD ou Intel, ou se você simplesmente quiser uma opção mais flexível, O plugin TensorFlow-DirectML permite que você utilize a GPU através do DirectML. No Windows 10/11, tanto no modo nativo quanto no WSL. Nesse caso, você não depende do CUDA/cuDNN, mas sim do suporte ao DirectX 12 e de drivers atualizados para sua placa de vídeo.
Resumo dos requisitos mínimos típicos para DirectML no Windows (De acordo com a documentação da Microsoft) isso inclui: Windows 10 versão 1709 ou posterior, ou Windows 11 21H2 ou posterior; Python 3.7 a 3.10 em um sistema de 64 bits; e uma GPU compatível, como AMD Radeon R5/R7/R9 2xx ou posterior, Intel HD Graphics 5xx ou posterior, ou NVIDIA GeForce GTX 9xx ou posterior. Se você estiver usando CUDA diretamente, priorize uma GPU NVIDIA com arquitetura CUDA 3.5 ou posterior e drivers atualizados.
Em todos os casos, é obrigatório ter os drivers de GPU mais recentes. instalado. No Windows, você pode verificar se há atualizações em “Configurações > Windows Update > Verifique se há atualizações” e, para a NVIDIA, também pelo aplicativo GeForce Experience ou pelo site oficial de drivers.
Escolhendo versões: por que o TensorFlow 2.10 é fundamental no Windows
Um dos maiores problemas ao instalar o TensorFlow com GPU no Windows 11 O problema é que nem todas as versões são compatíveis. A partir do TensorFlow 2.11, o suporte nativo a CUDA no Windows desaparece; portanto, na prática, o TensorFlow 2.10 é a última versão estável que você pode usar com GPUs via CUDA no Windows sem recorrer a outros métodos. WSL ou Docker.
Em uma configuração testada no Windows 11 com CPU Intel Core i7-11800H, GPU NVIDIA GeForce RTX 3060 para laptop e 16 GB de RAM, O TensorFlow 2.10 foi usado com Python 3.10 dentro do Conda, CUDA 11.2 e cuDNN 8.1.Embora o sistema tivesse o Python 3.12.6 e o CUDA 12.3 instalados globalmente, essa separação foi alcançada justamente graças ao uso de um ambiente virtual Conda.
O TensorFlow 2.10 é particularmente sensível ao NumPy.Não funciona com NumPy 2.x, portanto é importante manter o NumPy 1.23.5 ou outra versão 1.x compatível. Se você já tiver o NumPy 2 instalado em seu ambiente, será necessário reinstalar a versão apropriada antes de instalar o TensorFlow.
Se você trabalha com versões históricas, O TensorFlow 1.15 diferenciou entre pacotes para CPU e GPU.com nomes diferentes no pip (tensorflow e tensorflow-gpu). A partir do TensorFlow 2.x, o pacote pip tensorflow já inclui suporte integrado para GPU quando os requisitos CUDA/cuDNN são atendidos, embora no Windows esse suporte esteja efetivamente limitado à versão 2.10.
Para aqueles que optam pelo DirectMLA combinação recomendada pela Microsoft é usar o tensorflow-cpu==2.10 como base e, em seguida, adicionar o pacote tensorflow-directml-plugin, que ativa automaticamente o backend DirectML sem alterar seu código.
Instalando e configurando o Miniconda no Windows 11
A maneira mais limpa de evitar conflitos entre versões do Python, TensorFlow, CUDA e cuDNN. Isso envolve trabalhar com ambientes virtuais. O Miniconda é uma opção leve e muito conveniente para criar esses ambientes isolados no Windows 11, mantendo as instalações globais intactas.
Primeiro você precisa Baixe o instalador do Miniconda para Windows 64 bits. (a versão x86-64). O instalador geralmente vem como um arquivo .exe. Durante a instalação, é altamente recomendável que você não selecione a opção "Adicionar Miniconda ao PATH" para evitar conflitos com outras instalações do Python que você possa ter.
Assim que o assistente de instalação for concluído, Reinicie o computador para garantir que tudo esteja registrado corretamente.Em seguida, abra um terminal (CMD o PowerShell) e verifique se o conda está disponível executando:
conda --version
Se você vir um resultado como este conda 25.1.1 ou algo semelhante, significa que o Miniconda foi instalado corretamente e agora você pode começar a criar ambientes virtuais específicos para o TensorFlow com GPU.
Crie um ambiente Conda para TensorFlow 2.10 e GPUs NVIDIA.

Com o Miniconda instalado e em execução, o próximo passo é criar um ambiente isolado. Para instalar o TensorFlow 2.10 juntamente com todas as suas dependências CUDA/cuDNN, você deverá garantir que as alterações não afetem outros projetos ou o ambiente Python geral do sistema.
Aberto Anaconda Prompt ou PowerShell Com suporte do Conda, crie um novo ambiente, por exemplo, chamado tf-2.10, com Python 3.10:
conda create --name tf-2.10 python=3.10
Quando a criação do ambiente estiver concluída, Inicialize o Conda no seu shell. Para ativá-lo facilmente, execute o seguinte comando:
conda init
Após executar esse comando, feche e abra novamente a janela do PowerShell ou do CMD para que as alterações entrem em vigor. Em seguida, você poderá... ativar o ambiente recém-criado com:
conda activate tf-2.10
Com o ambiente tf-2.10 ativo, tudo o que você instalar com pip ou conda Ele ficará encapsulado ali, sem se misturar com outras instalações. É nesse ambiente que você instalará o NumPy, o TensorFlow 2.10 e as bibliotecas CUDA/cuDNN necessárias.
Instale o TensorFlow 2.10, compatível com NumPy, CUDA e cuDNN no Conda.
O TensorFlow 2.10 possui requisitos de biblioteca muito específicos.O primeiro passo é garantir que o NumPy não esteja na versão 2.x dentro do ambiente tf-2.10. Caso suspeite que uma versão incompatível tenha sido instalada, você pode definir a versão correta da seguinte forma:
pip install numpy==1.23.5
Assim que você tiver o NumPy em uma versão aceita, Instale o TensorFlow 2.10 a partir do pip. No mesmo ambiente:
pip install tensorflow==2.10
Como mencionado anteriormente, O TensorFlow 2.10 para Windows nativo está vinculado ao CUDA 11.2 e ao cuDNN 8.1.Para simplificar e evitar lidar com os instaladores globais da NVIDIA, você pode instalar essas bibliotecas diretamente no ambiente Conda usando o canal conda-forge:
conda install -c conda-forge cudatoolkit=11.2 cudnn=8.1
Com esta abordagem, Você não depende da compatibilidade global do CUDA Toolkit da sua máquina. com o que o TensorFlow exige. Na verdade, você pode ter, por exemplo, o CUDA 12.3 instalado no Windows para outras tarefas e, ao mesmo tempo, usar um CUDA 11.2 "virtual" dentro do tf-2.10 sem que eles entrem em conflito.
Lembre-se de que o guia oficial do TensorFlow também descreve um procedimento “clássico” para instalar CUDA e cuDNN no nível do sistemaadicionando seus caminhos ao PATH do Windows. Se você optar por seguir esse método tradicional, precisará garantir que as versões instaladas correspondam exatamente às exigidas pelo TensorFlow e certificar-se de que o arquivo cuDNN64_8.dll Está presente e acessível.
Instalação clássica dos drivers NVIDIA, CUDA Toolkit 11.2 e cuDNN 8.1
Se você preferir ou precisar ter o CUDA/cuDNN instalado globalmente no Windows 11Existe uma sequência lógica amplamente utilizada que também foi testada no Windows 10 com GPUs como a GeForce RTX 2060. Essa abordagem é baseada na pilha oficial da NVIDIA e depende de algumas ferramentas adicionais.
A primeira coisa é ter um compilador Microsoft Visual C++Como o CUDA Toolkit se integra ao Visual Studio para compilar certos componentes, a maneira mais fácil é instalar o Microsoft Visual Studio com o conjunto de ferramentas C++ habilitado.
Depois Instale os drivers mais recentes para sua GPU NVIDIA. do site de Download Instalador oficial da NVIDIA, selecione o modelo específico (por exemplo, GeForce RTX 2060) e o sistema operacional Windows correspondente. O instalador geralmente oferece um modo de instalação rápida; na prática, basta aceitar e prosseguir.
Com os drivers posicionados, você pode prosseguir para Instale o CUDA Toolkit 11.2 A partir do arquivo de versões arquivadas da NVIDIA. Lá, você escolhe a versão 11.2, seu sistema operacional (Windows) e o tipo de instalador (.exe). Durante a instalação, é comum optar pelo modo "personalizado", mas, na maioria dos casos, você pode manter as configurações padrão clicando em Avançar e OK.
O próximo passo é cuidar de cuDNN 8.1, a biblioteca específica para redes neurais profundoPara fazer o download, você precisa estar registrado no portal de desenvolvedores da NVIDIA. Após o login, acesse o arquivo de versão do cuDNN e escolha a variante que corresponde ao CUDA 11.2 para Windows.
O pacote cuDNN não é um instalador clássico, mas um arquivo compactado com uma pasta chamada “cuda” Dentro da pasta, você encontrará subpastas como bin, include e lib, contendo arquivos .dll, .hy e outros. O que você precisa fazer é copiar o conteúdo dessas subpastas para os caminhos correspondentes da sua instalação do CUDA 11.2, geralmente em C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2, respeitando a estrutura de bin, include e lib.
Depois que esses arquivos forem copiados, é importante Analise e ajuste a variável de ambiente %PATH% do Windows. para incluir os diretórios onde residem as bibliotecas CUDA, CUPTI e cuDNN. Por exemplo, para CUDA 11.0 (análogo a 11.2), a documentação oficial propõe: comandos como:
SET PATH=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\bin;%PATH%
SET PATH=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\extras\CUPTI\lib64;%PATH%
SET PATH=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\include;%PATH%
SET PATH=C:\tools\cuda\bin;%PATH%
Adapte esses caminhos à sua versão específica do CUDA e à pasta onde você instalou o cuDNN. (por exemplo, C:\tools\cuda), você garante que o TensorFlow encontre as DLLs necessárias quando for executado.
Instale o TensorFlow GPU em ambientes Conda alternativos e teste a GPU.
Existem outras combinações de versões que também foram usadas com sucesso no Windows.especialmente com versões mais antigas do TensorFlow. Por exemplo, para o TensorFlow 2.6.0 com GPU em um ambiente Python 3.7, você pode criar um ambiente Conda como este:
conda create -n test_tensorflow_gpu python=3.7
Após criar o ambiente, é ativado com:
conda activate test_tensorflow_gpu
e então ele instala tensorflow-gpu 2.6.0 usando pip:
pip install tensorflow-gpu==2.6.0
Existem também exemplos de ambientes um pouco mais antigos com TensorFlow 2.1.0 e CUDA 10.1, onde um ambiente Conda é criado com Anaconda e Python 3.7.7, o ipykernel é adicionado e várias dependências científicas, como o Keras 2.3.1, são instaladas:
$ conda create -n entornoGPU anaconda python=3.7.7
$ conda activate entornoGPU
$ conda install ipykernel
$ python -m ipykernel install --user --name entornoGPU --display-name "entornoGPU"
$ conda install tensorflow-gpu==2.1.0 cudatoolkit=10.1
$ pip install tensorflow==2.1.0
$ pip install jupyter
$ pip install keras==2.3.1
$ pip install numpy scipy Pillow cython matplotlib scikit-image opencv-python h5py imgaug IPython
Qualquer combinação específica que você escolher. (2.10, 2.6.0, 2.1.0, etc.), o padrão é sempre o mesmo: criar um ambiente virtual limpo, instalar a versão compatível do Python, adicionar o TensorFlow e as bibliotecas CUDA/cuDNN apropriadas e, finalmente, verificar se a GPU está visível.
Uma maneira rápida de verificar se o TensorFlow reconhece a GPU é abrir o Python e executar o seguinte comando:
import tensorflow as tf
print("TensorFlow version:", tf.__version__)
print("GPUs available:", tf.config.list_physical_devices('GPU'))
O resultado ideal seria algo como isto::
TensorFlow version: 2.10.0
GPUs available:
Sim, pelo contrário, A lista de GPUs aparece vazia. ([]), o TensorFlow está usando apenas a CPU. Nesse caso, é recomendável fechar o terminal, reativar o ambiente, verificar se os caminhos do CUDA/cuDNN estão configurados corretamente, se o driver da NVIDIA está atualizado e se não há incompatibilidades de versão.
Utilizando o plugin TensorFlow-DirectML no Windows 11
Para muitos usuários do Windows 11, especialmente aqueles com GPUs AMD ou Intel Para quem deseja evitar a complexidade do CUDA/cuDNN, o plugin tensorflow-directml oferece uma alternativa interessante. Este plugin utiliza o DirectML no DirectX 12 e permite acelerar o TensorFlow sem depender do ecossistema CUDA.
O primeiro requisito é que seu Windows 10/11 seja uma versão compatível (Windows 10 1709 ou superior ou Windows 11 21H2 ou superior), e que A GPU suporta DirectX 12 e DirectML.Além disso, você precisa do Python x86-64 versão 3.7, 3.8, 3.9 ou 3.10, sendo a versão 3.10 a versão máxima suportada por este plugin.
É recomendado novamente. Utilize o Miniconda para criar um ambiente virtual.Após instalar o Miniconda, você pode criar um ambiente chamado, por exemplo, tfdml_plugin com o seguinte comando:
conda create --name tfdml_plugin python=3.9
conda activate tfdml_plugin
Com o ambiente ativado, você deve instalar a versão base do TensorFlow na CPU que o plugin requerEspecificamente, tensorflow-cpu==2.10, pois não é compatível com o tensorflow "normal" ou com o tensorflow-gpu:
pip install tensorflow-cpu==2.10
Em seguida, o próprio dispositivo é instalado. plugin tensorflow-directml com um simples:
pip install tensorflow-directml-plugin
Após a conclusão, seus scripts do TensorFlow devem começar a usar. o backend DirectML de forma transparentesem precisar modificar o código. Se você já tinha modelos ou notebooks, basta executá-los dentro do ambiente tfdml_plugin.
Integre o ambiente Conda com o PyCharm e outras IDEs.
Se você usa o PyCharm ou outra IDE para desenvolver em Python,É muito útil associar o interpretador da IDE diretamente ao ambiente Conda que você criou para o TensorFlow, para que você possa executar e depurar projetos usando exatamente as versões de biblioteca que você configurou.
No PyCharm, por exemplo, você pode ir para Arquivo > Configurações > Projeto: > Interpretador Python Em seguida, adicione o ambiente Conda existente. Para fazer isso, selecione “Adicionar interpretador > Adicionar interpretador local”.
No assistente, escolha “Ambiente existente” e navegue até o caminho do executável do Python no seu ambiente, que geralmente se parece com isto:
C:\Users\<tu_usuario>\miniconda3\envs\tf-2.10\python.exe
Uma vez selecionado, Escolha o ambiente tf-2.10 (ou qualquer nome que você tenha dado a ele).Confirme clicando em OK e o PyCharm começará a usá-lo para esse projeto. Dessa forma, as importações para TensorFlow, NumPy, CUDA/cuDNN, etc., serão sempre resolvidas a partir do ambiente correto.
Testes e benchmarks avançados de GPU vs CPU
Além da verificação básica de “tf.config.list_physical_devices('GPU')”Existem maneiras mais avançadas de garantir que o TensorFlow esteja usando a GPU e, incidentalmente, medir a diferença real de desempenho em comparação com a CPU.
Para instalações como TensorFlow-gpu 2.6.0 em Python 3.7, você pode escrever um pequeno escrita em Python que recupera a lista de dispositivos locais e exibe informações detalhadas sobre a GPU, a versão do CUDA e a versão do cuDNN que o TensorFlow está usando internamente. Um exemplo típico seria:
import tensorflow
from tensorflow.python.client import device_lib
def print_info():
print(' Versão do TensorFlow: {}'.format(tensorflow.__version__))
print(' GPU: {}'.format())
print('Versão CUDA -> {}'.format(tensorflow.sysconfig.get_build_info()))
print(' Versão Cudnn -> {}'.format(tensorflow.sysconfig.get_build_info()))
imprimir_informações()
O resultado desse tipo de script informa exatamente o que o TensorFlow está vendo.O nome da GPU (por exemplo, NVIDIA GeForce RTX 2060), a capacidade de computação e as versões integradas do CUDA/cuDNN. Isso permite confirmar se as combinações são consistentes e se o dispositivo correto está sendo usado, além de consultar um especialista. glossário de termos Se você tiver alguma dúvida sobre a terminologia.
Se você quiser ir além, ferramentas como Benchmark de IA Eles permitem comparar o desempenho da GPU e da CPU em diversas redes neurais populares (MobileNet, Inception, ResNet, VGG, etc.). Para instalá-lo em seu ambiente virtual com uma GPU ativa:
pip install ai-benchmark
Em seguida, a partir de um interpretador Python, você pode executar um benchmark na GPU com:
from ai_benchmark import AIBenchmark
benchmark_gpu = AIBenchmark(use_CPU=False)
benchmark_gpu.run_training()
Os resultados mostram os tempos de treinamento por modelo. e uma “Pontuação de Treinamento do Dispositivo” geral. Em testes com uma RTX 2060, por exemplo, o treinamento do MobileNet-V2 com batch=50 e tamanho 224×224 foi de cerca de 325 ms por iteração na GPU.
Para comparar com a CPU, você pode executar o seguinte comando:
benchmark_cpu = AIBenchmark(use_CPU=True)
benchmark_cpu.run_training()
Nessas mesmas condições, O processamento da CPU levou aproximadamente 3148 ms. No MobileNet-V2, sob o mesmo cenário, o desempenho foi quase 10 vezes superior ao da GPU. Essa diferença, com algumas variações, se repete em outros modelos de benchmark, ilustrando claramente a vantagem de usar a GPU para treinamento intensivo.
Também é possível realizar uma verificação mais básica em um ambiente TensorFlow 2.1.0/2.10 executando o seguinte comando:
$ python
$ import tensorflow as tf
$ tf.__version__
$ tf.test.gpu_device_name()
Se tf.test.gpu_device_name() retornar algo como “/device:GPU:0”A GPU está sendo detectada e utilizada pelo TensorFlow. Se retornar uma string vazia, provavelmente a pilha CUDA/cuDNN precisa ser configurada corretamente ou há uma incompatibilidade de versão.
Combinando essas verificações, configurando ambientes virtuais com o Miniconda e escolhendo cuidadosamente as versões. (TensorFlow 2.10 nativo para Windows com CUDA 11.2 e cuDNN 8.1, ou tensorflow-cpu 2.10 com o plugin DirectML), você pode fazer com que o TensorFlow aproveite sua GPU no Windows 11 sem se deparar com erros enigmáticos ou quebrar outras instalações do Python que você já tenha em sua máquina.
Escritor apaixonado pelo mundo dos bytes e da tecnologia em geral. Adoro compartilhar meu conhecimento por meio da escrita, e é isso que farei neste blog, mostrar a vocês tudo o que há de mais interessante sobre gadgets, software, hardware, tendências tecnológicas e muito mais. Meu objetivo é ajudá-lo a navegar no mundo digital de uma forma simples e divertida.