- CUDA permite aceleração IA e computação científica em GPUs NVIDIA com bibliotecas e ferramentas otimizadas.
- WSL2 em Windows 11/10 (21H2+) suporta CUDA com Drivers adequado e Docker com GPU.
- En Linux, alinhe o driver NVIDIA e a versão do Toolkit (por exemplo, 560 + CUDA 12.6) e defina PATH/LD_LIBRARY_PATH.
- Suporta PyTorch e contêineres; Miniconda e ajustes como swap melhoram a estabilidade e o fluxo.
Se você trabalha com IA, ciência de dados ou simulações, instalar o NVIDIA CUDA é uma dessas etapas que faz toda a diferença. Aceleração de GPU Ele multiplica o desempenho e hoje explico, em detalhes e sem rodeios, como configurá-lo tanto no Windows (incluindo WSL) quanto no Linux nativo.
Você verá tudo, desde pré-requisitos e pré-verificações até instalação de drivers, o CUDA Toolkit, testes com PyTorch e Docker e um recurso bônus sobre Miniconda, swap e configurações de servidor. O guia reúne as melhores práticas e corrija armadilhas comuns para que você não perca tempo com o óbvio.
O que é CUDA e por que você pode se interessar

CUDA é o ecossistema da NVIDIA para computação paralela que permite que você use sua GPU para muito mais do que gráficos. Ele inclui compilador, bibliotecas e ferramentas que aceleram cargas de trabalho como aprendizado profundo, análise científica ou simulações.
Versões como 11.8 ou 12.6 vêm com melhorias de desempenho, suporte para Hardwares recente, gerenciamento de memória aprimorado e integração altamente refinada com frameworks como TensorFlow e PyTorch. O resultado: maior velocidade e estabilidade para projetos exigentes.
Além das bibliotecas de alto nível, o tempo de execução CUDA orquestra a execução de kernels, gerencia a memória na GPU e facilita o escalonamento dos seus aplicativos usando milhares de núcleos em paralelo. Para cargas de trabalho de IA modernas, é literalmente a base.
Se você desenvolve no Windows, uma vantagem fundamental é que WSL2 permite o uso de CUDA em distribuições Linux como Ubuntu ou Debian, quase nativamente, com suporte para Docker e NVIDIA Container Toolkit. É uma opção muito poderosa para ambientes mistos.
Requisitos e compatibilidade

Antes de instalar qualquer coisa, certifique-se de que seu hardware e sistema atendem aos requisitos. Você precisa de uma GPU NVIDIA com Compute Capability 3.0 ou superior para CUDA 11.8 e suporte moderno para versões mais recentes, como 12.6.
No Linux, você pode verificar a presença da GPU com: lspci | grep -i nvidiaSe você quiser identificar o driver recomendado no Ubuntu, tente: dispositivos de drivers do Ubuntu. No Windows, dê uma olhada no Administrador do dispositivo em 'Adaptadores de vídeo'.
Quanto aos sistemas, o CUDA 11.8 tem sido amplamente utilizado em Windows 10/11 64 bits e distribuições como Ubuntu 18.04 e 20.04, bem como RHEL/CentOS 7/8. Para WSL, Windows 11 e o Windows 10 versão 21H2 ou posterior oferece suporte à computação de GPU com CUDA no subsistema Linux.
Para WSL2, certifique-se de ter um kernel atualizado. 5.10.43.3 ou posterior é necessário. Você pode verificar a versão em PowerShell com: wsl cat /proc/version. Além disso, mantenha Windows Update atualizado (Configurações > Windows Update > Verificar atualizações).
Em relação à memória, para tarefas de treinamento é conveniente ter pelo menos 8 GB de RAM no sistema e 4 GB de VRAM na GPU, embora muitos modelos apreciem consideravelmente mais. Uma CPU x86_64 e um compilador C++ moderno (C++14 ou superior) completam a lista.
Instalação no Windows 11/10 com WSL2
A sequência correta evita dores de cabeça: primeiro habilite o WSL e instale o Linux, depois o Drivers NVIDIA para Windows, e dentro do WSL, o CUDA Toolkit e suas bibliotecas de IA. Opcionalmente, adicione o Docker Desktop no final.
1) Habilite o WSL do PowerShell com permissões de administrador: ativa o recurso e reinicie quando solicitado.
Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Windows-Subsystem-Linux
2) Atualize o kernel do WSL para a versão mais recente do PowerShell: wsl – atualização. Em seguida, instale sua distribuição favorita (por exemplo, Ubuntu 22.04 LTS):
wsl --install -d Ubuntu-22.04
3) Abra o aplicativo Ubuntu recém-instalado, atualize os índices e pacotes e instale os utilitários básicos. Mantenha o sistema atualizado reduz falhas subsequentes.
sudo apt update && sudo apt -y upgrade
4) Dentro do Ubuntu (WSL), instale Python pip e o CUDA Toolkit dos repositórios oficiais. Os drivers da GPU não estão instalados no WSL no kernel do Linux, esses vão para o Windows.
sudo apt -y install python3-pip nvidia-cuda-toolkit
5) Adicione o caminho para seus scripts de usuário ao seu PATH para evitar problemas ao executar ferramentas instaladas com pip. Isso acelera o uso de utilitários sem rotas absolutas.
nano ~/.bashrc
# Al final añade, adaptando 'usergpu' a tu usuario
export PATH=/home/usergpu/.local/bin${PATH:+:${PATH}}
# Guarda (Ctrl+O), sal (Ctrl+X) y recarga
source ~/.bashrc
6) Instale o Driver NVIDIA para WSL No Windows, baixe o driver compatível com CUDA no site da NVIDIA/Microsoft (driver de computação de GPU para WSL). Após a instalação, reinicie o Windows, se necessário.
7) Verifique a versão do kernel no WSL e se tudo responde: wsl cat /proc/versãoSe você estiver usando a versão 5.10.43.3 ou posterior, ótimo. Mantenha o Windows Update atualizado para receber as melhorias do WSL2.
8) Instale o PyTorch com suporte a CUDA dentro do Ubuntu (WSL). O índice cu118 é uma opção estável e amplamente utilizada. É assim que você aproveita a GPU em seus notebooks ou scripts.
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
9) Teste rápido em Python: carregue o PyTorch e verifique se o CUDA está disponível e quantas GPUs ele detecta. Isso confirma que a pilha funciona..
python3
>>> import torch
>>> torch.cuda.device_count()
# Ejemplo de salida: 1 (o más, según tu equipo)
>>> torch.cuda.is_available()
# Esperado: True
10) Docker com GPU no WSL: Instale o Docker Desktop no Windows, ative-o e execute testes no Ubuntu WSL. Conjunto de ferramentas de contêiner NVIDIA É suportado no WSL para cenários semelhantes ao Linux.
docker run --rm -it --gpus=all nvcr.io/nvidia/k8s/cuda-sample:nbody \
nbody -gpu -benchmark -numdevices=1
Se você vir o erro 'apenas 0 dispositivos disponíveis' com várias GPUs, uma solução conhecida é desabilitar e reabilitar cada GPU na Gerenciador de Dispositivos Windows (Adaptadores de vídeo > Ação > Desativar e depois Ativar). Depois, repita o teste.
Instalação nativa no Linux (Ubuntu/Mint e derivados)
No Linux nativo, o caminho recomendado é: instalar o driver oficial da NVIDIA, depois o CUDA Toolkit e, por fim, configurar as variáveis de ambiente. Em versões recentes, a ramificação 560 do driver e o CUDA 12.6 funcionam muito bem.
1) Adicione os drivers gráficos PPA (Ubuntu) e instale o driver 560. Reiniciar para o kernel carregar o módulo atualizado.
sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt update
sudo apt install -y nvidia-driver-560
# Reinicia el equipo
2) Verifique com nvidia-smi se o driver está operacional. Deve mostrar versão, GPU e memória antes de continuar com CUDA.
nvidia-smi
3) Instale as dependências de compilação e baixe o instalador do CUDA 12.6 (exemplo com runfile). No assistente, desmarque a caixa de drivers se você já instalou o 560 para evitar conflitos.
sudo apt install -y build-essential
wget https://developer.download.nvidia.com/compute/cuda/12.6.3/local_installers/cuda_12.6.3_560.35.05_linux.run
sudo sh cuda_12.6.3_560.35.05_linux.run
4) Exporte PATH e LD_LIBRARY_PATH para a versão instalada e recarregue o perfil. Isso garante que o nvcc e as bibliotecas estão disponíveis na sessão.
nano ~/.bashrc
# Añade al final (ajusta si tu ruta difiere)
export PATH=/usr/local/cuda-12.6/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-12.6/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
# Guarda y recarga
source ~/.bashrc
5) Verifique a versão do compilador CUDA. Se 'nvcc –version' responder corretamente, a instalação está pronta para produção. Sem essa etapa, muitas compilações falharão..
nvcc --version
Notas adicionais para outras versões: Se você instalar CUDA11.8 Com o runfile, o processo é semelhante e o caminho geralmente é /usr/local/cuda-11.X. Em qualquer caso, verifique a matriz de compatibilidade do driver para corresponder corretamente à versão e ao driver do CUDA.
Miniconda, PyTorch e ecossistema
Gerenciar ambientes com o Miniconda é extremamente conveniente: ele isola dependências, simplifica compilações e permite alternar entre versões do Python. Ideal para IA e fluxos de trabalho de vários projetos.
Instalar miniconda no Linux com estas etapas, aceite a licença e reinicie o terminal no final. Depois disso, você verá o ambiente de base ativa.
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
bash ./Miniconda3-latest-Linux-x86_64.sh
# Enter > Avanzar > yes > enter > yes
Para alguns pacotes gráficos pode ser necessário python3-tk em sistemas Ubuntu/Mint. Também é útil ter o git à mão.
sudo apt update -y && sudo apt install -y python3-tk git
Com o ambiente pronto, instale o PyTorch com CUDA estável (cu118) ou até mesmo nightly se você estiver procurando o que há de mais moderno em desempenho (por exemplo, cu124). Escolha de acordo com suas necessidades de estabilidade vs. novidades.
# Estable (ejemplo cu118)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
# Nightly (ejemplo cu124)
pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu124
Se estiver trabalhando com pipelines criativos como o ComfyUI, você pode clonar o repositório deles e iniciar o aplicativo. Para acessá-lo de outro computador na rede, use o sinalizador –listen 0.0.0.0. É muito prático em servidores sem cabeça.
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
pip install -r requirements.txt
python main.py --listen 0.0.0.0
Testes e validação (PyTorch e Docker)
Validar sua instalação evita surpresas futuras. Em Python, verifique se o PyTorch reconhece a GPU, consegue alocar memória e se os kernels iniciam sem erros. As duas chamadas principais Eles são is_available e device_count.
python3
>>> import torch
>>> torch.cuda.is_available()
True
>>> torch.cuda.device_count()
1
Usando o Docker, experimente o contêiner de exemplo 'nbody' da NVIDIA. Se funcionar com –gpus=all, você terá o tempo de execução do contêiner configurado corretamente e visibilidade da GPU a partir dos contêineres.
docker run --rm -it --gpus=all nvcr.io/nvidia/k8s/cuda-sample:nbody \
nbody -gpu -benchmark -numdevices=1
No Windows+WSL, se você receber o erro '0 dispositivos', lembre-se do truque de desabilitar/habilitar GPUs no Gerenciador de Dispositivos. É um problema conhecido o que às vezes ocorre em computadores com várias placas.
Por fim, não se esqueça de validar o compilador CUDA com nvcc -V e verificar a instalação do driver com nvidia-smi. Tanto comandos deve ser executado sem erros.
Ajustes úteis no Linux: swap e modo servidor
Para evitar travamentos devido à falta de memória durante treinos intensos, expandir o arquivo de swap pode ser uma solução salva-vidas. Um tamanho de 32 GB geralmente dá margem em modelos grandes.
sudo swapon --show
sudo swapoff -a
sudo dd if=/dev/zero of=/swapfile bs=1M count=32768 status=progress
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
sudo swapon --show
sudo nano /etc/fstab
# Añade si no existe:
/swapfile none swap sw 0 0
Se estiver usando o Linux Mint (e similares em outros), você pode inicializar no modo multiusuário sem um ambiente gráfico para economizar recursos, incluindo alguma VRAM. Perfeito para servidores ou nós de treinamento.
sudo nano /etc/default/grub
# Cambia "quiet splash" por "text"
sudo update-grub
sudo systemctl set-default multi-user.target
# Reinicia; para volver al escritorio en sesión:
startx
Problemas comuns e como corrigi-los
Drivers e kit de ferramentas desalinhados: se você instalar um driver incompatível Com a sua versão do CUDA, você pode encontrar erros ao compilar ou iniciar kernels. Consulte a tabela de compatibilidade da NVIDIA e alinhe as versões.
Conflitos de dependência no Linux: remova pacotes residuais de instalações anteriores e use apt ou yum para resolver versões exatas quando o instalador solicitar. Seguir o guia oficial à risca ajuda muito.
WSL sem kernel adequado: verificar wsl – atualização e verifique a versão com 'wsl cat /proc/version'. O Windows Update precisa estar atualizado para receber melhorias no subsistema.
Docker sem GPU: certifique-se de tê-lo instalado Conjunto de ferramentas de contêiner NVIDIA e o Docker Desktop está ativo no Windows. Experimente o contêiner nbody e verifique as permissões do usuário se algo falhar.
PATH e bibliotecas: Se nvcc ou as bibliotecas CUDA não forem encontradas, verifique as variáveis PATH e LD_LIBRARY_PATH. Retorne para 'source ~/.bashrc' após a edição e, se necessário, reinicie a sessão.
Alternativa de nuvem: instâncias de GPU prontas para uso
Se você não puder ou não quiser configurar localmente, uma instância de nuvem com GPUs tira o trabalho das suas mãos. Serviços com A100, RTX 4090 ou A6000 oferecem potência bruta e modelos prontos para IA.
Em plataformas que fornecem pods pré-configurados, você pode iniciar seu ambiente em minutos, reduzir custos com faturamento baseado no uso e escolher imagens otimizadas para o PyTorch. Para equipes que rotacionam modelos e eles precisam escalar, é uma maneira muito eficiente.
Com tudo isso, agora você tem o mapa completo: requisitos, instalação no Windows com WSL e no Linux nativo, validações de chaves com PyTorch e Docker, além de extras de produtividade com Miniconda, swap e modo de servidor. O objetivo é que você vá do zero ao treinamento sem atolamentos, com uma pilha sólida e fácil de manter.
Escritor apaixonado pelo mundo dos bytes e da tecnologia em geral. Adoro compartilhar meu conhecimento por meio da escrita, e é isso que farei neste blog, mostrar a vocês tudo o que há de mais interessante sobre gadgets, software, hardware, tendências tecnológicas e muito mais. Meu objetivo é ajudá-lo a navegar no mundo digital de uma forma simples e divertida.