Cómo hacer llamadas a la API de DeepSeek en Python: Guía completa

Última actualización:
Autor:

deepseek api

DeepSeek ha revolucionado el mundo de la inteligencia artificial con su modelo de lenguaje avanzado, permitiendo a desarrolladores y empresas aprovechar su potente API para diversas tareas de procesamiento de lenguaje natural. Si eres programador y quieres integrar DeepSeek en tus proyectos, en esta guía aprenderás paso a paso cómo hacer llamadas a su API usando Python. Desde la obtención de la clave API hasta la ejecución local del modelo, cubriremos todos los detalles esenciales.

Antes de comenzar, es importante entender que DeepSeek ofrece una API compatible con OpenAI, lo que facilita mucho su integración en aplicaciones ya diseñadas para trabajar con modelos como GPT. Esto significa que si ya tienes experiencia trabajando con OpenAI, la transición a DeepSeek te resultará sencilla. Ahora, vamos a ver cómo configurarlo todo para empezar a hacer nuestras primeras llamadas a la API.

1. Obtener la clave de la API de DeepSeek

Para empezar a usar la API de DeepSeek, lo primero que necesitas es una clave API. Para obtenerla, sigue estos pasos:

  1. Accede a la plataforma de DeepSeek e inicia sesión en tu cuenta.
  2. Dirígete a la sección de claves API y haz clic en “Generar nueva clave”.
  3. Copia la clave generada y guárdala en un lugar seguro, ya que la necesitarás para autenticarte en cada petición.
  4. Asegúrate de que tu cuenta tenga saldo disponible, ya que DeepSeek requiere una recarga inicial para activar la clave.

2. Configurar el entorno en Python

python deepseek

Antes de realizar cualquier petición a la API, es necesario configurar un entorno de desarrollo en Python. Para ello, sigue estos pasos:

Instalar Python

Si aún no tienes Python instalado en tu equipo, puedes descargar la última versión desde python.org. Se recomienda usar la versión 3.8 o superior.

Instalar la biblioteca Requests

La biblioteca Requests es fundamental para enviar peticiones HTTP a la API de DeepSeek. Para instalarla, usa el siguiente comando:

pip install requests

Si tienes varios entornos de Python instalados, asegúrate de ejecutar el comando en el entorno correcto.

   Solución: Google Chrome No Responde

3. Hacer la primera llamada a la API de DeepSeek

Una vez configurado el entorno, podemos realizar nuestra primera llamada a la API. Para ello, crearemos un archivo llamado deepseek.py y escribiremos el siguiente código:

import requests

API_KEY = "tu_clave_API"
URL = "https://api.deepseek.com/v1/chat/completions"

headers = {
    "Authorization": f"Bearer {API_KEY}",
    "Content-Type": "application/json"
}

data = {
    "model": "deepseek-reasoner",
    "messages": [{"role": "user", "content": "¿Qué es DeepSeek?"}],
    "stream": False
}

response = requests.post(URL, headers=headers, json=data)
print(response.json())

Este código envía una pregunta a DeepSeek y muestra la respuesta en la consola. Recuerda reemplazar tu_clave_API con la clave obtenida anteriormente.

4. Uso avanzado de la API

Streaming de respuestas

Si deseas obtener la respuesta de manera progresiva en lugar de recibirla de golpe, puedes activar el modo de streaming cambiando el valor de la clave stream en el JSON de la petición a True.

"stream": True

Multi-turn dialogue

DeepSeek permite mantener el contexto de la conversación agregando mensajes previos en la petición. Un ejemplo de diálogo fluido sería:

data = {
    "model": "deepseek-reasoner",
    "messages": [
        {"role": "user", "content": "Explícame el concepto de redes neuronales"},
        {"role": "assistant", "content": "Una red neuronal es un sistema de ..."},
        {"role": "user", "content": "¿Y cómo se entrenan?"}
    ]
}

5. Ejecutar DeepSeek localmente

Para aquellos que prefieran no depender de la API y quieran ejecutar el modelo en su propio equipo, DeepSeek ofrece versiones optimizadas para ejecución local. Algunas de las opciones incluyen:

  • Ejecutar el modelo con Ollama, una herramienta que permite cargar modelos de IA directamente en tu máquina.
  • Usar vLLM o SGLang para servir los modelos localmente y reducir la latencia de las consultas.

Para instalar Ollama y ejecutar DeepSeek-R1, sigue estos pasos:

pip install ollama
ollama run deepseek-r1:8b

Esto descargará y ejecutará la versión 8B del modelo directamente en tu máquina.

Con esta guía, deberías tener todo lo necesario para comenzar a integrar DeepSeek en tus proyectos en Python. Desde la generación de tu clave API hasta la ejecución local del modelo, ahora puedes aprovechar esta potente herramienta de IA para responder preguntas, generar texto e incluso entrenar modelos personalizados. A medida que la plataforma evoluciona, es recomendable revisar la documentación oficial de DeepSeek para estar al día con las últimas actualizaciones y mejoras.

Deja un comentario