Comment effectuer des appels API DeepSeek en Python : un guide complet

Dernière mise à jour: 17/02/2025
Auteur: Isaac
  • Recherche profonde offre une API puissante compatible avec OpenAI, facilitant son intégration dans les projets IA.
  • Pour utiliser l'API, vous devez générer une clé à partir de la plateforme et configurer l'environnement dans Python.
  • L'utilisation de la bibliothèque Requests en Python vous permet de faire des requêtes POST pour interagir avec DeepSeek.
  • Il existe des options avancées telles que l'exécution locale du modèle et l'utilisation de streaming pour des réponses plus fluides.

API de recherche profonde

DeepSeek a révolutionné le monde de intelligence artificielle avec son modèle de langage avancé, permettant aux développeurs et aux entreprises de tirer parti de sa puissante API pour une variété de tâches traitement du langage naturel. Si vous êtes programmeur et que vous souhaitez intégrer DeepSeek dans vos projets, dans ce guide vous apprendrez étape par étape comment effectuer des appels à son API en utilisant Python. De l'obtention de la clé API à l'exécution du modèle localement, nous couvrirons tous les détails essentiels.

Avant de commencer, il est important de comprendre que DeepSeek propose une API compatible avec OpenAI, ce qui facilite grandement l’intégration dans des applications déjà conçues pour fonctionner avec des modèles tels que GPT. Cela signifie que si vous avez déjà de l’expérience avec OpenAI, la transition vers DeepSeek sera facile pour vous. Voyons maintenant comment tout configurer pour commencer à effectuer nos premiers appels API.

1. Obtenez la clé API DeepSeek

Pour commencer à utiliser l'API DeepSeek, la première chose dont vous avez besoin est un Clé API. Pour l'obtenir, suivez ces étapes :

  1. Accédez à la plateforme DeepSeek et connectez-vous à votre compte.
  2. Accédez à la section Clés API et cliquez sur « Générer une nouvelle clé ».
  3. Copiez la clé générée et stockez-la dans un endroit sûr, car vous en aurez besoin pour vous authentifier à chaque demande.
  4. Veuillez vous assurer que votre compte dispose de fonds disponibles, car DeepSeek nécessite une recharge initiale pour activer la clé.

2. Configurer l'environnement en Python

recherche profonde de python

Avant de faire quoi que ce soit demander à l'API, il faut configurer un environnement de développement Python. Pour ce faire, suivez ces étapes :

  Comment utiliser OneNote pour prendre des notes en cours ou en réunion

Installez Python

Si vous n'avez pas encore installé Python sur votre ordinateur, vous pouvez télécharger la dernière version à partir de python.org. Il est recommandé d'utiliser la version 3.8 ou supérieur.

Installer la bibliothèque de requêtes

La bibliothèque Demandes est essentiel pour envoyer des requêtes HTTP à l'API DeepSeek. Pour l'installer, utilisez la commande suivante :

demandes d'installation pip

Si vous avez plusieurs environnements Python installés, assurez-vous d'exécuter la commande dans le bon environnement.

3. Effectuez le premier appel à l'API DeepSeek

Une fois l’environnement configuré, nous pouvons effectuer notre premier appel API. Pour ce faire, nous allons créer un fichier appelé deepseek.py et nous écrirons le code suivant :

import requests API_KEY = "your_API_key" URL = "https://api.deepseek.com/v1/chat/completions" headers = { "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" } data = { "model": "deepseek-reasoner", "messages": [{"role": "user", "content": "Qu'est-ce que DeepSeek ?"}], "stream": False } response = requests. post(URL, headers=headers, json=data) print(response. json())

Ce code envoie un pregunta à DeepSeek et affiche la réponse dans la console. N'oubliez pas de remplacer votre_clé_api avec la clé obtenue précédemment.

4. Utilisation avancée de l'API

Réponses en streaming

Si vous souhaitez obtenir la réponse de manière simple, progressive Au lieu de tout recevoir en même temps, vous pouvez activer le mode streaming en modifiant la valeur de la clé courant dans le JSON de la requête à Vrai.

"stream": Vrai

Dialogue multi-tours

DeepSeek vous permet de conserver le contexte de la conversation en ajoutant des messages précédents dans le demander. Un exemple de dialogue fluide serait :

data = { "model": "deepseek-reasoner", "messages": [ {"role": "user", "content": "Expliquez-moi le concept de les réseaux de neurones"}, {"role": "assistant", "content": "Un réseau neuronal est un système de ..."}, {"role": "user", "content": "Et comment sont-ils formés ?"} ] }

5. Exécutez DeepSeek localement

Pour ceux qui préfèrent ne pas s'appuyer sur l'API et souhaitent exécuter le modèle sur leur propre ordinateur, DeepSeek propose des versions optimisées pour l'exécution locale. Certaines des options incluent :

  • Exécutez le modèle avec Ollama, un outil qui vous permet de charger des modèles d'IA directement sur votre machine.
  • Utiliser vLLM o SG Lang pour servir les modèles localement et réduire la latence des requêtes.
  OpenAI se positionne comme un acheteur potentiel si Google est contraint de vendre Chrome.

À installer Ollama et exécutez DeepSeek-R1, suivez ces étapes :

pip install ollama ollama exécuter deepseek-r1:8b

Cela téléchargera et exécutera la version 8B du modèle directement sur votre machine.

Avec ce guide, vous devriez avoir tout ce dont vous avez besoin pour commencer à intégrer DeepSeek dans vos projets Python. De la génération de votre clé API à l'exécution de votre modèle localement, vous pouvez désormais exploiter ce puissant outil d'IA pour répondez aux questions, générer du texte et même modèles de train personnalisés. À mesure que la plateforme évolue, il est recommandé de consulter la documentation officielle de DeepSeek pour rester à jour avec les dernières mises à jour et améliorations.