Cum să efectuați apeluri API DeepSeek în Python: un ghid complet

Ultima actualizare: 17/02/2025
Autorul: Isaac
  • DeepSeek oferă un API puternic compatibil cu OpenAI, facilitând integrarea acestuia în proiecte IA.
  • Pentru a utiliza API-ul, trebuie să generați o cheie de pe platformă și să configurați mediul în Piton.
  • Utilizarea bibliotecii de solicitări din Python vă permite să faceți solicitări POST pentru a interacționa cu DeepSeek.
  • Există opțiuni avansate, cum ar fi execuția locală a modelului și utilizarea de streaming pentru răspunsuri mai fluide.

deepseek api

DeepSeek a revoluționat lumea inteligența artificială cu modelul său de limbaj avansat, permițând dezvoltatorilor și companiilor să-și folosească API-ul puternic pentru o varietate de sarcini procesarea limbajului natural. Dacă sunteți programator și doriți să integrați DeepSeek în proiectele dvs., în acest ghid veți învăța pas cu pas cum să efectuați apeluri către API-ul său folosind Python. De la obținerea cheii API până la rularea modelului la nivel local, vom acoperi toate detaliile esențiale.

Înainte de a începe, este important să înțelegem că DeepSeek oferă un API compatibil cu OpenAI, ceea ce facilitează integrarea în aplicații deja concepute pentru a funcționa cu modele precum GPT. Aceasta înseamnă că, dacă aveți deja experiență de lucru cu OpenAI, trecerea la DeepSeek vă va fi ușoară. Acum, să vedem cum să setăm totul pentru a începe să facem primele noastre apeluri API.

1. Obțineți cheia API DeepSeek

Pentru a începe să utilizați API-ul DeepSeek, primul lucru de care aveți nevoie este a cheie API. Pentru a-l obține, urmați acești pași:

  1. Accesați platforma DeepSeek și conectați-vă la contul dvs.
  2. Accesați secțiunea Chei API și faceți clic pe „Generează cheie nouă”.
  3. Copiați cheia generată și stocați-o într-un loc sigur, deoarece veți avea nevoie de ea pentru a vă autentifica în fiecare solicitare.
  4. Vă rugăm să vă asigurați că contul dvs. are fonduri disponibile, deoarece DeepSeek necesită o reîncărcare inițială pentru a activa cheia.

2. Configurați mediul în Python

python deepseek

Înainte de a face orice petiție la API, este necesar înființat un mediu de dezvoltare Python. Pentru a face acest lucru, urmați acești pași:

  5 cele mai bune programe pentru a învăța limba engleză

Instalați Python

Dacă nu aveți încă instalat Python pe computer, puteți descărca cea mai recentă versiune de la python.org. Este recomandat să utilizați versiunea 3.8 sau mai mare.

Instalați biblioteca de solicitări

Bibliotecă Cereri este esențial pentru trimiterea solicitărilor HTTP către API-ul DeepSeek. Pentru a-l instala, utilizați următoarea comandă:

solicitări de instalare pip

Dacă aveți mai multe medii Python instalate, asigurați-vă că executați comanda în mediul corect.

3. Efectuați primul apel către API-ul DeepSeek

Odată ce mediul este configurat, putem efectua primul apel API. Pentru a face acest lucru, vom crea un fișier numit deepseek.py si vom scrie urmatorul cod:

solicitări de import API_KEY = "your_API_key" URL = "https://api.deepseek.com/v1/chat/completions" headers = { "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" } data = { "model": "deepseek-reason":"{"messages.deepseek:":" este DeepSeek?"}], „stream”: Fals } răspuns = solicitări. post(URL, headers=headers, json=data) print(response. json())

Acest cod trimite un întrebare la DeepSeek și afișează răspunsul în consolă. Amintiți-vă să înlocuiți cheia_api cu cheia obținută anterior.

4. Utilizare avansată API

Răspunsuri în flux

Dacă doriți să obțineți răspunsul într-un mod simplu, progresiv În loc să le primiți pe toate odată, puteți activa modul de streaming schimbând valoarea cheii curent în JSON al solicitării către Adevărat.

„stream”: Adevărat

Dialog cu mai multe ture

DeepSeek vă permite să mențineți contextul conversației adăugând mesaje anterioare în petiție. Un exemplu de dialog fluid ar fi:

data = { "model": "deepseek-reasoner", "messages": [ {"role": "user", "content": "Explicați-mi conceptul de rețelele neuronale"}, {"rol": "asistent", "conținut": "O rețea neuronală este un sistem de..."}, {"rol": "utilizator", "conținut": "Și cum sunt ei instruiți?"} ] }

5. Rulați DeepSeek local

Pentru cei care preferă să nu se bazeze pe API și doresc să ruleze modelul pe propriul computer, DeepSeek oferă versiuni optimizate pentru execuție locală. Unele dintre opțiuni includ:

  • Rulați modelul cu Ollama, un instrument care vă permite să încărcați modele AI direct pe mașina dvs.
  • Folosi vLLM o SGLang pentru a servi modele la nivel local și pentru a reduce latența interogărilor.
  Sfaturi pentru dezactivarea etichetării geografice a fotografiilor pe iPhone și iPad

Pentru instalare Ollama și rulați DeepSeek-R1, urmați acești pași:

pip install ollama ollama rulați deepseek-r1:8b

Aceasta va descărca și rula versiunea 8B a modelului direct pe mașina dvs.

Cu acest ghid, ar trebui să aveți tot ce aveți nevoie pentru a începe integrarea DeepSeek în proiectele dvs. Python. De la generarea cheii API până la rularea modelului local, acum puteți utiliza acest instrument puternic AI pentru Răspundeți la întrebări, genera text și chiar tren modele personalizate. Pe măsură ce platforma evoluează, se recomandă să revizuiți documentația oficială DeepSeek pentru a fi la curent cu cele mai recente actualizări și îmbunătățiri.