- DeepSeek oferă un API puternic compatibil cu OpenAI, facilitând integrarea acestuia în proiecte IA.
- Pentru a utiliza API-ul, trebuie să generați o cheie de pe platformă și să configurați mediul în Piton.
- Utilizarea bibliotecii de solicitări din Python vă permite să faceți solicitări POST pentru a interacționa cu DeepSeek.
- Există opțiuni avansate, cum ar fi execuția locală a modelului și utilizarea de streaming pentru răspunsuri mai fluide.
DeepSeek a revoluționat lumea inteligența artificială cu modelul său de limbaj avansat, permițând dezvoltatorilor și companiilor să-și folosească API-ul puternic pentru o varietate de sarcini procesarea limbajului natural. Dacă sunteți programator și doriți să integrați DeepSeek în proiectele dvs., în acest ghid veți învăța pas cu pas cum să efectuați apeluri către API-ul său folosind Python. De la obținerea cheii API până la rularea modelului la nivel local, vom acoperi toate detaliile esențiale.
Înainte de a începe, este important să înțelegem că DeepSeek oferă un API compatibil cu OpenAI, ceea ce facilitează integrarea în aplicații deja concepute pentru a funcționa cu modele precum GPT. Aceasta înseamnă că, dacă aveți deja experiență de lucru cu OpenAI, trecerea la DeepSeek vă va fi ușoară. Acum, să vedem cum să setăm totul pentru a începe să facem primele noastre apeluri API.
1. Obțineți cheia API DeepSeek
Pentru a începe să utilizați API-ul DeepSeek, primul lucru de care aveți nevoie este a cheie API. Pentru a-l obține, urmați acești pași:
- Accesați platforma DeepSeek și conectați-vă la contul dvs.
- Accesați secțiunea Chei API și faceți clic pe „Generează cheie nouă”.
- Copiați cheia generată și stocați-o într-un loc sigur, deoarece veți avea nevoie de ea pentru a vă autentifica în fiecare solicitare.
- Vă rugăm să vă asigurați că contul dvs. are fonduri disponibile, deoarece DeepSeek necesită o reîncărcare inițială pentru a activa cheia.
2. Configurați mediul în Python
Înainte de a face orice petiție la API, este necesar înființat un mediu de dezvoltare Python. Pentru a face acest lucru, urmați acești pași:
Instalați Python
Dacă nu aveți încă instalat Python pe computer, puteți descărca cea mai recentă versiune de la python.org. Este recomandat să utilizați versiunea 3.8 sau mai mare.
Instalați biblioteca de solicitări
Bibliotecă Cereri este esențial pentru trimiterea solicitărilor HTTP către API-ul DeepSeek. Pentru a-l instala, utilizați următoarea comandă:
solicitări de instalare pip
Dacă aveți mai multe medii Python instalate, asigurați-vă că executați comanda în mediul corect.
3. Efectuați primul apel către API-ul DeepSeek
Odată ce mediul este configurat, putem efectua primul apel API. Pentru a face acest lucru, vom crea un fișier numit deepseek.py si vom scrie urmatorul cod:
solicitări de import API_KEY = "your_API_key" URL = "https://api.deepseek.com/v1/chat/completions" headers = { "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" } data = { "model": "deepseek-reason":"{"messages.deepseek:":" este DeepSeek?"}], „stream”: Fals } răspuns = solicitări. post(URL, headers=headers, json=data) print(response. json())
Acest cod trimite un întrebare la DeepSeek și afișează răspunsul în consolă. Amintiți-vă să înlocuiți cheia_api cu cheia obținută anterior.
4. Utilizare avansată API
Răspunsuri în flux
Dacă doriți să obțineți răspunsul într-un mod simplu, progresiv În loc să le primiți pe toate odată, puteți activa modul de streaming schimbând valoarea cheii curent în JSON al solicitării către Adevărat.
„stream”: Adevărat
Dialog cu mai multe ture
DeepSeek vă permite să mențineți contextul conversației adăugând mesaje anterioare în petiție. Un exemplu de dialog fluid ar fi:
data = { "model": "deepseek-reasoner", "messages": [ {"role": "user", "content": "Explicați-mi conceptul de rețelele neuronale"}, {"rol": "asistent", "conținut": "O rețea neuronală este un sistem de..."}, {"rol": "utilizator", "conținut": "Și cum sunt ei instruiți?"} ] }
5. Rulați DeepSeek local
Pentru cei care preferă să nu se bazeze pe API și doresc să ruleze modelul pe propriul computer, DeepSeek oferă versiuni optimizate pentru execuție locală. Unele dintre opțiuni includ:
- Rulați modelul cu Ollama, un instrument care vă permite să încărcați modele AI direct pe mașina dvs.
- Folosi vLLM o SGLang pentru a servi modele la nivel local și pentru a reduce latența interogărilor.
Pentru instalare Ollama și rulați DeepSeek-R1, urmați acești pași:
pip install ollama ollama rulați deepseek-r1:8b
Aceasta va descărca și rula versiunea 8B a modelului direct pe mașina dvs.
Cu acest ghid, ar trebui să aveți tot ce aveți nevoie pentru a începe integrarea DeepSeek în proiectele dvs. Python. De la generarea cheii API până la rularea modelului local, acum puteți utiliza acest instrument puternic AI pentru Răspundeți la întrebări, genera text și chiar tren modele personalizate. Pe măsură ce platforma evoluează, se recomandă să revizuiți documentația oficială DeepSeek pentru a fi la curent cu cele mai recente actualizări și îmbunătățiri.
Scriitor pasionat despre lumea octeților și a tehnologiei în general. Îmi place să îmi împărtășesc cunoștințele prin scriere și asta voi face în acest blog, să vă arăt toate cele mai interesante lucruri despre gadgeturi, software, hardware, tendințe tehnologice și multe altele. Scopul meu este să vă ajut să navigați în lumea digitală într-un mod simplu și distractiv.

