- DeepSeek piedāvā jaudīgu API, kas ir saderīga ar OpenAI, atvieglojot tā integrāciju projektos IA.
- Lai izmantotu API, platformā ir jāģenerē atslēga un jākonfigurē vide Pitons.
- Izmantojot Python pieprasījumu bibliotēku, varat veikt POST pieprasījumus, lai mijiedarbotos ar DeepSeek.
- Ir papildu iespējas, piemēram, modeļa lokāla izpilde un izmantošana straumēšanas šķidrākai reakcijai.
DeepSeek ir radījis revolūciju pasaulē mākslīgais intelekts ar savu uzlaboto valodas modeli, kas ļauj izstrādātājiem un uzņēmumiem izmantot tā jaudīgo API dažādiem uzdevumiem dabiskās valodas apstrāde. Ja esat programmētājs un vēlaties savos projektos integrēt DeepSeek, šajā rokasgrāmatā jūs soli pa solim uzzināsit, kā veikt izsaukumus uz tā API, izmantojot Python. No API atslēgas iegūšanas līdz modeļa lokālai palaišanai mēs apskatīsim visas būtiskās detaļas.
Pirms sākam, ir svarīgi saprast, ka DeepSeek piedāvā API, kas ir saderīgas ar OpenAI, kas padara to daudz vienkāršāku integrēšanu lietojumprogrammās, kas jau ir izstrādātas darbam ar tādiem modeļiem kā GPT. Tas nozīmē, ka, ja jums jau ir pieredze darbā ar OpenAI, pāreja uz DeepSeek jums būs vienkārša. Tagad apskatīsim, kā iestatīt visu, lai sāktu veikt pirmos API zvanus.
1. Iegūstiet DeepSeek API atslēgu
Lai sāktu lietot DeepSeek API, pirmā lieta, kas jums nepieciešama, ir a API atslēga. Lai to iegūtu, veiciet tālāk norādītās darbības.
- Piekļūstiet DeepSeek platformai un piesakieties savā kontā.
- Dodieties uz sadaļu API atslēgas un noklikšķiniet uz "Ģenerēt jaunu atslēgu".
- Nokopējiet ģenerēto atslēgu un glabājiet to drošā vietā, jo tā būs nepieciešama, lai katrā pieprasījumā autentificētos.
- Lūdzu, pārliecinieties, vai jūsu kontā ir pieejami līdzekļi, jo DeepSeek ir nepieciešams sākotnējais papildināšana, lai aktivizētu atslēgu.
2. Iestatiet vidi programmā Python
Pirms darīt kādu petīciju API, tas ir nepieciešams configurar Python izstrādes vide. Lai to izdarītu, veiciet tālāk norādītās darbības.
Instalējiet Python
Ja jūsu datorā vēl nav instalēts Python, varat lejupielādēt jaunāko versiju no python.org. Ieteicams izmantot versiju 3.8 vai jaunāka.
Instalējiet pieprasījumu bibliotēku
Bibliotēka pieprasījumi ir būtiska, lai nosūtītu HTTP pieprasījumus uz DeepSeek API. Lai to instalētu, izmantojiet šādu komandu:
pip instalēšanas pieprasījumi
Ja jums ir instalētas vairākas Python vides, noteikti palaidiet komandu pareizajā vidē.
3. Veiciet pirmo izsaukumu uz DeepSeek API
Kad vide ir iestatīta, mēs varam veikt pirmo API zvanu. Lai to izdarītu, mēs izveidosim failu ar nosaukumu deepseek.py un mēs uzrakstīsim šādu kodu:
importa pieprasījumi API_KEY = "your_API_key" URL = "https://api.deepseek.com/v1/chat/completions" headers = { "Autorizācija": f"Nesējs {API_KEY}", "Content-Type": "application/json" } data = { "modelis": "deepseek":ek telts": "Kas ir DeepSeek?"}], "straume": nepatiesa } atbilde = pieprasījumi. post(URL, headers=headers, json=dati) print(response. json())
Šis kods nosūta a jautājums uz DeepSeek un parāda atbildi konsolē. Atcerieties nomainīt jūsu_api_atslēga ar iepriekš iegūto atslēgu.
4. Advanced API Usage
Atbilžu straumēšana
Ja vēlaties saņemt atbildi vienkāršā veidā, progresīvs Tā vietā, lai to visu saņemtu uzreiz, varat aktivizēt straumēšanas režīmu, mainot atslēgas vērtību plūsma pieprasījuma JSON failā Patiess.
"straume": taisnība
Vairāku pagriezienu dialogs
DeepSeek ļauj uzturēt sarunas kontekstu, pievienojot iepriekšējās ziņas petīciju. Šķidra dialoga piemērs varētu būt:
dati = { "model": "deepseek-reasoner", "messages": [ {"role": "user", "content": "Paskaidrojiet man jēdzienu neironu tīkli"}, {"role": "asistents", "content": "Neironu tīkls ir sistēma ..."}, {"role": "user", "content": "Un kā viņi tiek apmācīti?"} ] }
5. Palaidiet DeepSeek lokāli
Tiem, kas nevēlas paļauties uz API un vēlas palaist modeli savā datorā, DeepSeek piedāvā versijas, kas optimizētas vietējai izpildei. Dažas no iespējām ietver:
- Palaidiet modeli ar Ollama, rīks, kas ļauj ielādēt AI modeļus tieši savā ierīcē.
- Izmantot vLLM o SGLang lai lokāli apkalpotu modeļus un samazinātu vaicājuma latentumu.
Lai instalētu Ollama un palaidiet DeepSeek-R1, veiciet šīs darbības:
pip install ollama ollama palaist deepseek-r1:8b
Tas lejupielādēs un palaiž versiju 8B modeli tieši savā mašīnā.
Izmantojot šo rokasgrāmatu, jums vajadzētu būt visam nepieciešamajam, lai sāktu integrēt DeepSeek savos Python projektos. Sākot ar API atslēgas ģenerēšanu un beidzot ar modeļa lokālu darbināšanu, tagad varat izmantot šo jaudīgo AI rīku atbildi uz jautājumiem, ģenerēt tekstu un pat apmācīt pielāgotus modeļus. Attīstoties platformai, ieteicams pārskatīt oficiālo DeepSeek dokumentāciju, lai būtu informēts par jaunākajiem atjauninājumiem un uzlabojumiem.
Kaislīgs rakstnieks par baitu pasauli un tehnoloģiju kopumā. Man patīk dalīties savās zināšanās rakstot, un tieši to es darīšu šajā emuārā, parādot visu interesantāko informāciju par sīkrīkiem, programmatūru, aparatūru, tehnoloģiju tendencēm un daudz ko citu. Mans mērķis ir palīdzēt jums vienkāršā un izklaidējošā veidā orientēties digitālajā pasaulē.

