- Pencarian Mendalam menawarkan API yang kuat yang kompatibel dengan OpenAI, memfasilitasi integrasinya ke dalam proyek-proyek IA.
- Untuk menggunakan API, Anda perlu membuat kunci dari platform dan mengonfigurasi lingkungan di Ular sanca.
- Menggunakan pustaka Permintaan di Python memungkinkan Anda membuat permintaan POST untuk berinteraksi dengan DeepSeek.
- Ada opsi lanjutan seperti eksekusi lokal model dan penggunaan Streaming untuk respon yang lebih lancar.
DeepSeek telah merevolusi dunia kecerdasan buatan dengan model bahasa yang canggih, memungkinkan pengembang dan bisnis untuk memanfaatkan API yang kuat untuk berbagai tugas pemrosesan bahasa alami. Jika Anda seorang programmer dan ingin mengintegrasikan DeepSeek ke dalam proyek Anda, dalam panduan ini Anda akan mempelajari langkah demi langkah cara membuat panggilan ke API-nya menggunakan Python. Dari mendapatkan kunci API hingga menjalankan model secara lokal, kami akan membahas semua detail penting.
Sebelum kita mulai, penting untuk memahami bahwa DeepSeek menawarkan API yang kompatibel dengan OpenAI, yang membuatnya lebih mudah untuk diintegrasikan ke dalam aplikasi yang sudah dirancang untuk bekerja dengan model seperti GPT. Ini berarti jika Anda sudah memiliki pengalaman bekerja dengan OpenAI, transisi ke DeepSeek akan mudah bagi Anda. Sekarang, mari kita lihat cara menyiapkan semuanya untuk mulai membuat panggilan API pertama kita.
1. Dapatkan kunci API DeepSeek
Untuk mulai menggunakan DeepSeek API, hal pertama yang Anda perlukan adalah Kunci API. Untuk mendapatkannya, ikuti langkah-langkah berikut:
- Akses platform DeepSeek dan masuk ke akun Anda.
- Buka bagian Kunci API dan klik “Hasilkan Kunci Baru”.
- Salin kunci yang dihasilkan dan simpan di tempat yang aman, karena Anda akan memerlukannya untuk mengautentikasi diri Anda dalam setiap permintaan.
- Pastikan akun Anda memiliki dana yang tersedia, karena DeepSeek memerlukan pengisian ulang awal untuk mengaktifkan kunci.
2. Siapkan lingkungan dalam Python
Sebelum melakukan apa pun petisi ke API itu perlu configurar lingkungan pengembangan Python. Untuk melakukan ini, ikuti langkah-langkah berikut:
Instal Python
Jika Anda belum menginstal Python di komputer Anda, Anda dapat mengunduh versi terbaru dari python.org. Disarankan untuk menggunakan versi 3.8 atau lebih tinggi.
Instal pustaka Permintaan
Perpustakaan Permintaan penting untuk mengirim permintaan HTTP ke API DeepSeek. Untuk menginstalnya, gunakan perintah berikut:
permintaan instalasi pip
Jika Anda menginstal beberapa lingkungan Python, pastikan Anda menjalankan perintah di lingkungan yang benar.
3. Lakukan panggilan pertama ke DeepSeek API
Setelah lingkungan disiapkan, kita dapat membuat panggilan API pertama kita. Untuk melakukan ini, kita akan membuat file bernama deepseek.py dan kita akan menulis kode berikut:
import permintaan API_KEY = "your_API_key" URL = "https://api.deepseek.com/v1/chat/completions" headers = { "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" } data = { "model": "deepseek-reasoner", "messages": [{"role": "user", "content": "Apa itu DeepSeek?"}], "stream": False } response = requests.post(URL, headers=headers, json=data) print(response.json())
Kode ini mengirimkan pertanyaan ke DeepSeek dan menampilkan respons di konsol. Ingat untuk mengganti kunci_api_anda dengan kunci yang diperoleh sebelumnya.
4. Penggunaan API Lanjutan
Tanggapan streaming
Jika Anda ingin mendapatkan jawaban dengan cara yang sederhana, progresif Daripada menerima semuanya sekaligus, Anda dapat mengaktifkan mode streaming dengan mengubah nilai kunci aliran dalam JSON permintaan ke Benar.
"aliran": Benar
Dialog multi-giliran
DeepSeek memungkinkan Anda mempertahankan konteks percakapan dengan menambahkan pesan sebelumnya di petisi. Contoh dialog yang lancar adalah:
data = { "model": "deepseek-reasoner", "messages": [ {"role": "user", "content": "Jelaskan padaku konsep jaringan saraf"}, {"role": "assistant", "content": "Jaringan saraf adalah sistem ..."}, {"role": "user", "content": "Dan bagaimana mereka dilatih?"} ] }
5. Jalankan DeepSeek secara lokal
Bagi mereka yang memilih untuk tidak bergantung pada API dan ingin menjalankan model di komputer mereka sendiri, DeepSeek menawarkan versi yang dioptimalkan untuk eksekusi lokal. Beberapa pilihannya meliputi:
- Jalankan model dengan Ollama, alat yang memungkinkan Anda memuat model AI langsung ke mesin Anda.
- Usar vLLM o SGLang untuk melayani model secara lokal dan mengurangi latensi kueri.
Untuk menginstal Ollama dan jalankan DeepSeek-R1, ikuti langkah-langkah berikut:
pip instal ollama ollama jalankan deepseek-r1:8b
Ini akan mengunduh dan menjalankan versi 8B model langsung ke mesin Anda.
Dengan panduan ini, Anda akan memiliki semua yang dibutuhkan untuk mulai mengintegrasikan DeepSeek ke dalam proyek Python Anda. Mulai dari membuat kunci API hingga menjalankan model Anda secara lokal, kini Anda dapat memanfaatkan alat AI canggih ini untuk jawab pertanyaan, menghasilkan teks e incluso melatih model khusus. Seiring berkembangnya platform, disarankan untuk meninjau dokumentasi resmi DeepSeek agar selalu mengetahui pembaruan dan peningkatan terkini.
Penulis yang bersemangat tentang dunia byte dan teknologi secara umum. Saya suka berbagi ilmu melalui tulisan, dan itulah yang akan saya lakukan di blog ini, menunjukkan kepada Anda semua hal paling menarik tentang gadget, perangkat lunak, perangkat keras, tren teknologi, dan banyak lagi. Tujuan saya adalah membantu Anda menavigasi dunia digital dengan cara yang sederhana dan menghibur.

