Oleh Satnam Narang, Nick Miles

markettrack.id – LLM sumber terbuka yang dikenal sebagai DeepSeek telah menarik banyak perhatian dalam beberapa minggu terakhir dengan dirilisnya DeepSeek V3 dan DeepSeek R1.

DeepSeek biasanya merujuk pada model bahasa besar (LLM) yang diproduksi oleh perusahaan Tiongkok bernama DeepSeek, yang didirikan pada tahun 2023 oleh Liang Wenfeng.

Apa itu model bahasa besar?

Model bahasa besar, atau LLM, adalah model pembelajaran mesin yang telah dilatih sebelumnya pada korpus data besar, yang memungkinkannya merespons masukan pengguna menggunakan respons alami seperti manusia.

Mengapa ada begitu banyak peminat pada DeepSeek LLM?

Pada bulan Januari 2025, DeepSeek menerbitkan dua LLM baru: DeepSeek V3 dan DeepSeek R1. Ketertarikan terhadap model-model ini ada dua: pertama, model-model ini bersifat sumber terbuka, yang berarti siapa pun dapat mengunduh dan menjalankan LLM ini di komputer lokal mereka dan, kedua, model-model ini dilaporkan dilatih menggunakan perangkat keras yang kurang bertenaga, yang diyakini sebagai terobosan dalam bidang ini karena terungkap bahwa model-model tersebut dapat dikembangkan dengan biaya yang lebih rendah.

Apa perbedaan antara DeepSeek V3 dan DeepSeek R1?

DeepSeek V3 adalah LLM yang menggunakan teknik yang disebut campuran pakar (MoE) yang memerlukan daya komputasi lebih sedikit karena hanya memuat “pakar” yang diperlukan untuk menanggapi perintah.

Teknik ini juga menerapkan teknik baru yang disebut perhatian laten multi-kepala (MLA), yang secara signifikan mengurangi penggunaan memori dan kinerja selama pelatihan dan inferensi (proses menghasilkan respons dari masukan pengguna).

Selain MoE dan MLA, DeepSeek R1 menerapkan arsitektur prediksi multitoken (MTP) yang pertama kali diperkenalkan oleh Meta. Alih-alih hanya memprediksi kata berikutnya setiap kali model dijalankan, DeepSeek R1 memprediksi dua token berikutnya secara paralel.

DeepSeek R1 adalah LLM tingkat lanjut yang memanfaatkan penalaran, yang mencakup rantai pemikiran (CoT), yang mengungkapkan kepada pengguna akhir bagaimana ia menanggapi setiap perintah. Menurut DeepSeek, kinerja model R1-nya “menyaingi” model o1 OpenAI.

Apa persyaratan minimum untuk menjalankan model DeepSeek secara lokal?

Tergantung. DeepSeek R1 memiliki 671 miliar parameter dan memerlukan beberapa GPU mahal untuk menjalankannya.

Ada beberapa versi model yang disuling, mulai dari 1,5 miliar parameter, hingga 70 miliar parameter. Model yang disuling ini dapat berjalan pada perangkat keras kelas konsumen.

Oleh karena itu, semakin rendah parameternya, semakin sedikit sumber daya yang dibutuhkan, dan semakin tinggi parameternya, semakin banyak sumber daya yang dibutuhkan.

Jumlah parameter juga memengaruhi bagaimana model akan merespons perintah dari pengguna. Sebagian besar komputer modern, termasuk laptop yang memiliki RAM 8 hingga 16 gigabita, mampu menjalankan LLM terdistilasi dengan 7 miliar atau 8 miliar parameter.

Apa yang membedakan DeepSeek dari LLM lainnya?

Pengujian tolok ukur yang dilakukan oleh DeepSeek menunjukkan bahwa model DeepSeek R1 setara dengan banyak model yang ada dari OpenAI, Claude, dan Meta pada saat peluncurannya.

Selain itu, banyak perusahaan di bidang ini belum membuka sumber LLM mereka, yang memberi DeepSeek keuntungan yang unik.

Terakhir, pendekatan CoT-nya bertele-tele, mengungkap lebih banyak nuansa yang terlibat dalam cara LLM menanggapi perintah dibandingkan dengan model penalaran lainnya.

Model terbaru dari OpenAI (o3) dan Google (Gemini 2.0 Flash Thinking) mengungkap penalaran tambahan kepada pengguna akhir, meskipun dengan cara yang tidak terlalu bertele-tele.

Apa itu model perbatasan?

Model frontier mengacu pada LLM tercanggih yang tersedia yang mencakup penalaran kompleks dan kemampuan pemecahan masalah. Saat ini, model o1 dan o3 OpenAI beserta DeepSeek R1 adalah satu-satunya model frontier yang tersedia.

DeepSeek dibuat oleh perusahaan Tiongkok. Apakah aman untuk digunakan?

Tergantung. Menggunakan versi sumber terbuka DeepSeek pada suatu sistem kemungkinan lebih aman dibandingkan menggunakan situs web atau aplikasi seluler DeepSeek, karena tidak memerlukan koneksi internet untuk berfungsi.

Namun, ada masalah privasi dan keamanan yang nyata terkait penggunaan DeepSeek, khususnya melalui situs web dan aplikasi selulernya yang tersedia di iOS dan Android.

Apa saja kekhawatiran seputar penggunaan situs web dan aplikasi seluler DeepSeek?

Pengungkapan pengumpulan data DeepSeek diuraikan dalam kebijakan privasinya , yang menentukan jenis data yang dikumpulkan saat menggunakan situs web atau aplikasi selulernya.

Penting untuk dicatat bahwa data disimpan di server aman di Republik Rakyat Tiongkok, meskipun ketentuan penyimpanannya tidak jelas.

Karena DeepSeek beroperasi di Tiongkok, ketentuan layanannya tunduk pada hukum Tiongkok, yang berarti bahwa perlindungan privasi konsumen, seperti GDPR UE dan peraturan global serupa, tidak berlaku.

Jika Anda memilih untuk mengunduh model DeepSeek dan menjalankannya secara lokal, Anda menghadapi risiko yang lebih rendah terkait privasi data.

Apakah DeepSeek telah dilarang di mana pun atau sedang ditinjau untuk kemungkinan larangan?

Hingga 13 Februari, beberapa negara telah melarang atau sedang menyelidiki DeepSeek atas potensi larangan, termasuk Italia , Taiwan , Korea Selatan , dan Australia , serta beberapa negara bagian di AS telah melarang DeepSeek dari perangkat pemerintah termasuk Texas , New York , Virginia beserta beberapa entitas pemerintah federal AS termasuk Departemen Pertahanan AS, Angkatan Laut AS , dan Kongres AS . Daftar ini kemungkinan akan terus bertambah dalam beberapa minggu dan bulan mendatang.

Apakah Tenable memperhatikan masalah keselamatan dan keamanan seputar LLM seperti DeepSeek?

Ya, Tenable Research secara aktif meneliti LLM, termasuk DeepSeek, dan akan berbagi lebih banyak temuan kami dalam publikasi mendatang di blog Tenable.

SF-Admin