Assalamu‘alaikum wr. wb.
Tahukah Anda? Bahwa di China, ada Model AI (LLM) yang merupakan Pesaing dari ChatGPT OpenAI dan Google Gemini? Perkenalkan, namanya DeepSeek yang merupakan salah satu Generatif AI yang mirip dan tak kalah bagusnya dengan ChatGPT.
Sumber Artikel : Wikipedia.org, AP News, Tekno.Kompas.com, Liputan6.com, dan Tirto.id
BERITA
Sumber : Finance.Detik.com dan Internasional.Kontan.co.id
Nilai saham Nvidia, perusahaan teknologi raksasa asal Amerika Serikat, merosot tajam akibat meningkatnya popularitas aplikasi kecerdasan buatan (AI) asal Tiongkok, DeepSeek. Nilai pasar Nvidia anjlok hampir US$ 600 miliar atau setara dengan Rp 9,73 kuadriliun (kurs Rp 16.219 per dolar AS) pada Senin (27/1).
Menurut laporan Bloomberg, kekayaan pendiri Nvidia, Jensen Huang, juga mengalami penurunan drastis sebesar US$ 20,1 miliar atau sekitar 20% dari total kekayaannya. Penurunan ini terjadi menyusul aksi jual besar-besaran di sektor teknologi, dipicu oleh sorotan yang semakin meningkat terhadap keberhasilan pengembang DeepSeek, yang mengguncang pasar saham dunia.
Tak hanya Nvidia, dampak serupa juga dirasakan oleh sejumlah miliarder teknologi lainnya. Larry Ellison dari Oracle Corp. kehilangan US$ 22,6 miliar, setara dengan 12% dari total kekayaannya. Sementara itu, Michael Dell mengalami penurunan kekayaan sebesar US$ 13 miliar, dan Changpeng Zhao dari Binance menyusut US$ 12,1 miliar.
DeepSeek, Chatbot AI asal Tiongkok, diluncurkan dengan biaya pengembangan yang lebih rendah dibandingkan para pesaingnya. Meski baru dirilis pekan lalu, aplikasi ini langsung menjadi aplikasi gratis paling banyak diunduh di Amerika Serikat.
Kehadiran DeepSeek yang mendadak memengaruhi pasar saham secara signifikan. Pada hari Senin, nilai saham perusahaan teknologi yang terkait dengan AI, termasuk Nvidia, Microsoft, dan Google, mengalami penurunan tajam. Dalam pernyataannya, DeepSeek mengungkapkan bahwa mereka sementara waktu akan membatasi pendaftaran pengguna akibat serangan berbahaya berskala besar pada perangkat lunaknya.
Keunggulan DeepSeek yang dikembangkan dengan biaya lebih rendah memunculkan diskusi mengenai masa depan dominasi AI di Amerika Serikat serta besarnya investasi yang akan dilakukan oleh perusahaan-perusahaan teknologi AS untuk tetap kompetitif.
Pekan lalu, OpenAI bergabung dengan sejumlah perusahaan lain untuk berkomitmen menginvestasikan US$ 500 miliar (Rp 8,1 kuadriliun) dalam pengembangan infrastruktur AI di Amerika Serikat. Presiden AS, Donald Trump, menyebut inisiatif ini sebagai proyek infrastruktur AI terbesar dalam sejarah yang bertujuan memastikan masa depan teknologi tetap berada di AS.
Sementara itu, DeepSeek didukung oleh model open-source bernama DeepSeek-V3, yang menurut laporan dilatih dengan biaya sekitar US$ 6 Juta (Rp 97 miliar), jauh lebih rendah dibandingkan anggaran yang digunakan oleh pesaingnya. Namun, klaim ini dipertanyakan oleh pihak lain di bidang AI, yang menyebut bahwa pengembangan model tersebut memanfaatkan teknologi dan kode open-source yang sudah tersedia, sehingga dapat diakses, dimodifikasi, dan didistribusikan secara gratis.
Kemunculan DeepSeek terjadi di tengah pembatasan AS terhadap penjualan teknologi chip canggih untuk AI ke Tiongkok. Akibatnya, para pengembang di Tiongkok berinovasi dengan pendekatan baru untuk menciptakan teknologi AI tanpa bergantung pada chip canggih impor. Hasilnya, mereka berhasil mengembangkan model AI yang memerlukan daya komputasi lebih rendah dengan biaya yang jauh lebih murah, membuka potensi untuk mengubah lanskap industri AI secara signifikan.
Setelah peluncuran DeepSeek-R1 awal bulan ini, teknologi tersebut menunjukkan kinerja yang sebanding dengan model AI terbaru OpenAI dalam tugas seperti matematika, pemrograman, dan pemrosesan bahasa. Popularitas mendadak DeepSeek mengguncang pasar saham global, terutama di Amerika dan Eropa.
Di pasar saham AS, nilai saham Nvidia jatuh 16,9%, sementara Broadcom merosot 17,4%. Perusahaan teknologi besar lainnya juga mengalami penurunan, seperti Microsoft yang turun 2,14% dan Alphabet, induk Google, yang kehilangan lebih dari 4% nilainya. Sementara itu, di Eropa, produsen peralatan chip asal Belanda, ASML, mengalami penurunan saham lebih dari 7%, dan Siemens Energy, yang memproduksi perangkat keras terkait AI, kehilangan seperlima dari nilai sahamnya dalam perdagangan hari Senin.
TENTANG DEEPSEEK AI
Sumber Artikel : Wikipedia.org, Tekno.Kompas.com, Liputan6.com, Detik.com (Edu), dan Detik.com (Jogja)
A. Pengertian DeepSeek AI
DeepSeek (深度求索 / Shēndù Qiúsuǒ) adalah Perusahaan Rintisan berbasis Kecerdasan Buatan (AI) yang didirikan oleh Liang Wenfeng, salah satu pendiri dana lindung nilai kuantitatif High-Flyer. Berkantor pusat di Hangzhou, Tiongkok, perusahaan ini pertama kali didirikan pada Juli 2023 dan secara resmi dirilis secara Global pada Tanggal 27 Januari 2025 (27 Rajab 1446 H). Pendanaan DeepSeek berasal dari Universitas Zhejiang melalui dana lindung nilai.
DeepSeek merupakan Chatbot bertenaga AI yang gratis dengan penampilan dan cara kerja mirip dengan ChatGPT. Artinya, DeepSeek digunakan untuk banyak tugas yang sama, meskipun seberapa baik kerjanya dibandingkan dengan para pesaingnya masih diperdebatkan.
Menurut laporan dari MIT Technology Review, DeepSeek telah membeli "Stok Chip Nvidia A100," sebuah Chip yang sebelumnya dilarang diekspor ke Tiongkok. Cip ini diduga menjadi komponen utama dalam platform AI mereka. DeepSeek disebut-sebut sebagai terobosan di dunia AI, dengan keunggulan utamanya berupa kemampuan pembelajaran yang lebih baik dan penggunaan memori yang lebih efisien.
Fokus utama DeepSeek adalah pada pengembangan model bahasa besar sumber terbuka (LLM). Ini berarti bahwa kode mereka tersedia secara bebas untuk digunakan, dimodifikasi, atau diperiksa oleh siapa saja, termasuk izin untuk mengakses dan memanfaatkan kode sumber maupun dokumen desain guna mendukung pengembangan lebih lanjut.
Platform ini dirancang untuk menjalankan tugas penalaran pada level yang setara dengan ChatGPT. Namun, proses pengembangan DeepSeek diklaim lebih hemat biaya dan menggunakan lebih sedikit sumber daya dibandingkan kompetitornya. Selain itu, DeepSeek telah merilis chatbot gratis yang dikabarkan memiliki kemampuan yang bahkan melampaui ChatGPT.
DeepSeek-V3 dikembangkan untuk membantu pengguna dalam berbagai aspek, mulai dari menjawab pertanyaan sehari-hari di berbagai bidang hingga menyelesaikan tugas kompleks yang melibatkan matematika dan logika. Model ini dianggap sebagai pesaing utama GPT-4o.
Sementara itu, DeepSeek-R1 adalah model AI yang diklaim memiliki efisiensi lebih tinggi dibandingkan model AI lainnya di pasaran. Dalam situs resminya, DeepSeek menyatakan bahwa model ini mampu bersaing dengan model AI o1 dari OpenAI.
Di situs resminya, DeepSeek mengklaim bahwa model AI mereka unggul dibandingkan beberapa model AI lain yang ada di pasaran berdasarkan sejumlah tolok ukur kecerdasan buatan populer.
Sebagai contoh, dalam benchmark uji pemahaman konteks (DROP, 3-shot F1), DeepSeek-V3 mencatat skor performa sebesar 91,6 poin. Angka ini lebih tinggi dibandingkan dengan Llama 3.1 (88,7), Claude 3.5 (88,3), dan GPT-4o (83,7).
Untuk pengujian penyelesaian soal matematika tingkat internasional seperti AIME 2024, MATH-500, dan CNMO 2024, DeepSeek-V3 memperoleh skor masing-masing 39,2, 90,2, dan 43,2. Sebagai perbandingan, Llama 3.1 mencatat skor 23,3, 73,8, dan 6,8, sementara Claude-3.5 mendapatkan 16,0, 78,3, dan 13,1. Adapun GPT-4o memperoleh skor 9,3, 74,6, dan 10,8 pada benchmark yang sama.
Selain itu, DeepSeek juga mengklaim bahwa model AI DeepSeek-R1 memiliki performa lebih baik dibandingkan model o1 milik OpenAI berdasarkan beberapa tolok ukur pihak ketiga.
B. Kelebihan dan Kekurangan dari DeepSeek AI
DeepSeek AI, chatbot berbasis kecerdasan buatan asal China, kini muncul sebagai pesaing utama ChatGPT dengan berbagai keunggulan yang menonjol. Dengan biaya operasional yang lebih rendah serta teknologi open-source, DeepSeek menarik perhatian global sebagai alternatif yang lebih ekonomis bagi individu maupun bisnis. Kemampuannya dalam bidang pemrograman, analisis data, serta pemecahan masalah logika semakin memperkuat posisinya di tengah dominasi teknologi AI dari Amerika Serikat.
Meski demikian, kesuksesan DeepSeek juga disertai dengan sejumlah tantangan. Sebagai teknologi yang dikembangkan di China, platform ini menghadapi isu terkait sensor politik dan privasi data. Kendati demikian, kehadiran DeepSeek menandai langkah penting dalam persaingan global AI, membuka peluang bagi inovasi yang lebih luas dan inklusif. Berikut adalah beberapa Kelebihan dan Kekurangan dari DeepSeek AI.
1. Kelebihan DeepSeek AI
DeepSeek AI memiliki sejumlah keunggulan yang menjadikannya menarik bagi banyak pengguna. Salah satu daya tarik utamanya adalah biaya pengembangan yang hanya mencapai $5,6 juta, jauh lebih rendah dibandingkan ChatGPT yang memerlukan investasi hingga miliaran dolar. Selain itu, paket langganan DeepSeek dimulai dari hanya $0,50 per bulan, membuatnya lebih terjangkau bagi pengguna di seluruh dunia.
Keunggulan lain dari DeepSeek terletak pada kemampuan analitisnya yang tinggi. AI ini dirancang untuk menangani tugas-tugas kompleks seperti pemrograman, matematika, dan analisis data. Dalam kompetisi pemrograman seperti Codeforces, DeepSeek bahkan mampu mengungguli GPT-4 dan Llama 3.1.
Selain itu, DeepSeek mengadopsi arsitektur Mixture-of-Experts (MoE), yang memungkinkan model ini hanya mengaktifkan parameter yang relevan untuk tugas tertentu. Teknologi ini meningkatkan efisiensi pemrosesan data, sehingga dengan 671 miliar parameter, DeepSeek dapat mencapai performa yang sangat optimal.
Keunggulan lainnya adalah sifatnya yang open-source. Berbeda dengan ChatGPT yang eksklusif, DeepSeek dapat diakses, dimodifikasi, dan dikembangkan lebih lanjut oleh komunitas global.
Dengan berbagai kelebihan ini, DeepSeek menjadi pilihan menarik bagi mereka yang mencari solusi AI yang efisien, terjangkau, dan tetap bertenaga.
2. Kekurangan DeepSeek AI
Meskipun memiliki berbagai keunggulan, DeepSeek AI juga memiliki sejumlah kelemahan yang patut diperhatikan.
Pertama, isu privasi data. Data pengguna disimpan di server yang berlokasi di China dan tunduk pada regulasi pemerintah setempat. Hal ini menimbulkan kekhawatiran bagi pengguna dari negara-negara yang memiliki standar perlindungan data yang lebih ketat.
Kedua, keterbatasan dalam kebebasan informasi. Sebagai produk buatan China, DeepSeek harus mematuhi kebijakan sensor yang diterapkan oleh pemerintah. Akibatnya, chatbot ini mungkin tidak dapat membahas atau memberikan informasi mengenai topik-topik yang dianggap sensitif.
Ketiga, potensi kesalahan atau hallucination AI. Seperti model AI lainnya, DeepSeek tidak sepenuhnya bebas dari risiko memberikan jawaban yang tidak akurat atau keliru. Oleh karena itu, pengguna tetap perlu melakukan verifikasi tambahan terhadap informasi yang diberikan.
Keempat, keterbatasan akses fitur. Beberapa fitur DeepSeek mungkin tidak tersedia di wilayah tertentu karena adanya perbedaan regulasi lokal, yang dapat membatasi pengalaman pengguna di beberapa negara.
Kelemahan-kelemahan ini menjadi tantangan bagi DeepSeek dalam upayanya membangun kepercayaan dan memperluas jangkauan di pasar global.
C. Riwayat Rilis DeepSeek AI
Berikut ini adalah Riwayat Rilis DeepSeek menurut Wikipedia :
1. DeepSeek LLM
Pada 2 November 2023 (18 Rabi'ul Akhir 1445 H), DeepSeek meluncurkan seri model pertamanya, DeepSeek-Coder, yang tersedia secara gratis bagi peneliti dan pengguna komersial. Kode sumber model ini dirilis sebagai open-source di bawah lisensi MIT, dengan tambahan perjanjian lisensi DeepSeek yang mengatur penggunaan model secara terbuka dan bertanggung jawab.
Model-model dalam seri ini memiliki arsitektur yang sama dengan DeepSeek LLM yang akan dijelaskan lebih lanjut. Seri ini mencakup delapan model, terdiri dari empat model dasar (Base) yang telah melalui tahap prapelatihan dan empat model Instruct yang telah disempurnakan dengan instruksi tambahan. Semua model ini memiliki kapasitas panjang konteks hingga 16K.
Proses pelatihannya melibatkan beberapa tahap berikut :
- Prapelatihan (Pretraining): Menggunakan 1,8 triliun token, dengan komposisi data 87% kode sumber, 10% kode berbasis bahasa Inggris (seperti GitHub Markdown dan Stack Exchange), serta 3% kode berbasis bahasa Mandarin.
- Prapelatihan untuk konteks panjang: Sebanyak 200 miliar token digunakan untuk memperpanjang panjang konteks dari 4K menjadi 16K, menghasilkan model Base.
- Penyempurnaan melalui supervisi (Supervised Finetuning - SFT): Menggunakan 2 miliar token berbasis instruksi untuk menghasilkan model Instruct.
Model-model tersebut dilatih pada kluster-kluster GPU Nvidia A100 dan H800, yang dihubungkan oleh InfiniBand, NVLink, NVSwitch.
Model-model dalam seri DeepSeek-Coder mengadopsi arsitektur pre-norm decoder-only Transformer, dengan beberapa fitur utama seperti RMSNorm untuk normalisasi, SwiGLU dalam lapisan feedforward, rotary positional embedding (RoPE), serta grouped-query attention (GQA).
Setiap model memiliki ukuran kosakata sebesar 102.400 token dengan metode byte pair encoding (BPE) dan mendukung panjang konteks hingga 4.096 Token.
Untuk pelatihannya, model-model ini menggunakan 2 triliun token teks dalam bahasa Inggris dan Mandarin, yang diperoleh dari data Common Crawl yang telah melalui proses deduplikasi.
2. DeepSeek V2
Pada Mei 2024, DeepSeek meluncurkan seri DeepSeek-V2, yang terdiri dari empat model: dua model dasar (DeepSeek-V2 dan DeepSeek-V2-Lite) serta dua model chatbot (DeepSeek-V2-Chat).
Dua model utama dalam seri ini dikembangkan melalui tahapan berikut :
- Pretraining: Model dilatih dengan himpunan data sebesar 8,1 triliun token, di mana 12% lebih banyak token dalam bahasa Mandarin dibandingkan bahasa Inggris.
- Peningkatan Panjang Konteks: Menggunakan teknik YaRN, panjang konteks diperluas dari 4K menjadi 128K, menghasilkan model DeepSeek-V2.
- Fine-Tuning Supervised (SFT): Model disesuaikan dengan 1,2 juta contoh untuk meningkatkan kegunaan (helpfulness) dan 300 ribu contoh untuk keamanan (safety). Hasil tahap ini adalah DeepSeek-V2-Chat (SFT), tetapi tidak dirilis ke publik.
- Reinforcement Learning (RL) dengan GRPO: Dilakukan dalam dua tahap:
- Tahap pertama: Melatih model untuk memecahkan soal matematika dan pengkodean menggunakan satu model reward yang didasarkan pada umpan balik compiler (untuk pengkodean) dan label ground-truth (untuk matematika).
- Tahap kedua: Melatih model agar lebih bermanfaat, aman, dan sesuai aturan menggunakan tiga model reward. Model pertama dan kedua dilatih menggunakan data preferensi manusia untuk helpfulness dan safety, sedangkan model ketiga berbasis aturan yang diprogram secara manual.
Mereka menerapkan Reinforcement Learning (RL) dalam dua tahap karena menemukan bahwa RL pada data penalaran (reasoning) memiliki karakteristik unik yang berbeda dibandingkan RL pada data umum. Misalnya, RL untuk penalaran dapat ditingkatkan melalui beberapa tahap pelatihan.
Sementara itu, kedua model V2-Lite dikembangkan sebagai versi yang lebih kecil dan menjalani proses pelatihan yang serupa. Namun, DeepSeek-V2-Lite-Chat hanya melalui tahap Supervised Fine-Tuning (SFT) tanpa menggunakan RL. Model versi Lite ini dibuat untuk mendukung penelitian dan pengembangan lebih lanjut dalam bidang Multi-Level Attention (MLA) serta DeepSeekMixture-of-Experts (DeepSeekMoE).
Financial Times melaporkan bahwa harga token ini lebih murah dibanding pesaingnya, yaitu 2 RMB per juta token keluaran. Papan peringkat Tiger Lab dari University of Waterloo menempatkan DeepSeek-V2 pada posisi ketujuh dalam peringkat LLM.
Pada bulan Juni, DeepSeek merilis empat model dalam seri DeepSeek-Coder-V2, yaitu V2-Base, V2-Lite-Base, V2-Instruct, dan V2-Lite-Instruct. Model-model ini dilatih melalui beberapa tahap berikut :
- Model Base diinisialisasi dari titik pemeriksaan (checkpoints) intermediate yang sesuai setelah pretraining pada token 4.2T (bukan versi di akhir pretraining), lalu dilatih lebih lanjut untuk token 6T, lalu diperluas konteksnya ke panjang konteks 128K. Tahap menghasilkan model Base.
- DeepSeek-Coder dan DeepSeek-Math digunakan untuk menghasilkan 20K data instruksi terkait kode dan 30K data instruksi terkait matematika, lalu digabungkan dengan kumpulan data instruksi sebanyak 300M token. Ini digunakan untuk SFT.
- RL dengan GRPO. Reward untuk soal matematika dihitung dengan membandingkannya dengan ground-truth label. Reward untuk masalah kode dihasilkan oleh model reward yang dilatih untuk memprediksi apakah suatu program akan lulus uji unit.
DeepSeek-V2.5 dirilis pada bulan September dan diperbarui pada bulan Desember. Rilisan tersebut dibuat dengan menggabungkan DeepSeek-V2-Chat dan DeepSeek-Coder-V2-Instruct.
3. DeepSeek V3
Pada bulan Desember 2024, mereka merilis model dasar DeepSeek-V3-Base dan model bot percakapan DeepSeek-V3. Arsitektur modelnya pada dasarnya sama dengan V2. Model-model tersebut dilatih sebagai berikut :
- Pretraining: Model dilatih menggunakan 14,8 Triliun Token dari korpus multibahasa, dengan dominasi bahasa Inggris dan Mandarin. Dataset ini memiliki rasio konten matematika dan pemrograman yang lebih tinggi dibandingkan dataset DeepSeek-V2.
- Perluasan Panjang Konteks: Panjang konteks diperluas dua kali, dari 4K ke 32K, lalu ke 128K menggunakan YaRN. Proses ini menghasilkan DeepSeek-V3-Base.
- Supervised Fine-Tuning (SFT): Dilakukan dalam dua tahap pada 1,5 juta sampel yang mencakup dua kategori utama:
- Data penalaran (matematika, pemrograman, logika), yang dihasilkan oleh expert models (model ahli).
- Data non-penalaran (penulisan kreatif, permainan peran, jawaban pertanyaan sederhana), yang dibuat oleh DeepSeek-V2.5 dan diperiksa oleh manusia.
- Pelatihan Model Ahli:
- Model ini diawali dengan base model yang tidak disebutkan, kemudian melalui SFT menggunakan data dari dua sumber:
- <problem, original response>, yaitu masalah dengan respons awal.
- <system prompt, problem, R1 response>, yaitu data sintetis yang dihasilkan oleh DeepSeek-R1, dengan sistem yang mendorong R1 untuk berpikir dan memverifikasi jawabannya sendiri.
- Setiap expert model dilatih untuk satu domain spesifik (matematika, pemrograman, atau logika) guna menghindari keluaran yang berlebihan, berformat buruk, atau terlalu panjang yang sering terjadi pada R1.
- Pembuatan Model Reward:
- Model reward dikembangkan dari checkpoint SFT-V3, kemudian disempurnakan menggunakan data preferensi manusia. Data ini mencakup reward akhir dan serangkaian pemikiran yang mengarah pada reward tersebut.
- Model reward ini digunakan untuk memberikan sinyal evaluasi terhadap berbagai jenis pertanyaan, baik yang memiliki jawaban objektif maupun yang bersifat kreatif.
- Pelatihan dengan RL (GRPO):
- Checkpoint SFT-V3 dilatih lebih lanjut dengan model-based reward dan rule-based reward.
- Rule-based reward diterapkan pada soal matematika dengan jawaban numerik (yang harus dimasukkan ke dalam kotak) serta pada soal pemrograman melalui uji unit.
- Tahap akhir ini menghasilkan DeepSeek-V3, model yang lebih canggih dan efisien dalam berbagai tugas kecerdasan buatan.
Mereka menerapkan optimalisasi tingkat rendah secara intensif untuk meningkatkan efisiensi. Salah satu teknik yang digunakan adalah mixed-precision arithmetic, di mana sebagian besar pemrosesan data dilakukan dalam format floating point 8-bit (5E2M: eksponen 5-bit dan mantissa 2-bit) alih-alih format standar 32-bit. Untuk memastikan akurasi, mereka menggunakan rutinitas GEMM khusus dalam akumulasi data. Selain itu, format floating point 12-bit (E5M6) diterapkan secara selektif hanya pada input ke lapisan linier setelah modul atensi, sementara status pengoptimal disimpan dalam format 16-bit (BF16).
Untuk mengurangi latensi komunikasi, mereka secara ekstensif menumpangtindihkan proses komputasi dan komunikasi. Salah satu upaya yang dilakukan adalah mendedikasikan 20 dari 132 streaming multiprocessors (SM) per GPU H800 khusus untuk komunikasi antar-GPU. Selain itu, mereka mengurangi beban komunikasi dengan mengatur ulang alokasi mesin bagi setiap expert model setiap 10 menit, sehingga tidak ada satu mesin yang lebih sering diakses dibanding yang lain. Mereka juga menerapkan fungsi loss balancing tambahan serta berbagai teknik penyeimbangan beban lainnya guna meningkatkan efisiensi selama pelatihan model.
Setelah pelatihan, ia disebarkan pada klaster H800. H800 dalam satu klaster dihubungkan melalui NVLink. Klaster-klaster tersebut dihubungkan oleh InfiniBand.
Total biaya pelatihan model DeepSeek-V3 :
Stage
|
Biaya (dalam seribu jam GPU)
|
Biaya (dalam satu juta USD$)
|
Pre-training
|
2.664
|
5.328
|
Context extension
|
119
|
0.24
|
Fine-tuning
|
5
|
0,01
|
Total
|
2.788
|
5.576
|
Pengujian tolok ukur (benchmark) menunjukkan bahwa DeepSeek-V3 mengungguli Llama 3.1 dan Qwen 2.5 sambil menyamai GPT-4o dan Claude 3.5 Sonnet.
4. DeepSeek R1
Pada 20 November 2024 (18 Jumadil Awal 1446 H), DeepSeek-R1-Lite-Preview tersedia untuk diakses melalui API DeepSeek dan situs web chat.deepseek.com. Model ini dirancang untuk mendukung inferensi logis, penalaran matematika, serta pemecahan masalah secara real-time. DeepSeek mengklaim bahwa model ini memiliki kinerja yang lebih unggul dibandingkan OpenAI o1 dalam berbagai tolok ukur (benchmark), termasuk American Invitational Mathematics Examination (AIME) dan MATH. Namun, menurut The Wall Street Journal, ketika diuji menggunakan 15 soal dari AIME 2024, model o1 ternyata mampu menyelesaikan permasalahan matematika lebih cepat dibandingkan DeepSeek-R1-Lite-Preview.
Pada 20 Januari 2025 (20 Rajab 1446 H), DeepSeek merilis DeepSeek-R1 dan DeepSeek-R1-Zero, yang keduanya diinisialisasi dari DeepSeek-V3-Base. Selain itu, perusahaan juga memperkenalkan beberapa model DeepSeek-R1-Distill. Berbeda dari R1 dan R1-Zero, model-model ini tidak berawal dari V3-Base, melainkan dari model pretrained open-weight lainnya seperti LLaMA dan Qwen. Model Distill tersebut kemudian disempurnakan lebih lanjut menggunakan data sintetis yang dihasilkan oleh R1.
D. Cara Akses DeepSeek AI
Usai membaca ulasan singkat di atas, detikers tentu tertarik mencoba AI baru ini, bukan? Dirujuk dari Tom's Guide, DeepSeek AI bisa diakses melalui browser maupun aplikasi sehingga memudahkan. Begini tata caranya :
1. Cara Akses DeepSeek di Browser (Web)
Pertama, bukalah Situs DeepSeek di sini (Deepseek.com) dan klik "Start Now".
Kemudian, masuklah dengan Akun Google Anda dengan mengelik "Log in with Google".
Dan inilah Tampilan dari DeepSeek AI :
2. Download Aplikasi Mobile
Pertama, Download-lah Aplikasi DeepSeek di Google Play Store (Android) atau di Apple App Store (iOS), dan tunggulah sampai proses Instalasi-nya selesai.
Kemudian, klik Aplikasi DeepSeek yang sudah di-Install. Jika muncul seperti ini (ToS dan Privacy Policy), klik saja "Agree".
Jika sudah masuk ke Aplikasi-nya, klik "Sign in with Google" dengan Akun Google kamu.
Jika sudah, maka tampilan dari DeepSeek AI seperti ini dan sekilas mirip sekali dengan ChatGPT. Anda bisa bertanya apa saja.
Misalnya, saya ingin bertanya di DeepSeek seperti ini, maka langsung dijawab :
What is DeepSeek?
Apa itu DeepSeek?
Maka, inilah Jawabannya :
VIDEO
Untuk selengkapnya mengenai DeepSeek AI, silakan lihat pada Video YouTube ini.
Untuk melihat Situs Resminya DeepSeek, silakan kunjungi di sini (Deepseek.com).
Itulah Pembahasan mengenai DeepSeek yang akan merupakan Kecerdasan Buatan (AI) dari Tiongkok pesaing dari OpenAI ChatGPT, Google Gemini, Microsoft Copilot, dan Meta AI.
Terima Kasih 😄😊👌👍 :)
Wassalammu‘alaikum wr. wb.