DeepSeek meluncurkan model 671 miliar parameter untuk matematika

robot
Pembuatan abstrak sedang berlangsung

Model DeepSeek-Prover-V2-671B Baru Diluncurkan

Pada tanggal 30 April, komunitas dan halaman Hugging Face mengumumkan pembukaan kode sumber dari model DeepSeek-Prover-V2-671B. Dikembangkan untuk menyelesaikan masalah pembuktian teorema matematika, model ini menggunakan arsitektur "mixture of experts" (MoE) dan didasarkan pada Lean 4 untuk pelatihan penalaran formal.

Kemampuan Meningkatkan Automatisasi

Dengan skala parameter mencapai 671 triliun, DeepSeek-Prover-V2-671B menggabungkan pembelajaran penguatan dan data sintetis berskala besar. Ini membantu meningkatkan kemampuan bukti otomatis secara signifikan, membuka banyak kemungkinan aplikasi.

Fleksibel Dalam Penggunaan

Model ini telah diperkenalkan di Hugging Face, mendukung penerapan lokal dan penggunaan komersial. Ini memberikan fleksibilitas dan memperluas kemampuan dalam menerapkan model ke berbagai bidang, dari penelitian hingga komersial.

Catatan: Konten di atas hanya bersifat memberikan informasi pasar dan bukan merupakan saran investasi.

Terima kasih telah membaca artikel ini!

Silakan Like, Comment, dan Follow TinTucBitcoin untuk selalu mendapatkan pembaruan berita terbaru tentang pasar koin dan tidak melewatkan informasi penting apa pun ya!

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate.io
Komunitas
Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)