Mengapa LLM tidak lebih terfokus dan lebih kecil? Mengapa model pengkodean saya perlu sepenuhnya memahami alam semesta untuk menghasilkan reaksi yang tidak jelas? Siapa yang membangun ini?

WHY2.65%
MORE3.03%
IN-4.37%
ORDER13.07%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 9
  • Posting ulang
  • Bagikan
Komentar
0/400
PretendingToReadDocsvip
· 08-21 10:12
Ini benar-benar benar, sangat luar biasa bisa menjelajahi alam semesta.
Lihat AsliBalas0
RiddleMastervip
· 08-21 05:29
Model besar sepanjang hari memikirkan untuk menjadi Saiyan
Lihat AsliBalas0
0xSoullessvip
· 08-18 22:54
A-shares dan AI kecil sama-sama play people for suckers
Lihat AsliBalas0
ChainMaskedRidervip
· 08-18 10:58
Ada rasanya, hanya menulis kode, dan juga ujian pascasarjana sejarah alam semesta.
Lihat AsliBalas0
FarmToRichesvip
· 08-18 10:40
Memang telah membuang sebagian besar Daya Komputasi
Lihat AsliBalas0
RugpullAlertOfficervip
· 08-18 10:40
Tidak mungkin setiap hari mengulang hal yang sama..
Lihat AsliBalas0
MidnightMEVeatervip
· 08-18 10:25
Model besar menghabiskan memori, kue kecil saya tidak cukup untuk mengisi celah gigi...
Lihat AsliBalas0
TokenAlchemistvip
· 08-18 10:18
optimisasi adalah mitos... yang kita dapatkan hanyalah model yang membengkak dengan alpha nol smh
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)