Mengapa LLM tidak lebih terfokus dan lebih kecil? Mengapa model pengkodean saya perlu sepenuhnya memahami alam semesta untuk menghasilkan reaksi yang tidak jelas? Siapa yang membangun ini?
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
23 Suka
Hadiah
23
9
Posting ulang
Bagikan
Komentar
0/400
PretendingToReadDocs
· 08-21 10:12
Ini benar-benar benar, sangat luar biasa bisa menjelajahi alam semesta.
Lihat AsliBalas0
RiddleMaster
· 08-21 05:29
Model besar sepanjang hari memikirkan untuk menjadi Saiyan
Lihat AsliBalas0
0xSoulless
· 08-18 22:54
A-shares dan AI kecil sama-sama play people for suckers
Lihat AsliBalas0
ChainMaskedRider
· 08-18 10:58
Ada rasanya, hanya menulis kode, dan juga ujian pascasarjana sejarah alam semesta.
Lihat AsliBalas0
FarmToRiches
· 08-18 10:40
Memang telah membuang sebagian besar Daya Komputasi
Lihat AsliBalas0
RugpullAlertOfficer
· 08-18 10:40
Tidak mungkin setiap hari mengulang hal yang sama..
Lihat AsliBalas0
MidnightMEVeater
· 08-18 10:25
Model besar menghabiskan memori, kue kecil saya tidak cukup untuk mengisi celah gigi...
Lihat AsliBalas0
TokenAlchemist
· 08-18 10:18
optimisasi adalah mitos... yang kita dapatkan hanyalah model yang membengkak dengan alpha nol smh
Mengapa LLM tidak lebih terfokus dan lebih kecil? Mengapa model pengkodean saya perlu sepenuhnya memahami alam semesta untuk menghasilkan reaksi yang tidak jelas? Siapa yang membangun ini?