Kecerdasan buatan super dapat menjadi bencana — Vitalik Buterin

AI perang AI war# Kecerdasan buatan super dapat menjadi bencana — Vitalik Buterin

Kemanusiaan tidak cukup baik dalam menyelaraskan nilai-nilai global untuk menjamin bahwa kecerdasan buatan super-intelijen akan bekerja untuk kebaikan semua orang. Pernyataan ini dibuat oleh salah satu pendiri Ethereum, Vitalik Buterin.

Dia mengomentari postingan seniman 3D dengan nickname Utah teapot.

Bagaimana keselarasan AI bahkan menjadi suatu hal? Semua orang selalu bertanya "terhadap apa" dan tidak ada yang pernah memiliki jawaban selain "nilai-nilai manusia". Nilai-nilai manusia yang koheren dan konsisten dengan diri sendiri bukanlah suatu hal. Saya masih tidak mengerti. Apa yang sedang kita teliti? Sangat konyol bahwa ini adalah…

— Teapot Utah 🫖 (@SkyeSharkie) 24 Agustus 2025

"Bagaimana mungkin ada konsep AI alignment? Saya selalu bertanya: 'sama dengan apa?'. Tidak ada yang pernah menjawab apa pun, kecuali 'dengan nilai-nilai manusia'. Tetapi tidak ada nilai-nilai manusia yang utuh dan tidak bertentangan. Saya masih tidak mengerti. Apa yang sebenarnya kita teliti? Sangat absurd bahwa ini menjadi industri yang berkembang. Pekerjaan fiktif," tulisnya.

Buterin menekankan bahwa di dunia ini ada banyak hal yang bertentangan dengan prinsip etika. Sebagai contoh, ia menyebutkan pembunuhan atau penahanan orang yang tidak bersalah.

«[…] Kami masih belum cukup baik dalam berkoordinasi untuk menjamin bahwa kecerdasan buatan super tunggal akan menghindari bahkan ini», — tambah pengembang.

Cerek Utah mencatat bahwa pengembangan kecerdasan buatan yang disepakati bergerak menuju pembatasan akses publik terhadap pengembangan. Sementara itu, perusahaan besar menjual versi sistem AI mereka yang berkontribusi pada fenomena negatif dan berfungsi sebagai alat perang.

«Saya sangat khawatir bahwa sentralisasi akses ke teknologi AI memungkinkan untuk memaksakan sebagai masalah keamanan apa yang sebenarnya bukan — misalnya, diskusi tentang “psikosis” dari LLM. Dengan demikian, ada risiko merugikan budaya unik atau marginal dan nilai-nilai mereka», — kata pengguna.

Buterin membagikan banyak kekhawatiran ini.

«Saya pikir risiko terbesar akan berasal dari militer dan struktur lain yang memiliki kekuatan besar yang memungkinkan mereka untuk mengeluarkan diri dari aturan keamanan yang secara default berlaku untuk semua orang lainnya,» tambah salah satu pendiri Ethereum.

Teapot Utah sebagai contoh disebutkan oleh startup AI Anthropic. Mereka mengembangkan versi alternatif dari model "sipil" dan menyediakan kepada pemerintah. Mereka dapat digunakan untuk tindakan militer atau intelijen.

Buterin menekankan bahwa kemungkinan skenario bencana bagi umat manusia akibat AI meningkat jika hanya ada satu kecerdasan buatan agensi super cerdas yang memiliki kehendak sendiri dan kemampuan untuk bertindak sebagai subjek.

Jika lingkungan bersifat pluralistik, tidak ada satu sistem pun yang dapat sepenuhnya mengendalikan situasi. Namun, untuk menciptakan hal tersebut, mekanisme pasar saja tidak cukup. Diperlukan upaya yang sengaja, termasuk perubahan dalam undang-undang dan insentif yang tidak akan disukai oleh perusahaan besar.

Kami ingatkan, pada tahun 2022 Menteri Teknologi Informasi India Rajiv Chandrasekhar menyerukan pengembangan standar global yang menjamin keamanan AI bagi manusia.

ETH2.21%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)