Oleh: Cak AT – Ahmadie Thaha*
Di tengah riuh rendah dunia AI yang makin mirip lomba makan cabai — siapa paling pedas, siapa paling besar, dan siapa paling mahal — tiba-tiba muncul seorang “anak kampung” bernama PrismM. Dia datang tanpa banyak basa-basi — tidak membawa GPU segunung, tidak membawa server sebesar lapangan bola — hanya membawa satu hal yang terdengar seperti lelucon: AI satu bit — dan malam itu, di layar YouTube milik Fahd Mirza — lelucon itu berubah jadi tamparan keras. Model AI bernama Bonsai itu menjawab soal matematika dengan rapi.
Si Bonsai juga terbukti cerdas menulis kode simulasi laut dalam lengkap dengan ubur-ubur bercahaya. Bahkan, saat coba diakali dan dimanipulasi secara psikologis, dia menolak — tanpa halusinasi. Bukan cuma cepat — juga waras. Sampai Fahd hanya bisa berucap, Wow. Kata sederhana yang biasanya muncul ketika kita kehabisan kosakata menghadapi sesuatu yang melampaui ekspektasi.
Nama “Bonsai” sendiri bukan sekadar tempelan artistik — adalah metafora yang sangat tepat. Pohon bonsai bukan miniatur acak. Pohon itu dibentuk, dipangkas, dan dioptimalkan dengan presisi, sehingga bentuk kecilnya tetap membawa struktur dan identitas pohon besar. Kecil, tetapi utuh. Ringkas, tetapi tetap lengkap. Dan di situlah letak pesan diamnya: ini bukan sekadar mengecilkan, tetapi merancang ulang agar yang kecil tetap bermakna.
Lalu, apa sebenarnya bit yang selama ini kita dengar untuk buah itu? Mari kita turunkan sedikit ego kita yang terbiasa dengan angka besar. Di dunia AI, bit itu ibarat pilihan hidup. AI 32-bit berarti penuh warna: jutaan kemungkinan nilai, presisi tinggi, seperti chef Michelin yang menimbang garam sampai sepersekian gram.
AI 16-bit atau f16 adalah tahap mulai berhemat — masih canggih, tetapi tidak terlalu cerewet—cukup presisi untuk sebagian besar kebutuhan AI moderen. Kemudian hadir AI 8-bit, 4-bit, 2-bit. Ini seperti hidup anak kos: yang penting cukup, sederhana, tidak harus sempurna. Dan AI 1-bit? Dia seperti dunia yang hanya mengenal dua jawaban: ya atau tidak. Tidak ada abu-abu. Tidak ada drama. Hanya hitam dan putih.
Secara teknis, jika 32-bit bisa menyimpan angka dengan jutaan variasi, maka 1-bit hanya menyimpan dua kemungkinan: 0 atau 1. Dan mesin AI memang hanya mengenal angka, bukan kata. Dalam model AI, ini berarti setiap bobot — yang biasanya kompleks seperti bilangan pecahan panjang — dipaksa menjadi keputusan sederhana: aktif atau tidak, naik atau turun.
Masalahnya, selama ini kita percaya bahwa semakin sederhana representasi, semakin bodoh hasilnya. Itu semacam hukum tidak tertulis di dunia komputasi: kurangi presisi, kecerdasan turun. Tetapi di sinilah tim PrismML bermain seperti pesulap yang menolak hukum fisika. Mereka tidak sekadar “mengompres” model AI. Mereka mendesain ulang cara berpikirnya.
Seluruh jaringan dalam AI — mulai dari embedding, attention, multilayer perceptron, hingga lapisan keluaran — dibangun sepenuhnya dalam 1-bit. Tidak ada jalan belakang. Tidak ada trik tersembunyi dengan presisi tinggi. Tidak ada kompromi diam-diam. Ini bukan diet. Ini transformasi total.
Di balik kesederhanaan yang tampak nyaris nekat itu, kerja ilmiah PrismM — justru berdiri di atas riset panjang yang melawan arus. Selama satu dekade terakhir, hampir semua laboratorium besar bergerak dalam satu keyakinan: semakin besar model, semakin pintar hasilnya.
Parameter ditambah, data diperluas, komputasi diperbesar. Kecerdasan diperlakukan seperti nasi padang — tinggal tambah porsi. Namun tim PrismML memilih jalur yang lebih sunyi: bukan memperbesar otak, tetapi memadatkan pikiran. Mereka menyebutnya intelligence density— kepadatan kecerdasan per satuan ukuran model. Jika pendekatan lama bertanya, “Seberapa pintar model ini?”, maka pendekatan baru bertanya, “Seberapa efisien kepintaran ini dikemas?”
Dalam kerangka ini, kecerdasan tidak lagi berdiri sendiri, tetapi selalu dikaitkan dengan ukuran dan biaya. Bahkan dirumuskan sebagai hubungan antara tingkat kesalahan model dan ukuran model. Semakin kecil ukuran dengan kesalahan tetap rendah, semakin tinggi nilai kepadatannya. Ini bukan sekadar metrik baru — ini perubahan cara pandang terhadap kecerdasan itu sendiri.
Berbeda dengan teknik lama seperti quantization yang hanya mengecilkan model setelah dilatih — seperti mengecilkan foto resolusi tinggi — pendekatan baru ini membangun model sejak awal untuk hidup dalam keterbatasan ekstrem. Dunia 1-bit bukan dunia kompromi, tetapi dunia desain ulang.
Tantangannya tentu tidak kecil — bagaimana menjaga kemampuan bernalar jika setiap keputusan hanya dua pilihan? Bagaimana menjaga aliran informasi tetap utuh dalam jaringan yang sangat diskret? Jawabannya ada pada rekayasa arsitektur dan metode pelatihan yang menjaga sinyal tetap kuat dan stabil. Meski setiap elemen hanya memilih antara dua keadaan, susunan keseluruhannya tetap mampu membentuk pola kompleks yang cukup untuk mendukung penalaran — dan hasilnya mulai terasa ketika dibandingkan dengan sejarah model-model kecil sebelumnya.
Kita pernah melihat DistilBERT, MobileBERT, serta berbagai model kecil lain yang mencoba membuat AI lebih ringan — namun pola yang selalu berulang adalah kompromi. Semakin kecil model, semakin cepat dia kehilangan kemampuan berpikir kompleks.
Tugas sederhana mungkin masih bisa tetapi mulai goyah saat menghadapi matematika bertingkat, logika berlapis, dan pemrograman. Di titik inilah Bonsai AI mengganggu — atau mungkin akan segera mengubah — peta lama tersebut.
Model dengan sekitar delapan miliar parameter yang biasanya membutuhkan belasan gigabyte kini hanya berukuran sekitar 1,15 gigabyte. Artinya, sekitar dua belas hingga empat belas kali lebih kecil dari model serupa — namun performanya tetap kompetitif. Bahkan dalam ukuran kecerdasan per gigabyte — melompat jauh melampaui model lain di kelasnya.
Lebih menarik lagi, dalam tugas panjang yang membutuhkan konsistensi berpikir, model ini justru lebih tahan — bukan hanya pintar dalam satu langkah, tetapi cukup efisien untuk berpikir lebih lama tanpa “kelelahan” komputasi. Di sinilah arah baru mulai terlihat.
Selama ini, kecerdasan buatan seperti dewa yang tinggal di langit — di pusat data raksasa yang jauh dari jangkauan. Kita harus mengaksesnya melalui jaringan, bergantung pada koneksi, biaya, dan infrastruktur besar — namun dengan model seperti Bonsai ini, kecerdasan mulai turun ke bumi. Masuk ke laptop. Masuk ke ponsel. Bahkan ke perangkat offline. AI tidak lagi eksklusif. Dia menjadi dekat, personal, bahkan domestik. Dan di titik ini, kita perlu berhenti sejenak — karena ini bukan sekadar soal efisiensi teknologi. Ini soal perubahan struktur kekuasaan.
Ketika AI bisa berjalan di perangkat kecil, maka kontrol tidak lagi sepenuhnya berada di tangan perusahaan besar. Privasi meningkat. Ketergantungan berkurang. Akses meluas — namun, seperti semua perubahan besar, ada ironi yang menyelinap. Dulu kita membangun AI dengan kompleksitas ekstrem demi meniru kecerdasan manusia.
Sekarang, kita justru menemukan bahwa dengan kesederhanaan ekstrem — hanya 1-bit — AI tetap bisa berpikir cukup baik. Maka muncul pertanyaan yang sedikit mengganggu: apakah selama ini kita terlalu membesar-besarkan kompleksitas sebagai syarat kecerdasan? Atau justru, seperti hidup manusia, yang paling menentukan bukan banyaknya pilihan, melainkan ketepatan dalam memilih di antara pilihan yang sederhana? Ya atau tidak. Benar atau salah. Bijak atau tidak. Dan mungkin, di tengah dunia yang semakin bising oleh teknologi, kesederhanaan itulah yang diam-diam sedang mengajari kita kembali arti berpikir.
*Jurnalis Senior, Kolumnis, dan Editor Buku Prof. Azyumardi Azra
Editor: Jufri Alkatiri
