KOMPAS.com - Selama setahun terakhir, dunia mengalami krisis memori yang signifikan. Harga memori, terutama jenis DRAM seperti DDR4 dan DDR5, mengalami lonjakan tajam akibat kelangkaan pasokan yang disebabkan oleh prioritas pemenuhan kebutuhan untuk pengembangan kecerdasan buatan (AI). Di tengah situasi ini, Google muncul dengan harapan baru melalui pengembangan teknologi AI yang lebih efisien dalam penggunaan RAM.
TurboQuant: Teknologi AI yang Menghemat Memori
Teknologi AI yang dikembangkan oleh Google ini dikenal dengan nama TurboQuant. Pada dasarnya, TurboQuant merupakan algoritma kompresi memori berbasis AI yang dirancang untuk mengoptimalkan penggunaan memori saat proses inferensi, yaitu saat model AI dijalankan. Dengan fokus pada efisiensi, teknologi ini menargetkan salah satu kendala utama dalam sistem AI modern, yaitu keterbatasan “working memory”, khususnya pada komponen KV cache yang berfungsi sebagai memori sementara untuk memproses dan menyimpan konteks data.
Cara Kerja TurboQuant
Cara kerja TurboQuant mengandalkan teknik yang disebut vector quantization, yang menyederhanakan representasi data numerik dalam bentuk vektor agar lebih ringkas tanpa kehilangan informasi penting. Dengan pendekatan ini, data yang sebelumnya memerlukan ruang besar dapat dikompresi secara signifikan, sambil tetap menjaga akurasi model AI. TurboQuant menggunakan dua metode utama, yaitu PolarQuant dan Quantization-aware Joint Learning (QJL). PolarQuant mengubah cara data direpresentasikan agar lebih efisien saat disimpan di memori, tanpa mengorbankan kualitas hasil komputasi. Di sisi lain, QJL melatih model AI agar “sadar” bahwa data yang diproses akan dikompresi, sehingga model dapat beradaptasi dan tetap menghasilkan output yang akurat meski menggunakan data yang telah dipadatkan.
Dengan kombinasi kedua teknik tersebut, peneliti mengklaim bahwa TurboQuant mampu menghemat penggunaan memori hingga enam kali lipat dibandingkan dengan metode konvensional. Hal ini memungkinkan model AI untuk “mengingat” lebih banyak informasi dalam ruang yang jauh lebih kecil, sekaligus mengurangi hambatan kinerja akibat keterbatasan memori.
Potensi Dampak pada Pasar Memori Global
Keunggulan TurboQuant menjadikannya sebagai solusi yang menjanjikan untuk mengatasi krisis RAM yang sedang berlangsung. Dalam beberapa waktu terakhir, harga memori, terutama DDR5, melonjak drastis karena tingginya permintaan dari industri AI. Produsen memori lebih memprioritaskan pasokan untuk pusat data besar, sehingga ketersediaan untuk pasar konsumen seperti PC dan laptop menjadi terbatas. Akibatnya, harga RAM di pasar global meningkat hingga empat hingga lima kali lipat dibandingkan dengan kondisi normal sebelumnya.
Walaupun TurboQuant menawarkan pendekatan yang berbeda dengan menekan kebutuhan memori, teknologi ini masih dalam tahap riset dan belum diterapkan secara luas di industri. Selain itu, TurboQuant hanya fokus pada efisiensi saat inferensi, bukan saat pelatihan model AI yang merupakan fase paling boros sumber daya. Meskipun menjanjikan, TurboQuant belum sepenuhnya menyelesaikan masalah kelangkaan dan tingginya harga RAM dalam ekosistem AI.
Seiring dengan pengumuman TurboQuant, dampak psikologisnya mulai terasa di pasar. Distributor memori, terutama di China, yang sebelumnya menimbun stok besar saat harga tinggi, kini mulai melepas stok RAM mereka ke pasar. Kekhawatiran utama mereka adalah potensi penurunan permintaan dari hyperscaler jika teknologi kompresi seperti TurboQuant diadopsi secara luas, yang dapat menyebabkan harga memori anjlok.
Jika TurboQuant berhasil diimplementasikan secara luas di masa depan, teknologi ini tidak hanya berpotensi menekan biaya operasional AI, tetapi juga membuka jalan bagi pengembangan sistem yang lebih efisien dan hemat sumber daya. Dalam jangka panjang, TurboQuant bisa menjadi salah satu kunci untuk membuat AI lebih terjangkau dan berkelanjutan, serta meredakan tekanan pada industri memori global.