Kecerdasan Buatan
AI Berpadu dengan Efisiensi: Chip Baru Mengurangi Penggunaan Daya LLM hingga 50%
Securities.io mempertahankan standar editorial yang ketat dan dapat menerima kompensasi dari tautan yang ditinjau. Kami bukan penasihat investasi terdaftar dan ini bukan nasihat investasi. Silakan lihat pengungkapan afiliasi.

Boomingnya kecerdasan buatan (AI) yang sedang berlangsung menyebabkan lonjakan pusat data, yang memacu permintaan besar akan daya untuk menjalankan dan mendinginkan server di dalamnya.
Meskipun ada lebih dari 8,000 pusat data di seluruh dunia, yang sebagian besar berada di AS, jumlah ini akan meningkat secara substansial di tahun-tahun mendatang.
Menurut estimasi Boston Consulting Group, permintaan pusat data akan naik 15% hingga 20% setiap tahun hingga 2030. Saat ini, perusahaan tersebut memperkirakan pusat data akan mencakup 16% dari total konsumsi daya AS, naik dari hanya 2.5% sebelum ChatGPT dirilis OpenAI pada 2022.
Sementara itu, para laporan khusus Energi dan AI dari Badan Energi Internasional (IEA) yang dirilis tahun ini, memperkirakan permintaan listrik dari pusat data di seluruh dunia akan meningkat setidaknya dua kali lipat pada akhir dekade ini menjadi sekitar 945 TWh. Ini hampir setara dengan apa yang dikonsumsi Jepang saat ini.
Organisasi antarpemerintah otonom yang berpusat di Paris melaporkan AI menjadi pendorong terbesar di balik lonjakan ini, dengan permintaan listrik dari pusat data yang dioptimalkan AI diproyeksikan meningkat lebih dari empat kali lipat pada tahun 2030.
Khususnya di AS, konsumsi daya oleh pusat data sudah diperkirakan akan mencapai sekitar setengah dari pertumbuhan permintaan listrik antara saat ini dan tahun 2030. Didorong oleh penggunaan AI, ekonomi AS, menurut laporan tersebut, akan mengonsumsi lebih banyak listrik untuk memproses data pada saat itu dibandingkan dengan produksi semua barang yang membutuhkan banyak energi secara keseluruhan.
Kebutuhan energi yang tak terpuaskan ini menimbulkan masalah besar dalam pengembangan dan adopsi AI. Namun, sisi baiknya adalah semakin banyaknya peneliti dan perusahaan yang berupaya mengurangi penggunaan daya AI dan membuatnya lebih hemat energi.
Yang menarik tentang upaya ini adalah banyak dari mereka yang memanfaatkan AI untuk mengatasi tantangan energi mereka sendiri.
Baru bulan ini, tim peneliti mendemonstrasikan chip baru yang menggunakan AI untuk menyusutkan jejak energi model bahasa besar (LLM) hingga 50%, menandai perkembangan utama dalam membuat LLM hemat biaya dan lebih berkelanjutan untuk dioperasikan.
Chip Baru Memanfaatkan AI untuk Mengurangi Konsumsi Energi LLM

Para peneliti dari Fakultas Teknik Universitas Negeri Oregon mengembangkan chip AI baru yang efisien untuk memecahkan masalah konsumsi listrik besar-besaran pada aplikasi AI LLM seperti GPT-4 milik OpenAI dan Gemini milik Google.
Sejenis model pembelajaran mesin (ML), model bahasa besar (LLM) dilatih terlebih dahulu pada sejumlah besar data untuk melakukan tugas pemrosesan bahasa alami (NLP) seperti pembuatan teks, peringkasan, penyederhanaan, penalaran teks, penerjemahan bahasa, dan banyak lagi.
Chatbot yang paling populer dan banyak digunakan saat ini termasuk GPT-4o, o3, dan o1 dari OpenAI, Gemini dan Gemma dari Google, Llama dari Meta, R1 dan V3 dari DeepSeek, Claude dari Anthropic, Nova dari Amazon, Phi dari Microsoft, dan Grok dari xAI.
Selama beberapa tahun terakhir, LLM telah sepenuhnya mengubah bidang AI dengan memungkinkan mesin untuk memahami dan menghasilkan teks seperti manusia dengan akurasi yang lebih tinggi. Namun, evolusi LLM ini telah mengakibatkan peningkatan eksponensial dalam ukurannya.
Ukuran LLM, yang diukur dari jumlah parameternya, merupakan faktor utama yang memengaruhi konsumsi energinya. Artinya, semakin besar modelnya, semakin besar pula kebutuhan daya komputasinya untuk pelatihan dan inferensi.
Misalnya, ChatGPT-1 memiliki kurang dari 120 juta parameter, yang melonjak menjadi 175 miliar parameter dengan GPT-3, dan kemudian menjadi sekitar 1.8 triliun parameter dengan GPT-4.
Lonjakan ukuran dan kapasitas LLM yang luar biasa ini berarti konsumsi energinya juga meningkat dalam skala yang belum pernah terjadi sebelumnya. Selain ukuran model, faktor-faktor seperti jenis perangkat keras yang digunakan untuk melatih LLM ini, durasi proses pelatihan, infrastruktur, yaitu pusat data, pemrosesan data, optimasi model, dan efisiensi algoritma memengaruhi konsumsi energi LLM.
Oleh karena itu, muncullah chip baru dari para peneliti OSU. Menurut Tejasvi Anand, seorang profesor madya teknik elektro di OSU yang juga memimpin Laboratorium Sistem dan Sirkuit Sinyal Campuran di Universitas tersebut:
"Masalahnya adalah bahwa energi yang dibutuhkan untuk mengirimkan satu bit tidak berkurang pada tingkat yang sama dengan meningkatnya permintaan kecepatan data. Itulah yang menyebabkan pusat data menggunakan begitu banyak daya."
Untuk mengatasi masalah ini, tim merancang dan mengembangkan chip baru yang hanya mengonsumsi setengah energi dibandingkan dengan desain konvensional.
Anand dan mahasiswa doktoral Ramin Javad mempresentasikan teknologi baru ini di Konferensi IEEE Custom Integrated Circuits (CIC), yang diadakan di Boston bulan lalu. Konferensi yang menyelenggarakan forum, panel, pameran, dan presentasi lisan ini dikhususkan untuk pengembangan IC, yang berfungsi sebagai blok penyusun sistem elektronik modern dengan menyediakan fungsionalitas dan daya pemrosesan dalam paket yang ringkas dan efisien.
Teknologi terbaru ini dibangun dengan dukungan dari Center for Ubiquitous Connectivity (CUbiC), Semiconductor Research Corporation (SRC), dan Defense Advanced Research Projects Agency (DARPA). Javadi juga memperoleh penghargaan Best Student Paper Award di konferensi tersebut.
Untuk chip baru tersebut, para peneliti benar-benar memanfaatkan prinsip AI yang, catat Javadi, mengurangi penggunaan listrik untuk pemrosesan sinyal.
Seperti yang dijelaskannya, LLM mengirim dan menerima banyak data melalui koneksi kabel, yang merupakan tautan komunikasi berbasis tembaga di pusat data. Seluruh proses ini membutuhkan energi yang signifikan, jadi salah satu "solusi potensial adalah mengembangkan chip komunikasi kabel yang lebih efisien."
Javadi lebih lanjut mencatat bahwa ketika dikirim dengan kecepatan tinggi, data tersebut sebenarnya rusak di ujung penerima, dan sebagai hasilnya, data tersebut perlu dibersihkan. Untuk tujuan ini, sebagian besar sistem komunikasi kabel yang ada menggunakan equalizer, yang menghabiskan banyak daya.
“Kami menggunakan prinsip-prinsip AI pada chip untuk memulihkan data dengan cara yang lebih cerdas dan efisien dengan melatih pengklasifikasi pada chip untuk mengenali dan mengoreksi kesalahan.”
– Jawa
Meski merupakan pengembangan besar, ini hanyalah versi awal dari chip tersebut. Iterasi berikutnya saat ini sedang dalam pengerjaan untuk lebih meningkatkan efisiensi energinya.
Secara keseluruhan, penelitian yang sedang berlangsung ini menunjukkan potensi besar untuk memiliki implikasi yang luas bagi masa depan infrastruktur AI dan operasi pusat data. Namun tentu saja, hal itu memerlukan implementasi teknologi yang sukses dalam skala besar, yang bukanlah tugas yang mudah.
Klik di sini untuk mempelajari bagaimana AI mengubah rekayasa mikrochip.
Menjinakkan Nafsu Energi AI dengan Terobosan Lintas Lapisan
Pengembangan chip terbaru ini hanyalah salah satu dari sekian banyak proyek penelitian yang menangani masalah konsumsi energi AI. Jadi, mari kita lihat sekilas cara inovatif yang telah dilakukan para peneliti untuk mengatasinya.
Menggunakan Cahaya untuk Efisiensi Energi AI
Awal tahun ini, para ilmuwan USST dikembangkan1 chip AI mikroskopis, lebih kecil dari setitik debu atau sebutir garam, yang menggunakan cahaya untuk memproses data dari kabel serat optik. Ini menjanjikan komputasi yang lebih cepat dengan konsumsi energi yang lebih sedikit.
Chip tersebut memanipulasi cahaya untuk melakukan kalkulasi secara instan, alih-alih menafsirkan sinyal cahaya seperti yang dilakukan komputer tradisional. Untuk ini, chip tersebut menggunakan "jaringan saraf dalam difraktif optik penuh", teknologi yang memanfaatkan lapisan komponen berpola yang dicetak 3D dan ditumpuk bersama-sama. Meskipun inovatif, tantangan seperti desain khusus tugas, kepekaan terhadap ketidaksempurnaan, dan kesulitan dalam produksi dalam skala besar perlu diatasi agar dapat mencapai "fungsi yang belum pernah terjadi sebelumnya" dalam pencitraan endoskopi, komputasi kuantum, dan pusat data.
Beberapa bulan sebelumnya, ilmuwan MIT juga menggunakan cahaya untuk melakukan operasi utama jaringan saraf pada sebuah chip, yang memungkinkan komputasi AI sangat cepat (dalam setengah nanodetik) dengan akurasi 92% dan efisiensi energi yang sangat besar.
“Karya ini menunjukkan bahwa komputasi — yang pada hakikatnya, pemetaan masukan ke keluaran — dapat disusun ke dalam arsitektur baru fisika linier dan nonlinier yang memungkinkan hukum skala komputasi yang secara fundamental berbeda dibandingkan upaya yang diperlukan.”
– Penulis senior Dirk Englund
Para ilmuwan mengembangkan chip fotonik2, yang terbuat dari modul-modul yang saling terhubung yang membentuk jaringan saraf optik. Khususnya, penggunaan proses pengecoran komersial untuk pembuatannya berarti ia dapat diskalakan dan diintegrasikan ke dalam elektronik. Selain itu, para ilmuwan mengatasi tantangan nonlinieritas dalam optik dengan merancang unit fungsi optik nonlinier (NOFU) yang menggabungkan elektronik dan optik.
Alat Perangkat Lunak untuk Pelatihan AI & Sistem Pendingin untuk Pusat Data

Sementara itu, para peneliti di Universitas Michigan, menargetkan pemborosan energi dibuat pada saat pelatihan AI, lebih khusus lagi, saat dibagi antara GPU, suatu kebutuhan untuk memproses himpunan data besar, secara tidak merata.
Jadi, mereka mengembangkan perangkat lunak bernama Perseus yang mengidentifikasi subtugas yang akan membutuhkan waktu paling lama untuk diselesaikan dan kemudian mengurangi kecepatan prosesor yang tidak berada pada 'jalur kritis' ini agar memungkinkan semuanya menyelesaikan tugasnya secara bersamaan, sehingga menghilangkan penggunaan daya yang tidak perlu.
Alat sumber terbuka ini tersedia sebagai bagian dari Zeus, alat untuk mengukur dan mengoptimalkan konsumsi energi AI.
Sementara itu, para peneliti dari Universitas Missouri beralih ke merancang sistem pendingin generasi berikutnya untuk membantu pusat data menjadi lebih hemat energi. Mereka juga membuat sistem pendingin untuk memudahkan penyambungan dan pemutusan sambungan di rak server.
“Pendinginan dan produksi chip berjalan beriringan. Tanpa pendinginan yang tepat, komponen akan menjadi terlalu panas dan rusak. Pusat data yang hemat energi akan menjadi kunci masa depan komputasi AI.”
- Chanwoo Park, seorang profesor teknik mesin dan kedirgantaraan di Mizzou College of Engineering
Dengan dukungan dana sebesar $1.5 juta dari inisiatif COOLERCHIPS milik DOE, tim tersebut mengembangkan sistem pendinginan dua fase yang menghilangkan panas dari chip server melalui perubahan fase. Sistem ini tidak hanya dapat beroperasi secara pasif tanpa menggunakan energi apa pun saat dibutuhkan untuk pendinginan yang lebih sedikit, tetapi bahkan saat dalam mode aktif, sistem ini menggunakan jumlah yang sangat kecil.
Perangkat Keras CRAM Dapat Memotong Penggunaan Energi AI hingga 1000x
Musim panas lalu, para insinyur di Universitas Minnesota Twin Cities mengembangkan perangkat keras yang canggih3 yang dapat mengurangi konsumsi energi AI sekitar 1,000 kali.
Model baru ini disebut computational random-access memory (CRAM), dan di sini, data tidak pernah meninggalkan memori; sebaliknya, data diproses sepenuhnya dalam susunan memori, sehingga menghilangkan kebutuhan akan transfer data yang lambat dan membutuhkan banyak energi.
Penelitian yang memakan waktu dua dekade ini merupakan bagian dari upaya tim untuk mengembangkan penelitian paten penulis senior Jian-Ping Wang tentang perangkat Magnetic Tunnel Junctions (MTJ). Perangkat berstruktur nano ini digunakan untuk meningkatkan sensor, hard drive, dan sistem mikroelektronika lainnya seperti Magnetic Random Access Memory (MRAM).
"Sebagai substrat komputasi dalam memori berbasis digital yang sangat hemat energi, CRAM sangat fleksibel karena komputasi dapat dilakukan di lokasi mana pun dalam susunan memori," kata rekan penulis Ulya Karpuzcu, Associate Professor di Departemen Teknik Elektro dan Komputer. Selain itu, CRAM dapat dikonfigurasi ulang agar paling sesuai dengan kebutuhan kinerja berbagai algoritma.
AI yang Terinspirasi Otak: Mengurangi Penggunaan Daya dengan Meniru Efisiensi Manusia
Jadi, seperti yang kita lihat, para peneliti mengamati berbagai aspek AI untuk menangani masalah energinya. Menariknya, mereka juga beralih ke otak manusia untuk mendapatkan inspirasi. Ini masuk akal, bagaimanapun juga, AI adalah simulasi proses kecerdasan manusia oleh mesin, meskipun itu jauh dari pemikiran dan penalaran manusia karena kemampuannya untuk melakukan generalisasi ke berbagai variasi menjadi “jauh lebih lemah dibandingkan kognisi manusia.”
Penelitian pengurangan energi yang terinspirasi oleh otak mencakup karya Associate Professor Chang Xu di Pusat AI Universitas Sydney, yang mencatat bahwa LLM yang memanfaatkan sumber daya pada kapasitas penuh, bahkan untuk tugas-tugas sederhana, bukanlah cara yang tepat untuk melakukan sesuatu. Ia menjelaskan:
"Jika kita pikirkan otak manusia yang sehat, ia tidak mengaktifkan semua neuron atau menggunakan seluruh daya otaknya sekaligus. Ia beroperasi dengan efisiensi energi yang luar biasa, hanya 20 Watt meskipun memiliki sekitar 100 miliar neuron, yang secara selektif digunakan dari berbagai belahan otak untuk melakukan berbagai tugas atau berpikir."
Oleh karena itu, mereka mengembangkan algoritma yang melewati perhitungan berulang yang tidak diperlukan dan tidak bekerja secara otomatis.
Dalam kasus lain, penelitian mengambil inspirasi dari neuromodulasi otak dan menciptakan sebuah algoritma yang disebut 'sistem penyimpanan'untuk mengurangi energi sebesar 37% tanpa penurunan akurasi, fungsi perbaikan diri sel otak yang disebut astrosit untuk perangkat keras, dan mendapatkan bentuk komputasi neuromorfik (terinspirasi otak) (memristor) untuk bekerja sama dalam beberapa subkelompok jaringan saraf.
Berinvestasi dalam Kecerdasan Buatan
Sebuah perusahaan semikonduktor global, AMD (AMD ) dikenal dengan komputasi, grafik, dan teknologi visualisasi berkinerja tinggi. Meskipun bersaing langsung dengan perusahaan AI NVIDIA (NVDA ), perusahaan ini dengan cepat mendapatkan tempat di pasar pusat data dan akselerator AI. Seri MI300-nya secara khusus menargetkan beban kerja AI generasi baru dan aplikasi HPC.
Kehadirannya yang terdepan dalam bidang CPU pusat data, fokus R&D yang kuat, pertumbuhan pendapatan, klien, dan akuisisi menjadikan AMD pemain yang kuat di sektor ini.
Advanced Micro Devices (AMD )
Pada tahun 2022, AMD membuat kesepakatan industri chip yang memecahkan rekor senilai $50 miliar dengan mengakuisisi Xilinx untuk menjadi pemimpin komputasi adaptif dan berkinerja tinggi di industri ini. Dan yang terbaru, perusahaan ini merampungkan akuisisi ZT Systems untuk menangani peluang akselerator AI pusat data senilai $500 miliar pada tahun 2028.
Kinerja pasar AMD juga mengalami pemulihan tahun ini setelah dilanda turbulensi tarif. Saat artikel ini ditulis, saham AMD diperdagangkan pada harga $120, turun 6.9% YTD tetapi hanya sekitar 47% dari puncaknya pada Maret 2024. Dengan demikian, kapitalisasi pasarnya mencapai $182.34 miliar dengan EPS (TTM) sebesar 1.36 dan P/E (TTM) sebesar 82.44.
Mengenai keuangan perusahaan, AMD melaporkan peningkatan pendapatan sebesar 36% YoY menjadi $7.4 miliar untuk Q1 tahun 2025, yang oleh CEO Dr. Lisa Su disebut sebagai "awal yang luar biasa" untuk tahun ini, "meskipun lingkungan makro dan regulasi yang dinamis." Pertumbuhan ini didorong oleh "perluasan momentum pusat data dan AI," tambahnya.
Selama periode ini, pendapatan operasional AMD mencapai $806 juta, laba bersih $709 juta, dan laba per saham dilusian $0.44. Untuk Q2 tahun 2025, perusahaan memproyeksikan pendapatan sekitar $7.4 miliar.
Beberapa perkembangan utama yang dilakukan perusahaan meliputi perluasan kemitraan strategis dengan Meta Platform, Inc. (META ) (Llama), Alphabet Inc. (GOOGL ) (Gema), Oracle Corporation (ORCL ), Inti42, Dell Technologies (DELL ), dan lainnya. AMD, bersama dengan Nokia, Cisco Systems, Inc. (CSCO ), dan Jio, juga mengumumkan Platform AI Telekomunikasi Terbuka baru untuk menawarkan solusi berbasis AI guna meningkatkan efisiensi, keamanan, dan kemampuan.
Sekarang, minggu ini, AMD dan Nvidia bermitra dengan Humain, anak perusahaan Dana Investasi Publik Arab Saudi yang berfokus pada AI untuk memasok semikonduktor bagi proyek pusat data skala besar yang diharapkan memiliki kapasitas 500MW.
Klik di sini untuk daftar perusahaan komputasi non-silikon teratas.
Tren dan Perkembangan Terbaru Advanced Micro Devices (AMD)
Kesimpulan
Selama beberapa tahun terakhir, kegilaan AI telah mengalami pertumbuhan yang pesat, dan tentu saja ada alasannya. Bagaimanapun, teknologi ini memiliki potensi besar untuk mengubah berbagai industri mulai dari perawatan kesehatan, manufaktur, dan ilmu material hingga keuangan, hiburan, pendidikan, ritel, dan keamanan siber.
Namun, kemajuan teknologi, meningkatnya adopsi, dan perluasan LLM berikutnya telah mengakibatkan permintaan energi yang besar, yang berkontribusi terhadap emisi gas rumah kaca (GRK) dan perubahan iklim, meningkatkan biaya ekonomi, dan berdampak pada keberlanjutan teknologi.
Hal ini menghadirkan tantangan besar bagi AI. Jika kita ingin sepenuhnya mewujudkan potensi sebenarnya dalam hal pengurangan biaya, peningkatan produktivitas, dan peningkatan pengambilan keputusan dalam skala besar, model-model tersebut harus mencapai efektivitas biaya dan keberlanjutan.
Namun, hal baiknya adalah para peneliti di seluruh dunia kini bekerja keras untuk membuat AI hemat energi, terbukti dari chip bertenaga AI milik Oregon State, yang menunjukkan kemungkinan kuat untuk menyelaraskan inovasi dengan keberlanjutan.
Tentu saja, teknologi yang diusulkan harus mengatasi kendala terbesarnya dalam mencapai dampak nyata, yaitu skalabilitas. Namun, satu hal yang jelas: masa depan AI yang lebih ramah lingkungan dapat terwujud, dan akan segera terwujud!
Klik di sini untuk mempelajari semua tentang berinvestasi dalam kecerdasan buatan.
Studi yang dirujuk:
1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., & Zhang, C. (2025). Pengangkutan citra optik melalui serat multimode menggunakan jaringan saraf difraktif mini pada faset distal. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, MJ, Lukin, MD, & Lončar, M. (2024). Jaringan saraf dalam fotonik chip tunggal dengan pelatihan maju saja. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, BR, Bloom, RP, Roy, A., Vaddi, K., Shang, L., & Manipatruni, S. (2024). Demonstrasi eksperimental memori akses acak komputasional berbasis sambungan terowongan magnetik. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3










