Kecerdasan Buatan
Benturan Antara Kekuatan AI dan Norma Demokrasi
Securities.io mempertahankan standar editorial yang ketat dan dapat menerima kompensasi dari tautan yang ditinjau. Kami bukan penasihat investasi terdaftar dan ini bukan nasihat investasi. Silakan lihat pengungkapan afiliasi.

Seiring dengan semakin meluas dan canggihnya teknologi AI, semakin sulit untuk menemukan keseimbangan antara nilai-nilai demokrasi dan kemajuan teknologi. Di satu sisi, kini semakin mudah bagi orang untuk berbagi visi mereka dengan masyarakat luas.
Namun, AI tidak memiliki batasan, artinya AI terus-menerus mendorong batas hampir setiap metrik sosial. Berikut adalah bagaimana para pengembang AI terus mencoba menciptakan harmoni antara kemampuan AI dan nilai-nilai demokrasi, dan mengapa hal itu mungkin mustahil untuk dilakukan.
Bagaimana AI Membentuk Kembali Perlindungan Kebebasan Berbicara
Kecerdasan buatan telah memberikan dampak yang besar pada kebebasan berbicara. Pertama, hal ini mempermudah orang untuk menciptakan penggambaran visi mereka yang dinamis dan membagikannya kepada publik melalui media sosial. Selain itu, hal ini juga mengurangi biaya produksi hingga hampir nol, memungkinkan organisasi mana pun untuk memperjuangkan tujuannya secara virtual.
Alat AI memberikan beberapa manfaat, termasuk kemampuan untuk dengan mudah mengubah dan menyesuaikan pesan mereka agar sesuai dengan demografi tertentu. Selain itu, konten AI, sejauh ini, dianggap berada di bawah perlindungan Amandemen Pertama. Dengan demikian, hal ini memungkinkan para kreator untuk berekspresi secara bebas.
Sebaliknya, AI telah menyebabkan banjir disinformasi. Kini semakin sulit bagi orang untuk membedakan informasi mana yang berasal dari pakar sejati dan mana yang dibuat oleh algoritma. Sayangnya, hasilnya adalah terkikisnya kepercayaan terhadap sistem.
Bagaimana Algoritma Media Sosial Memperkuat Disinformasi AI
Yang memperparah kekacauan, algoritma media sosial dapat mempromosikan deepfake karena seringkali lebih kontroversial, sehingga menghasilkan lebih banyak interaksi. Hal ini menciptakan siklus di mana informasi palsu ditampilkan lebih menonjol daripada informasi yang sebenarnya. Sayangnya, tidak ada mandat yang menyatakan bahwa misinformasi AI harus diberi label.
AI dan Partisipasi Warga Negara dalam Sistem Demokrasi
Kecerdasan buatan membuka pintu bagi partisipasi yang lebih luas dari warga negara. Sistemnya memudahkan pemerintah dan warga negara untuk mengomunikasikan ide-ide mereka dan melacak konsensus publik. Selain itu, terbukti bermanfaat dalam meringkas undang-undang yang kompleks dan berbagi data penting untuk menginformasikan warga negara.
Risiko Pengawasan AI dan Kekhawatiran Privasi Demokratis
Ada beberapa risiko pengawasan AI tersebut menciptakan sistem yang mendorong partisipasi pemilih. Sistem ini dapat dengan mudah melacak pemilih. Terdapat sistem AI yang dapat meninjau jejak digital lengkap Anda dan memberikan penilaian terhadap pandangan politik Anda berdasarkan aktivitas web Anda.
Selain itu, teknologi ini dapat digunakan untuk menentukan identitas seseorang berdasarkan jejak digital atau preferensi mereka. Semua alat ini tidak memerlukan surat perintah seperti teknologi sebelumnya. Dengan demikian, potensi penyalahgunaannya meningkat.
Peran AI dalam Pemilu Modern dan Integritas Pemilu
Kecerdasan buatan menawarkan beberapa manfaat bagi proses pemilihan. Pertama, hal ini mempermudah pemantauan hasil. Sistem AI juga dapat membantu melacak setiap gangguan berupa intimidasi atau ancaman terhadap pemilih.
Deepfake AI dan Krisis Kepercayaan Politik
Dari semua disinformasi AI yang menyebabkan kekacauan saat ini, masalah utama muncul seputar deepfake. Teknologi ini memungkinkan orang untuk dengan mudah membuat duplikat pejabat publik, profesional industri, atau siapa pun yang mereka inginkan, termasuk kandidat politik.

Sumber - BBC
Deepfake politik terus menimbulkan masalah bagi para pejabat dan memutarbalikkan informasi kepada publik. Masalahnya adalah deepfake ini hampir tidak dapat dibedakan dari yang asli. Karena itu, deepfake telah diadopsi oleh hampir setiap kelompok yang berupaya menciptakan kekacauan atau menabur benih ketidakpercayaan di masyarakat.
“Dividen Pembohong” dan Erosi Kepercayaan Publik
Serangan terus-menerus dari deepfake berbasis AI memiliki efek tak terduga lainnya – dividen si pembohong. Istilah ini merujuk pada suatu kejadian yang memiliki fakta dan bukti yang sahih, tetapi tetap disangkal oleh pihak yang dituduh sebagai deepfake berbasis AI.
Strategi ini merusak kepercayaan terhadap sistem dan menciptakan skenario di mana orang awam tidak dapat membuat keputusan yang tepat. Strategi ini juga menghilangkan peluang untuk debat yang rasional, karena semua pihak terpolarisasi pada berbagai topik akibat informasi yang salah.
Contoh Nyata Penggunaan Deepfake AI dalam Pemilu
Terdapat beberapa contoh terkini tentang deepfake yang menimbulkan kekacauan selama pemilihan umum. Salah satu insiden penting terjadi pada 21 Januari 2024, ketika deepfake panggilan otomatis digunakan. Sistem AI tersebut diatur untuk menghubungi para pendukung Partai Demokrat yang terdaftar.
Ketika mereka menjawab, sebuah Suara deepfake Presiden Joe Biden digunakan untuk mendesak mereka untuk “simpan suara mereka untuk bulan November.Laporan menunjukkan bahwa pesannya sampai kepada 20,000 orang, yang mengakibatkan banyak orang memilih untuk tidak ikut serta dalam pemilihan umum seperti yang dinyatakan dalam pesan tersebut.
Ketika laporan tentang panggilan otomatis (robocalls) muncul, sebuah investigasi pun diluncurkan. Namun, hal itu terjadi setelah pemilihan umum selesai, dan tidak ada surat suara yang dihitung ulang. Skenario ini hanyalah salah satu dari banyak contoh yang menyoroti bahaya campur tangan pemilihan umum menggunakan kecerdasan buatan (AI deepfake).
Skandal Deepfake Pemilu Slovakia 2023
Contoh lain dari campur tangan AI dalam pemilihan terjadi di Pemilu Slovakia 2023Dalam insiden ini, sebuah video palsu muncul yang menunjukkan pemimpin Progressive Slovakia, Michal Šimečka, membahas kecurangan pemilu. Video tersebut kemudian diberi label palsu, tetapi baru setelah mendapatkan jutaan penayangan dan dibagikan di TikTok, Facebook, dan Telegram.
Cara Mendeteksi Deepfake AI di Tahun 2026
Mendeteksi deepfake bukanlah tugas yang mudah. Dahulu, teknologi ini seringkali meninggalkan banyak kesalahan, seperti kedipan mata yang tidak alami, pencahayaan yang aneh, atau bahkan tampilan sinkronisasi bibir. Penelitian menunjukkan bahwa manusia seringkali kurang mampu mendeteksi deepfake berkualitas tinggi, seringkali hanya mampu mendeteksi secara acak tergantung pada konteks dan modalitasnya.
Salah satu cara untuk menentukan apakah sebuah video adalah deepfake adalah dengan mencari bingkai gambar menggunakan Google untuk menemukan konten aslinya. Mereka juga akan mencoba menggunakan audio untuk mencari suara yang tidak wajar. Dalam beberapa kasus, mendeteksi deepfake berkualitas tinggi tidak mungkin dilakukan tanpa beberapa alat teknis.
Alat Deteksi Deepfake AI Terbaik dan Keterbatasannya
Ironisnya, alat AI adalah pilihan terbaik untuk digunakan ketika mencoba menentukan keabsahan sebuah video. Pilihan-pilihan ini meliputi: Pemindai Perangkat Dalam, Pembela Realitas, Milik Microsoft Pengautentikasi Video, Dan banyak lagi.
Protokol-protokol ini memiliki algoritma eksklusif yang dirancang untuk menemukan ketidaksesuaian piksel atau pola apa pun yang ditemukan dalam bingkai video AI. Sistem ini juga dapat membandingkan kejadian tersebut dengan data lokal, sehingga memungkinkan mereka untuk mengungkap gangguan AI.
Alat deteksi AI terbaik pun tidak sempurna, dengan protokol seperti... Bio-ID Mendapatkan skor 98% dalam pengujian terbaru. Fakta bahwa 2% dari deepfake tersebut dapat dikenali bahkan oleh sistem AI lain menjadi penyebab kekhawatiran ke depannya.
Literasi Media sebagai Pertahanan Terhadap Manipulasi AI
Mungkin cara terbaik untuk memerangi deepfake adalah dengan fokus pada peningkatan literasi media di kalangan masyarakat. Yang terpenting, perlu ada label wajib yang memudahkan untuk menentukan apakah sebuah video adalah deepfake atau video yang sah.
Mengapa Regulasi Mandiri Perusahaan Teknologi Besar Gagal dalam Tata Kelola AI?
Sejarah telah menunjukkan bahwa perusahaan teknologi tidak dapat mengatur diri sendiri. Fokus mereka adalah pada keuntungan dan inovasi. Keinginan ini dapat mengorbankan privasi dan kebenaran. Dengan demikian, tidak ada skenario di mana perusahaan teknologi dapat secara efektif mencegah deepfake mencapai pengikut mereka.
Upaya Regulasi AI Pemerintah pada Tahun 2026
Karena perusahaan teknologi tidak mampu memberikan perlindungan yang dibutuhkan terhadap masalah-masalah ini, pemerintah mulai mengambil alih peran tersebut. Namun, skenario ini tidak ideal karena pemerintah tidak memahami teknologi dengan cara yang memungkinkan mereka untuk menciptakan pengamanan yang tidak menghambat inovasi.
Perusahaan AI vs Pemerintah: Bentrokan Kebijakan 2026
Kesenjangan antara pemerintah dan penyedia AI mulai melebar dalam beberapa bulan terakhir. Sementara para pembuat undang-undang berupaya melindungi masyarakat dari deep fake dan disinformasi, militer terus mendorong integrasi penuh alat AI ke dalam persenjataannya.
Keinginan untuk menggunakan teknologi ini sebagai bagian dari rantai serangan telah mengakibatkan beberapa perselisihan publik antara perusahaan dan pemerintah AS. Berikut adalah beberapa insiden terbaru, yang menyoroti risiko dan potensi sisi gelap dari peperangan berbasis AI.
Anthropic melawan Departemen Pertahanan AS
Antropik Sedang terjadi perselisihan publik dengan Departemen Pertahanan AS terkait penggunaan model AI Claude mereka. Perselisihan tersebut berpusat pada pemberian akses tak terbatas ke AI, yang dapat mengakibatkan sistem tersebut digunakan untuk melakukan pengawasan massal di dalam negeri.
Anthropic, yang diluncurkan pada tahun 2021, juga menolak akses penuh karena kekhawatiran tentang keandalan sistem penargetan AI. Kedua batasan ini ditetapkan oleh CEO perusahaan, Dario Amodei, dengan menyebutkan ketidakandalan sebagai kekhawatiran utama.
Usulan Pembatasan Penggunaan AI Militer oleh Anthropic
Untuk bagian ini, Pentagon berpendapat bahwa kontrak Pentagon senilai $200 juta ini harus mencakup akses tanpa batasan. Anthropic memberikan beberapa konsesi selama debat, termasuk mengizinkan sistem AI digunakan dalam rudal dan pertahanan. Mereka bahkan menyatakan akan setuju dengan operasi NSA, selama tidak termasuk pengawasan massal terhadap warga negara AS.
Mengapa Pentagon Menolak Pembatasan Anthropic?
Namun, itu belum cukup bagi para pejabat Pentagon. Tak lama setelah Anthropic membantah klaim ini, pemerintahan Trump melarang penggunaan produk mereka oleh organisasi federal mana pun. Secara khusus, presiden menyebut produk Anthropic sebagai "risiko keamanan nasional." Pemberitaan seputar perselisihan ini juga merujuk pada Undang-Undang Produksi Pertahanan sebagai alat tekanan potensial, meskipun alasan hukum yang tepat harus dijelaskan dengan hati-hati kecuali dikutip langsung dari perintah tersebut.
Manuver ini berarti bahwa Anthropic tidak akan mampu mendapatkan kontrak militer atau pemerintah apa pun di masa mendatang, sehingga perusahaan berada dalam situasi genting di mana mereka harus memilih antara keyakinan inti mereka dan keuntungan.
Bagaimana OpenAI dan xAI Merespons Pergeseran Pentagon
OpenAI, pesaing Anthropic, dengan cepat mengambil alih peran Anthropic, menjanjikan kepatuhan penuh terhadap Pentagon. Oleh karena itu, perusahaan tersebut menandatangani perjanjian rahasia dengan pemerintah, yang mencakup penggunaan sistem AI-nya secara sah tanpa batasan.
Aplikasi Militer Terkini dari Kecerdasan Buatan
Sudah banyak contoh sistem AI yang membantu meningkatkan kecepatan dan skala peperangan. Sistem-sistem ini dioptimalkan untuk bekerja berdampingan dengan semakin banyaknya sistem otonom, seperti teknologi drone berkelompok.
Kecerdasan buatan dipandang sebagai pengubah permainan karena dapat menggabungkan masukan dari berbagai macam sensor untuk memberikan penargetan yang lebih cepat dan banyak lagi. Hal ini juga sangat penting di sektor logistik dan keuangan militer, di mana ia dapat membantu memastikan pemeliharaan preventif dan tugas-tugas penting lainnya tetap sesuai jadwal.
Penggunaan Sistem Penargetan AI oleh Israel di Gaza
Penggunaan sistem penargetan AI disorot dalam kampanye Israel di Gaza. Operasi-operasi ini memanfaatkan berbagai alat seperti... warna lembayung muda untuk mencocokkan pergerakan seseorang dengan potensi perilaku militan.
Alat ini memungkinkan tentara Israel untuk melacak dan menargetkan pejuang Hamas tingkat rendah sebelum mengebom mereka di rumah mereka. Yang perlu diperhatikan, sistem ini dilaporkan memiliki tingkat kesalahan 10% menurut personel militer Israel. Namun, angka tersebut sangat diperdebatkan.
Penjelasan Sistem Penargetan AI “Injil”
Alat AI Israel lainnya yang dijuluki ajaran Sistem ini dirancang untuk menyediakan 100 target setiap hari. Sistem ini mencocokkan pergerakan dan data lainnya untuk menemukan bangunan potensial yang dapat menjadi tempat persembunyian pejuang musuh. Sistem ini sering digunakan bersamaan dengan “Di mana Ayah? Program AI yang memungkinkan pelacakan otomatis terhadap personel yang ditandai.
AI dalam Penegakan Hukum: Deteksi Ancaman dan Risiko Privasi
Penggunaan sistem AI dalam penegakan hukum adalah perdebatan sengit lainnya. Banyak orang terkejut mengetahui bahwa sistem ChatGPT menandai Pelaku penembakan massal di Tumbler Ridge, KanadaJesse Van Rootselaar, sebagai ancaman potensial.
Secara spesifik, sistem AI mencatat pelanggaran kebijakan delapan bulan sebelumnya, di mana pengguna berulang kali mengajukan pertanyaan terkait kekerasan senjata api. Pertanyaan tersebut dikirim ke beberapa peninjau manusia, yang menyebabkan akun tersebut diblokir dan pengguna tersebut ditandai.
Mengapa Sistem Penandaan AI Sering Gagal Memicu Intervensi?
Meskipun alarm berbunyi, perusahaan menyatakan bahwa akun tersebut tidak melewati ambang batas yang mereka anggap sebagai ancaman aktif. Karena itu, pihak berwenang tidak pernah diberitahu. Seandainya mereka diberitahu, mereka mungkin dapat mewawancarai dan menyelamatkan delapan nyawa pada tanggal 10 Februari 2026.
Menariknya, catatan internal perusahaan menunjukkan bahwa ada perdebatan mengenai pemberitahuan kepada pihak berwenang setelah akun tersebut diblokir. Kemudian terungkap bahwa pelaku penembakan membuka akun lain untuk menghindari pemblokiran sebelum melakukan serangannya.
Para pejabat pemerintah berpendapat bahwa OpenAI bertanggung jawab untuk memberi tahu pihak berwenang tentang percakapan yang mencurigakan tersebut, dan jika mereka melakukannya, hal itu dapat membantu menyelamatkan nyawa. Sebaliknya, perusahaan tersebut menyatakan bahwa mereka akan meningkatkan berbagi data dan waktu respons, serta menurunkan ambang batasnya.
Surat Etika AI “Kita Tidak Akan Terpecah Belah”
The "Surat "Kita Tidak Akan Terpecah Belah"“Surat ini” merupakan seruan terbuka bagi karyawan AI untuk secara terbuka menentang senjata otonom sepenuhnya dan pengawasan massal, serta mendorong komitmen keselamatan yang dapat ditegakkan di seluruh industri. Surat tersebut mendesak para pengembang AI untuk tidak mendukung senjata otonom sepenuhnya atau operasi pengawasan massal dengan cara apa pun.
Selain itu, panduan ini juga membuat daftar pedoman keselamatan bersama yang dirancang untuk mencegah skenario AI yang tak terkendali. Pedoman ini mencakup hal-hal seperti melibatkan manusia untuk pengawasan dan menyetujui aktivitas yang mematikan. Panduan ini juga mengedepankan transparansi untuk mencegah penyalahgunaan.
Tujuan utama surat ini adalah untuk menciptakan serangkaian standar etika yang dapat diikuti oleh semua perusahaan AI guna mencegah teknologi ini membuat kehidupan semua orang di planet ini menjadi neraka. Surat ini muncul pada titik kritis dalam adopsi AI karena militer telah bergantung pada teknologi ini untuk operasi penargetan dan pengumpulan informasi.
Bagaimana Sikap Perusahaan AI Besar Terhadap Penggunaan oleh Pemerintah dan Militer?
Ketika Anda meneliti dua skenario yang sangat berbeda ini, Anda dapat melihat bagaimana perusahaan AI terus menggabungkan operasi mereka dengan lembaga pemerintah. Penggabungan ini akan membutuhkan keseimbangan yang cermat antara kemampuan dengan pengamanan dan transparansi untuk mencegah penyalahgunaan. Berikut adalah sikap masing-masing perusahaan saat ini terhadap operasi pemerintah.
Geser untuk menggulir →
| Penyedia | Pendirian | Status Kontrak |
|---|---|---|
| Antropik | Akses terbatas | Penggunaan federal dibatasi/dihapus secara bertahap. |
| Dukungan perusahaan penuh | Kontrak CDAO yang dilaporkan (~$200 juta) | |
| OpenAI | Penerapan “penggunaan yang sah” (klaim perlindungan) | Pengerahan pasukan dilaporkan |
| xAI | Kesediaan untuk “penggunaan yang sah” dilaporkan | Laporan pekerjaan pemerintah |
Antropik
Anthropic tetap berpegang pada standar intinya, berupaya mempertahankan batasan ketat pada penargetan otonom dan kasus penggunaan pengawasan massal. Namun, tampaknya mereka membayar mahal untuk kompas moral mereka, karena lembaga federal mulai membatasi atau menghapus penggunaan model mereka di lingkungan tertentu.
OpenAI
OpenAI sepenuhnya mendukung integrasi pemerintah. Perusahaan ini sangat ingin mendapatkan posisi ketika Anthropics kehilangan kontrak Departemen Pertahanan karena tetap berpegang pada misi intinya. OpenAI telah setuju untuk menerapkan model dalam lingkungan pertahanan di bawah kerangka kerja "penggunaan yang sah". Perusahaan menyatakan bahwa mereka melarang pengawasan massal domestik dan menuntut tanggung jawab manusia atas penggunaan kekuatan.
xAI
xAI milik Elon Musk telah menjadi pendukung kuat integrasi AI ke dalam doktrin peperangan. Laporan menunjukkan bahwa xAI telah mengisyaratkan kesediaan untuk mendukung penyebaran rahasia pemerintah berdasarkan ketentuan "penggunaan yang sah", meskipun detail operasionalnya masih terbatas.
Google (GOOGL ) Telah terjadi banyak perdebatan internal mengenai penggunaan sistemnya dalam peperangan. Perusahaan tersebut memiliki lebih dari 300 pekerja inti yang menandatangani surat terbuka yang mendesak penyedia AI untuk menolak kontrak terbuka dengan Pentagon. Namun, Google memiliki kontrak CDAO senilai lebih dari $200 juta, yang berarti mereka berada di bawah tekanan besar untuk mengalah.
Berita dan Kinerja Terbaru GOOGLE (GOOGL)
Masa Depan Tata Kelola AI dan Stabilitas Demokrasi
Ketika Anda meneliti integrasi sistem AI dalam segala hal, mulai dari pemerintahan hingga operasi militer, mudah untuk menyadari perlunya beberapa pengamanan. Sistem ini telah menjadi sangat kuat baik secara teknis maupun sosial. Mudah-mudahan, perusahaan AI akan menyadari pentingnya pemisahan mereka dan berpegang pada standar etika sebelum terlambat. Saat ini, tampaknya keuntungan akan memenangkan perlombaan ini.
Pelajari tentang perkembangan AI lainnya di sini.












