Kecerdasan Buatan
Menilai Kembali Kewajaran Kecerdasan Buatan melalui Optimalisasi Kesejahteraan Sosial
Securities.io mempertahankan standar editorial yang ketat dan dapat menerima kompensasi dari tautan yang ditinjau. Kami bukan penasihat investasi terdaftar dan ini bukan nasihat investasi. Silakan lihat pengungkapan afiliasi.

Ketika sistem AI menjadi lebih luas dan kuat, pertanyaan tentang bagaimana menjadikannya adil dan adil telah menjadi tantangan terbesar. Mulai dari peminjaman dan perekrutan hingga layanan kesehatan dan peradilan pidana, algoritma AI kini telah mulai mengendalikan kehidupan dan penghidupan individu dan komunitas. Seringkali, algoritme ini beroperasi dengan cara yang tidak terlihat, tidak dapat dipertanggungjawabkan, dan tidak dapat dipertanggungjawabkan bahkan terkadang bias terhadap kelompok yang secara historis kurang beruntung.
Menanggapi kekhawatiran ini, komunitas peneliti, praktisi, dan pembuat kebijakan bersatu untuk mengembangkan sistem AI yang “adil” yang memperlakukan semua orang secara setara dan tidak melanggengkan atau memperbesar kesenjangan sosial. Pendekatan dominan dalam memformalkan dan mengoperasionalkan keadilan dalam AI adalah penggunaan “metrik paritas statistik”, yang bertujuan untuk menyamakan metrik kinerja tertentu seperti tingkat seleksi atau tingkat kesalahan di seluruh kelompok yang dilindungi.
Namun, meskipun gagasan keadilan berbasis paritas telah dipelajari dan diadopsi secara luas dalam komunitas AI, gagasan tersebut juga menghadapi semakin banyak kritik dari para pakar yang berpendapat bahwa gagasan tersebut memiliki kelemahan konseptual, terbatas pada praktiknya, dan berpotensi kontraproduktif. Mereka berpendapat bahwa menyamakan hasil statistik antar kelompok saja tidak cukup untuk mencapai keadilan substantif karena hal ini mengabaikan dampak kesejahteraan aktual dari keputusan AI terhadap individu dan komunitas.
In makalah baru dalam prosiding CPAIOR 2024, tim peneliti dari Carnegie Mellon University dan Stevens Institute of Technology mengusulkan pendekatan alternatif terhadap keadilan AI berdasarkan optimalisasi kesejahteraan sosial. Dipimpin oleh John Hooker, profesor riset operasi di Universitas Carnegie Mellon, penulis menggunakan fungsi kesejahteraan sosial yang terkenal “keadilan alfa” untuk membedah batasan dan titik buta dari metrik paritas statistik populer seperti paritas demografis, peluang yang disamakan, dan tingkat prediksi. keseimbangan.
Hasil penelitian menunjukkan bahwa metrik paritas ini seringkali tidak sejalan dengan prinsip keadilan distributif seperti memprioritaskan kelompok yang paling miskin atau distribusi manfaat dan beban yang adil. Dalam banyak kasus, solusi alpha-fair jauh dari solusi paritas, sehingga metrik ini dapat menyebabkan sistem AI menjadi kurang optimal baik dari sudut pandang efisiensi maupun keadilan.
Kredensial mikro memiliki implikasi besar bagi bidang etika AI dan upaya membangun sistem pembelajaran mesin yang menghormati nilai-nilai kemanusiaan dan keadilan sosial. Hal ini berarti kita memerlukan pendekatan yang lebih komprehensif dan bernuansa terhadap keadilan algoritmik yang melampaui metrik statistik dan mengatasi dampak moral dari AI dalam domain berisiko tinggi: optimalisasi kesejahteraan sosial.
Pengertian Optimalisasi Kesejahteraan Sosial
Pada intinya, optimalisasi kesejahteraan sosial merupakan paradigma yang sangat berbeda dalam memikirkan dan mengoperasionalkan keadilan dalam AI. Daripada hanya berfokus pada penyetaraan metrik tertentu antar kelompok, pendekatan ini mengambil langkah mundur dan mempertimbangkan dampak sosial yang lebih luas dari keputusan AI terhadap kesejahteraan dan kesejahteraan manusia.
Idenya adalah untuk merancang sistem AI yang secara eksplisit bertujuan untuk memaksimalkan fungsi kesejahteraan sosial yang menggabungkan utilitas (yaitu manfaat dan biaya) yang dialami oleh semua individu yang terkena dampak ke dalam satu ukuran kebaikan sosial. Menurut pendekatan ini, praktisi AI dapat membangun algoritma yang menyeimbangkan tujuan-tujuan yang bersaing dengan menentukan fungsi kesejahteraan sosial yang mencerminkan pertimbangan moral tentang pentingnya efisiensi dan kesetaraan.
Optimalisasi kesejahteraan sosial berakar pada ekonomi kesejahteraan, yang memiliki sejarah panjang dalam menangani keadilan distributif dan pengambilan keputusan kolektif. Para ekonom dan filsuf telah mengusulkan berbagai fungsi kesejahteraan sosial yang mencerminkan prinsip etika dan penilaian nilai yang berbeda, seperti utilitarianisme (memaksimalkan jumlah utilitas), prioritarianisme (memberi bobot lebih pada perolehan utilitas bagi masyarakat yang paling miskin), dan egalitarianisme (meminimalkan kesenjangan).
Dalam beberapa tahun terakhir, semakin banyak peneliti AI yang mulai mengeksplorasi optimalisasi kesejahteraan sosial sebagai cara untuk menanamkan keadilan ke dalam sistem pembelajaran mesin. Ini pekerjaan ini didasarkan pada makalah berjudul “Pengambilan keputusan algoritmik dan biaya keadilan” oleh Heidari dkk. dan Corbett-Davies dan Goel, yang pertama kali memperkenalkan gagasan penggunaan fungsi kesejahteraan sosial untuk menangkap dampak berbeda dari keputusan AI terhadap individu dan kelompok yang berbeda.
Salah satu cara untuk melakukan hal ini adalah dengan keadilan alfa, kelas parametrik fungsi kesejahteraan sosial yang dimiliki telah dipelajari di bidang ekonomi dan pilihan sosial selama 70 tahun. Keadilan alfa memungkinkan Anda melakukan interpolasi antara tujuan utilitarian dan egaliter dengan satu parameter alfa, yang mengontrol tingkat penolakan terhadap ketidaksetaraan.
Ketika alpha adalah 0, fungsi kesejahteraan sosial direduksi menjadi utilitarianisme klasik, yang memaksimalkan jumlah utilitas tanpa memperhatikan distribusinya. Saat alfa meningkat, semakin banyak bobotnya diberikan kepada kelompok yang paling miskin, dan alokasinya menjadi lebih adil. Pada batasnya, ketika alpha menuju tak terhingga, keadilan alpha menyatu dengan prinsip “maximin” Rawlsian yang memaksimalkan utilitas individu yang paling miskin.
Dalam makalah CPAIOR 2024 mereka, para peneliti menggunakan keadilan alfa sebagai lensa untuk menguji tiga metrik paritas statistik yang populer:
- Keseimbangan demografi
- Peluang yang disamakan
- Paritas tingkat prediktif
Mereka mensimulasikan berbagai skenario di mana sistem AI harus mengalokasikan sumber daya yang terbatas (misalnya pinjaman, wawancara kerja, peluang pendidikan) di antara populasi individu dengan tingkat kualifikasi dan fungsi utilitas yang berbeda.
Hasilnya mengejutkan. Dalam banyak kasus, alokasi alpha-fair berbeda secara signifikan dari solusi yang diusulkan oleh metrik paritas.
Kesetaraan demografis, yang mensyaratkan tingkat seleksi yang sama antar kelompok, sering kali gagal memperhitungkan fakta bahwa kelompok yang kurang beruntung mendapatkan manfaat marjinal yang lebih besar karena terpilih. Oleh karena itu, hal ini menyebabkan alokasi yang tidak efisien dan tidak adil.
Peluang yang disamakan, yang membandingkan tingkat seleksi hanya di antara individu-individu yang “memenuhi syarat”, memberikan kinerja yang sedikit lebih baik namun masih gagal dalam skenario di mana kesalahan negatif palsu (yaitu, individu-individu yang memenuhi syarat) ditolak) lebih mahal dibandingkan hasil positif palsu.
Paritas tingkat prediktif, yang menyamakan persentase individu terpilih yang memenuhi syarat, mempunyai kegunaan terbatas dan hanya berlaku jika jumlah individu terpilih lebih besar daripada jumlah kandidat yang benar-benar memenuhi syarat.
Hasil ini menunjukkan keterbatasan mendasar dan titik buta metrik paritas statistik sebagai cara utama untuk menilai dan menegakkan keadilan algoritmik.
Dengan mengabaikan dampak nyata dari keputusan AI terhadap kesejahteraan dan dampak yang berbeda-beda terhadap berbagai kelompok, metrik ini dapat mengarah pada sistem yang melanggengkan atau bahkan memperburuk kesenjangan yang ada. Prinsip-prinsip tersebut juga kurang memiliki justifikasi dan konsistensi normatif, karena kriteria kesetaraan yang berbeda sering kali menghasilkan rekomendasi yang bertentangan dalam praktiknya.
Sebaliknya, optimalisasi kesejahteraan sosial memberikan cara yang berprinsip dan terpadu untuk menavigasi keseimbangan antara keadilan dan efisiensi dalam sistem AI. Hal ini bertujuan untuk memperjelas penilaian nilai dan asumsi etis dalam pemilihan fungsi kesejahteraan sosial agar pengembang dan pembuat kebijakan dapat melakukan diskusi yang lebih transparan dan akuntabel mengenai dampak distributif pengambilan keputusan algoritmik.
Selain itu, penelitian terbaru menunjukkan bahwa optimalisasi kesejahteraan sosial dapat mencapai tujuan tersebut mudah diintegrasikan ke dalam alur kerja pembelajaran mesin standar, baik sebagai langkah pasca-pemrosesan atau langsung ke tujuan pelatihan itu sendiri.
Misalnya, dalam “Pengambilan keputusan secara algoritmik dan biaya keadilan, " peneliti mengusulkan teknik regularisasi yang menambahkan istilah kesejahteraan sosial ke fungsi kerugian model klasifikasi atau regresi apa pun sehingga sistem dapat mempelajari aturan keputusan yang adil yang memaksimalkan akurasi dan kesejahteraan. Ustun dkk. memperkenalkan metode pasca-pemrosesan yang mengambil keluaran dari model yang telah dilatih sebelumnya dan menemukan bahwa keputusan yang memaksimalkan kesejahteraan tunduk pada berbagai batasan keadilan.
Hasil teknis ini menunjukkan bahwa optimalisasi kesejahteraan sosial merupakan cara yang layak dan praktis untuk membangun sistem AI yang adil dan merata. Pengembang dapat menggunakan teknik pengoptimalan dan paket perangkat lunak yang canggih ini berdasarkan fungsi tujuan yang jelas dan dapat dihitung yang menangkap pertimbangan normatif kerangka kerja ini untuk menemukan alokasi yang menyeimbangkan kriteria yang bersaing.
Namun, mewujudkan potensi maksimal optimalisasi kesejahteraan sosial dalam praktiknya juga memerlukan upaya mengatasi sejumlah tantangan dan keterbatasan yang berat. Salah satu tantangan terbesarnya adalah kesulitan dalam memunculkan dan membangun fungsi utilitas individual yang mampu menangkap dampak multi-dimensi yang kompleks dari keputusan AI terhadap kehidupan manusia. Kredensial mikro memerlukan keterlibatan mendalam dengan para pemangku kepentingan yang terkena dampak dan para ahli di bidangnya untuk memahami faktor-faktor kontekstual yang membentuk preferensi, nilai-nilai, dan kesejahteraan masyarakat.
Ada juga pertanyaan teoretis dan filosofis tentang perbandingan utilitas, ketidakpastian, dan dinamika antarpribadi, serta bagaimana menggabungkan utilitas individu ke dalam ukuran kesejahteraan sosial kolektif. Fungsi kesejahteraan sosial yang berbeda mempunyai asumsi yang berbeda mengenai hal ini, dan tidak ada konsensus universal mengenai mana yang paling dapat dipertahankan atau paling tepat dalam konteks tertentu.
Selain itu, seperti halnya pendekatan berbasis optimasi lainnya, terdapat risiko yang dapat mengganggu tujuan dimaksimalkan mungkin tidak sepenuhnya mencakup seluruh pertimbangan etis yang relevan, atau mungkin saja menjadi miring oleh bias dan titik buta dalam data dan model yang digunakan untuk memperkirakan utilitas. Penting untuk memiliki proses partisipasi, transparansi, dan akuntabilitas pemangku kepentingan yang dipikirkan dengan matang untuk memastikan bahwa kriteria kesejahteraan dioptimalkan agar selaras dengan nilai-nilai dan prioritas masyarakat yang terkena dampak.
Terlepas dari tantangan-tantangan ini, manfaat optimalisasi kesejahteraan sosial demi keadilan algoritmik terlalu besar untuk diabaikan. Meskipun demikian, pengembang AI dan pembuat kebijakan dapat melampaui keseimbangan statistik melalui cara yang berprinsip dan fleksibel untuk menyeimbangkan kesetaraan dan efisiensi pendekatan ini. Pada akhirnya, hal ini akan mengarah pada gagasan keadilan yang lebih holistik dan konsekuensialis berdasarkan kesejahteraan dan kesejahteraan manusia.
Klik di sini untuk mempelajari bagaimana AI dapat memastikan keaslian.
Kasus Penggunaan #1: Peminjaman yang Adil
Untuk menunjukkan janji dan tantangan optimalisasi kesejahteraan sosial dalam praktiknya, mari kita pertimbangkan domain pinjaman algoritmik yang berisiko tinggi. Dalam beberapa tahun terakhir, banyak bank dan perusahaan fintech telah mengadopsi model pembelajaran mesin untuk mengotomatisasi dan mempercepat keputusan kredit. Model ini menggunakan sejumlah besar data pribadi dan keuangan untuk memprediksi kemungkinan pemohon pinjaman akan gagal bayar sehingga pemberi pinjaman dapat membuat keputusan penjaminan emisi yang lebih cepat dan efisien.
Namun, terdapat semakin banyak bukti bahwa sistem pinjaman algoritmik ini melanggengkan dan memperkuat bias dan disparitas historis dalam akses kredit. Penelitian telah menunjukkan hal itu Peminjam kulit hitam dan Latin lebih mungkin ditolak pinjamannya atau membebankan suku bunga yang lebih tinggi dibandingkan peminjam kulit putih yang memiliki kualifikasi serupa, bahkan ketika faktor risiko tradisional seperti pendapatan, nilai kredit, dan status pekerjaan dikendalikan.
Menanggapi kekhawatiran ini, beberapa pemberi pinjaman dapat beralih ke metode paritas statistik seperti paritas demografis dan penyetaraan peluang untuk mengurangi bias dalam model penjaminan AI mereka. Idenya adalah untuk menyamakan tingkat persetujuan pinjaman atau tingkat gagal bayar di seluruh kelompok yang dilindungi sehingga model tersebut memperlakukan semua pemohon secara setara tanpa memandang ras atau etnis.
Meskipun pendekatan berbasis paritas ini tampak intuitif, pendekatan ini gagal menangkap kompleksitas kelayakan kredit dan perbedaan dampak akses pinjaman terhadap kesejahteraan masyarakat marginal. Semakin banyak penelitian yang menunjukkan bahwa gagasan sederhana tentang keadilan didasarkan pada pemerataan hasil justru bisa menjadi bumerang dan merugikan kelompok tersebut mereka dimaksudkan untuk melindungi.
Sebagai contoh, catatan artikel tahun 2018 bahwa menerapkan batasan paritas demografis pada aturan pengambilan keputusan yang memaksimalkan utilitas umumnya memerlukan penggunaan variabel sensitif seperti ras dalam pelatihan model dan pengambilan keputusan. Kredensial mikro menyiratkan bahwa upaya untuk memenuhi batasan paritas dengan menggunakan perlombaan hanya selama pelatihan, yang dikenal sebagai 'proses pembelajaran yang berbeda', akan menjadi kurang optimal.
Lebih jauh lagi, kriteria keadilan berbasis paritas mengabaikan fakta kerugian jika tidak diberikan kredit tidak terdistribusi secara merata di seluruh populasi. Untuk peminjam berpenghasilan rendah dan minoritas yang secara historis dikecualikan dari layanan keuangan arus utama, ditolak pinjaman dapat menimbulkan konsekuensi yang sangat buruk, menjebak mereka dalam siklus kemiskinan dan hutang yang sangat besar. Untuk pelamar yang lebih kaya dan memiliki hak istimewa, mereka mungkin memiliki sumber modal alternatif dan terkena dampak yang lebih kecil oleh keputusan kredit yang merugikan.
Optimalisasi kesejahteraan sosial menawarkan pendekatan alternatif yang secara langsung menggabungkan perbedaan tingkat kesejahteraan ini ke dalam rancangan algoritma pemberian pinjaman yang adil. Pemberi pinjaman dapat mengembangkan model kredit yang memaksimalkan kesejahteraan secara keseluruhan sekaligus memastikan distribusi peluang yang lebih adil dengan mendefinisikan fungsi kesejahteraan sosial yang mencakup biaya dan manfaat relatif dari akses pinjaman untuk berbagai individu dan kelompok.
Misalnya, pertimbangkan fungsi kesejahteraan sosial yang memprioritaskan kesejahteraan pemohon yang paling tidak beruntung, dengan memberikan bobot lebih pada perolehan utilitas dari peminjam berpenghasilan rendah dan minoritas. Kredensial mikro bisa diformalkan menggunakan fungsi keadilan alfa dengan nilai alfa yang cukup tinggi, yang menunjukkan preferensi yang kuat terhadap ekuitas dibandingkan efisiensi.
Berdasarkan tujuan kesejahteraan sosial ini, kebijakan pemberian pinjaman yang optimal kemungkinan besar akan melibatkan pemberian pinjaman yang lebih banyak kepada kelompok-kelompok yang terpinggirkan meskipun perkiraan tingkat pembayaran kembali mereka, secara rata-rata, agak rendah. Kredensial mikro Hal ini karena keuntungan kesejahteraan dari pemberian pinjaman kepada masyarakat yang kurang terlayani (misalnya, memungkinkan mereka membeli rumah, memulai bisnis, atau melanjutkan pendidikan) mungkin lebih besar daripada peningkatan risiko gagal bayar dari sudut pandang masyarakat.
Tentu saja, menerapkan sistem pinjaman yang memaksimalkan kesejahteraan dalam praktiknya memerlukan penanganan tantangan data dan pemodelan yang signifikan. Pemberi pinjaman perlu mengumpulkan data terperinci mengenai karakteristik sosio-ekonomi dan kebutuhan keuangan pemohon pinjaman serta dampak hilir dari akses kredit terhadap kesejahteraan mereka dari waktu ke waktu. Mereka juga perlu terlibat dengan masyarakat yang terkena dampak untuk memastikan kriteria kesejahteraan dioptimalkan agar selaras dengan nilai-nilai dan prioritas mereka.
Selain itu, mungkin ada pertimbangan hukum dan peraturan yang penting seputar penggunaan informasi kelas yang dilindungi (misalnya, ras, jenis kelamin, usia) untuk membuat keputusan pemberian pinjaman, meskipun tujuannya adalah untuk mendorong kesetaraan. Para pembuat kebijakan perlu memberikan panduan yang jelas tentang bagaimana undang-undang anti-diskriminasi diterapkan dalam konteks optimalisasi kesejahteraan sosial dan menciptakan tempat yang aman bagi pemberi pinjaman yang menggunakan teknik-teknik ini secara transparan dan akuntabel.
Terlepas dari tantangannya, itu sepadan. Optimalisasi kesejahteraan sosial dapat membantu memajukan inklusi keuangan dan menutup kesenjangan kekayaan ras dengan memungkinkan pemberi pinjaman untuk membuat keputusan kredit yang lebih holistik dan sadar akan kesejahteraan, mengarahkan aliran modal ke komunitas yang secara tradisional kurang terlayani, dan memberdayakan mereka secara ekonomi. Hal ini juga dapat memberikan cara yang lebih berprinsip dan transparan untuk menavigasi trade-off antara keadilan dan efisiensi dalam pemberian pinjaman yang didasarkan pada dampak nyata terhadap kehidupan peminjam.
Menempatkannya dalam Perspektif
Seperti yang ditunjukkan dalam contoh peminjaman, optimalisasi kesejahteraan sosial merupakan garda depan keadilan algoritmik yang melampaui paritas statistik dan menuju gagasan kesetaraan yang lebih holistik dan konsekuensialis berdasarkan kesejahteraan dan kesejahteraan manusia.
Pendekatan ini dapat membantu pengembang AI dan pembuat kebijakan membuat keputusan yang lebih berprinsip dan akuntabel mengenai desain dan penerapan sistem algoritmik di domain berisiko tinggi. Mereka dapat melakukannya dengan mendefinisikan dan memaksimalkan fungsi kesejahteraan sosial yang mencerminkan pertimbangan moral mengenai distribusi manfaat dan beban.
Namun, mewujudkan potensi optimalisasi kesejahteraan sosial secara penuh dalam praktiknya memerlukan banyak upaya lintas disiplin. Ilmuwan komputer dan pakar etika AI perlu bekerja sama dengan para ekonom, filsuf, pakar hukum, dan komunitas yang terkena dampak untuk mengatasi tantangan normatif dan teknis dalam mendefinisikan dan menghitung fungsi kesejahteraan sosial. Kredensial mikro mencakup pertanyaan-pertanyaan sulit seputar pengukuran dan agregasi utilitas individual, ketidakpastian dan dinamika, serta trade-off yang tepat antara efisiensi dan kesetaraan dalam konteks yang berbeda.
Selain itu, pembuat kebijakan dan regulator perlu memberikan lebih banyak panduan dan menciptakan lingkungan di mana AI yang sadar akan kesejahteraan dapat dikembangkan dan diterapkan. Kredensial mikro mungkin berarti memperbarui undang-undang dan peraturan anti-diskriminasi yang ada untuk mengatasi tantangan optimalisasi kesejahteraan sosial dan menciptakan kerangka tata kelola baru dan mekanisme pengawasan untuk transparansi, akuntabilitas, dan keterlibatan publik dalam perancangan dan penggunaan sistem ini.
Pada akhirnya, peralihan ke optimalisasi kesejahteraan sosial melalui AI harus dilakukan ditemani melalui upaya yang lebih luas untuk mengatasi kesenjangan struktural dan ketidakseimbangan kekuasaan yang mempengaruhi perkembangan dan dampak teknologi pada masyarakat.
Intervensi keadilan algoritmik, betapapun baiknya rancangannya, tidak dapat menggantikan reformasi yang lebih mendasar untuk mendorong keadilan sosial dan ekonomi, seperti investasi di bidang pendidikan, layanan kesehatan, perumahan, dan infrastruktur di komunitas yang terpinggirkan.
Seperti yang dikatakan Hooker dan rekan-rekannya dalam makalah CPAIOR 2024 mereka:
“Optimalisasi kesejahteraan sosial memberikan cara baru untuk merancang sistem algoritmik yang adil dan baik. Masih banyak pekerjaan yang harus dilakukan dilakukan untuk mengembangkan dan mengoperasionalkan pendekatan-pendekatan ini, namun menurut kami pendekatan-pendekatan ini merupakan sebuah langkah maju bagi etika AI. Kita bisa mengambil cara yang lebih holistik dan serius secara moral dalam membangun sistem pembelajaran mesin yang melayani seluruh masyarakat dengan menyusun gagasan kita tentang keadilan dalam bahasa ekonomi kesejahteraan dan secara eksplisit menangani konsekuensi distribusi teknologi kita.”
Secara keseluruhan, untuk mencapai AI yang benar-benar adil, kita harus memastikan pendekatan-pendekatan ini diuji secara ketat dan disempurnakan dalam skenario dunia nyata, yang mewujudkan komitmen terhadap keadilan dan kesejahteraan masyarakat.
Klik di sini untuk mempelajari semua tentang berinvestasi dalam kecerdasan buatan.