
Zero-Knowledge Proofs: Solusi untuk Membuat AI Lebih Adil dan Transparan
Bisakah kita mempercayai AI untuk bersikap netral dan adil? Sebuah studi terbaru menunjukkan bahwa jawabannya tidak sesederhana itu. Sayangnya, bias dalam AI bukan hanya sebuah kesalahan sistem, tetapi fitur bawaan yang terus muncul jika tidak dilindungi oleh mekanisme kriptografi yang tepat.
Sebuah studi dari Imperial College London pada September 2024 menunjukkan bahwa zero-knowledge proofs (ZKPs) dapat membantu perusahaan membuktikan bahwa model machine learning (ML) mereka memperlakukan semua kelompok demografis secara setara — tanpa harus membuka data pengguna atau detail model secara publik.
ZKPs adalah metode kriptografi yang memungkinkan satu pihak membuktikan kepada pihak lain bahwa suatu pernyataan itu benar, tanpa mengungkapkan informasi lain selain validitas pernyataan itu sendiri.
Namun, ketika membahas "keadilan" dalam AI, kita akan masuk ke ranah yang kompleks.
Bias dalam Machine Learning
Bias dalam model ML bisa muncul dalam berbagai bentuk ekstrem. Misalnya:
- Layanan skor kredit bisa memberi penilaian berbeda kepada seseorang hanya karena lingkungan atau komunitasnya — ini bisa sangat diskriminatif.
- Generator gambar AI bisa menampilkan tokoh-tokoh sejarah atau tokoh keagamaan dengan ras berbeda dari kenyataan, seperti yang terjadi pada Gemini dari Google tahun lalu.
Model AI seperti itu jelas tidak adil. Jika seseorang ditolak pinjaman karena teman-temannya, atau jika sejarah dipelintir demi alasan “keseimbangan,” itu adalah bentuk diskriminasi — dan merusak kepercayaan publik terhadap sistem AI.
Bayangkan sebuah bank yang menggunakan model ML untuk menyetujui pinjaman. Dengan ZKP, bank bisa membuktikan bahwa modelnya tidak bias terhadap kelompok tertentu — tanpa harus membocorkan data nasabah atau struktur model yang bersifat rahasia. Dan bukti tersebut bisa disediakan secara real-time, berbeda dengan audit data manual yang rumit dan lambat seperti saat ini.
Masalah utamanya adalah: bagaimana memastikan AI mematuhi hukum anti-diskriminasi, seperti Undang-Undang Hak Sipil AS tahun 1964, dan membuktikannya secara teknis?
Di sinilah ZKPs menawarkan solusi teknis yang kuat.
AI Itu Bias (Tapi Tidak Harus Begitu)
Saat bekerja dengan AI/ML, kita perlu memastikan bahwa proses validasi keadilan (fairness) tidak membocorkan data sensitif maupun algoritma proprietary.
Zero-knowledge machine learning (ZKML) menggabungkan kriptografi ZKP dengan machine learning, memungkinkan kita untuk memverifikasi sifat-sifat model ML tanpa membuka isi model atau data pelatihan.
Sebelumnya, penggunaan ZKP untuk membuktikan keadilan dalam AI sangat terbatas, hanya bisa digunakan di satu tahap pipeline ML. Ini bisa dimanipulasi oleh penyedia model curang agar tampak adil padahal sebenarnya tidak.
Tantangan lainnya adalah kebutuhan komputasi yang tinggi dan waktu tunggu lama untuk menghasilkan proof (bukti) keadilan tersebut.
Namun, kini framework ZK generasi baru memungkinkan kita menskalakan verifikasi end-to-end untuk model AI dengan puluhan juta parameter, dan melakukannya dengan cara yang aman dan efisien.
Pertanyaan Triliunan Dolar: Bagaimana Mengukur Keadilan AI?
Berikut adalah tiga definisi keadilan kelompok (group fairness) yang umum digunakan:
1. Demographic Parity
Probabilitas prediksi harus sama antar kelompok (ras, jenis kelamin, dll). Sering dipakai dalam program diversity, equity & inclusion (DEI).
Namun, tidak ideal untuk model AI karena mengasumsikan semua kelompok harus memiliki hasil yang identik — yang tidak realistis.
2. Equality of Opportunity
Semua kelompok yang memiliki kualifikasi sama harus punya peluang yang sama untuk hasil positif (misal: diterima kerja, disetujui pinjaman).
Ini tidak memaksakan hasil, hanya memastikan peluang yang setara.
3. Predictive Equality
Mengukur apakah model memprediksi dengan akurasi yang sama di berbagai kelompok demografis.
Tujuannya agar tidak ada yang dirugikan hanya karena tergabung dalam kelompok tertentu.
Keadilan Akan Jadi Standar Baru, Cepat atau Lambat
Selama setahun terakhir, pemerintah AS dan negara-negara lain mulai mengeluarkan kebijakan soal keadilan AI dan perlindungan publik dari bias ML.
Dengan pemerintahan baru, fokus kebijakan AS tampaknya akan kembali ke kesetaraan peluang (equality of opportunity) dan menjauh dari pendekatan berbasis equity.
Karena AI makin digunakan dalam pengambilan keputusan penting — mulai dari pekerjaan, kuliah, hingga hipotek rumah — masyarakat butuh jaminan bahwa model AI dipakai secara adil dan netral.
Dan ZKPs adalah alat terbaik saat ini untuk mewujudkan transparansi tanpa mengorbankan privasi.