UU RISE dari Cynthia Lummis Dinilai Penting, Tapi Masih Kurang Detail
RUU Responsible Innovation and Safe Expertise (RISE) Act of 2025 yang baru saja diperkenalkan oleh Senator AS Cynthia Lummis menuai beragam reaksi. Undang-undang ini bertujuan melindungi pengembang kecerdasan buatan (AI) dari tuntutan hukum perdata, terutama saat AI digunakan oleh profesional seperti dokter, pengacara, atau insinyur.
Namun, beberapa ahli menilai bahwa RUU ini terlalu memihak pengembang AI, dan belum cukup dalam aspek transparansi, akuntabilitas, dan perlindungan konsumen.
Perlindungan atau “Hadiah” untuk Perusahaan AI?
Menurut Hamid Ekbia, profesor di Syracuse University, RUU ini sangat dibutuhkan dan relevan, namun terlalu berpihak pada pengembang AI. Meskipun pengembang diminta memberikan dokumentasi teknis (seperti “model card”), beban hukum justru dialihkan ke para profesional yang menggunakan AI.
“RUU ini memberi imunitas luas kepada pengembang, sementara hanya menuntut transparansi teknis yang minim,” ujar Ekbia.
Di forum politik seperti Democratic Underground, RUU ini disebut sebagai “hadiah” untuk perusahaan AI yang ingin bebas dari tanggung jawab hukum ketika produknya gagal.
Namun, Felix Shipkevich, pakar hukum teknologi dari Shipkevich Attorneys at Law, menilai imunitas ini wajar karena pengembang tidak selalu punya kendali atas output AI yang kompleks dan dinamis. Tanpa perlindungan, pengembang bisa menghadapi risiko hukum tak terbatas.
Cakupan Terbatas: Tidak Lindungi Konsumen Umum
Salah satu kritik terbesar terhadap RISE Act adalah cakupannya yang hanya fokus pada interaksi AI dengan profesional. Kasus-kasus seperti AI chatbot yang digunakan remaja tanpa pendampingan profesional — seperti kasus tragis bunuh diri remaja di Florida — tidak tercakup dalam RUU ini.
“Siapa yang bertanggung jawab atas nyawa yang hilang?” tanya Ekbia.
Ryan Abbott, profesor hukum dan ilmu kesehatan di University of Surrey, menegaskan bahwa standar hukum yang jelas dibutuhkan, terutama karena AI membawa jenis risiko baru yang tidak mudah ditangani oleh hukum tradisional.
Contoh nyata: dalam beberapa bidang medis, AI bahkan sudah mengungguli dokter dalam diagnosis. Ketika AI terbukti lebih akurat, siapa yang bertanggung jawab jika hasilnya salah? Apakah asuransi malpraktik akan menanggungnya?
Kritik Terhadap Standar Transparansi
Daniel Kokotajlo dari AI Futures Project, organisasi riset non-profit yang ikut dikonsultasikan dalam penyusunan RUU ini, menilai standar transparansi dalam RISE masih kurang.
“Publik berhak tahu tentang nilai, bias, dan agenda yang ditanamkan dalam sistem AI,” katanya. Saat ini, pengembang bisa memilih membayar kompensasi daripada membuka transparansi — artinya mereka bisa "menghindar" dari regulasi.
Bandingkan dengan Pendekatan Uni Eropa
Di sisi lain, Uni Eropa mengambil pendekatan berbasis hak asasi manusia melalui regulasi EU AI Act. Pendekatan ini lebih fokus pada perlindungan pengguna akhir, bukan hanya proses teknis.
Sementara pendekatan AS dalam RISE lebih berbasis risiko dan dokumentasi — misalnya fokus pada mitigasi bias, bukan memberi hak hukum langsung kepada konsumen.
Kokotajlo sendiri menilai pendekatan yang tepat adalah berbasis risiko, tapi ditujukan pada pembuat dan pengguna awal teknologi, bukan menimpakan beban kepada pengguna profesional.
Langkah Awal yang Perlu Ditingkatkan
Banyak pihak menilai RISE Act adalah awal yang konstruktif, namun bukan dokumen final. Felix Shipkevich menyebut RUU ini bisa menjadi “dasar kompromi” yang baik — asal diikuti dengan standar transparansi yang nyata dan kewajiban manajemen risiko.
Justin Bullock dari Americans for Responsible Innovation menyambut baik inisiatif safe harbor (zona aman hukum), namun mengingatkan bahwa transparansi yang tidak diaudit bisa menyesatkan.
“Tanpa audit independen, publik bisa tertipu bahwa model AI aman padahal belum tentu,” ujarnya.
Jika disahkan, RISE Act dijadwalkan mulai berlaku pada 1 Desember 2025.