Terkait Keamanan Terkait Keamanan Opini: RUU keamanan AI California sedang dikritik. Menjadikannya undang-undang adalah cara terbaik untuk memperbaikinya

Opini: RUU keamanan AI California sedang dikritik. Menjadikannya undang-undang adalah cara terbaik untuk memperbaikinya

Opini: RUU keamanan AI California sedang dikritik. Menjadikannya undang-undang adalah cara terbaik untuk memperbaikinya


Pada tanggal 29 Agustus, Badan Legislatif California meloloskan RUU Senat 1047 — Undang-Undang Inovasi Aman dan Terjamin untuk Model Kecerdasan Buatan di Perbatasan — dan mengirimkannya kepada Gubernur Gavin Newsom untuk ditandatangani. Pilihan Newsom, yang akan jatuh tempo pada tanggal 30 September, bersifat biner: Batalkan atau buat undang-undang.

Mengakui potensi bahaya yang dapat timbul dari AI tingkat lanjut, SB 1047 mengharuskan pengembang teknologi untuk mengintegrasikan perlindungan saat mereka mengembangkan dan menyebarkan apa yang disebut RUU tersebut sebagai “model yang tercakup.” Jaksa agung California dapat menegakkan persyaratan ini dengan melakukan gugatan perdata terhadap pihak-pihak yang tidak mengambil “tindakan pencegahan yang wajar” agar 1) model mereka tidak menyebabkan bahaya besar, atau 2) model mereka dapat dihentikan jika terjadi keadaan darurat.

Banyak perusahaan AI terkemuka menentang RUU tersebut baik secara individu maupun melalui asosiasi perdagangan. Keberatan mereka meliputi kekhawatiran bahwa definisi model yang tercakup terlalu kaku untuk memperhitungkan kemajuan teknologi, bahwa tidak masuk akal untuk meminta pertanggungjawaban mereka atas aplikasi berbahaya yang dikembangkan pihak lain, dan bahwa RUU tersebut secara keseluruhan akan menghambat inovasi dan melumpuhkan perusahaan rintisan kecil yang tidak memiliki sumber daya untuk mengabdikan diri pada kepatuhan.

Keberatan-keberatan ini tidaklah remeh; keberatan-keberatan ini patut dipertimbangkan dan kemungkinan besar perlu ada amandemen lebih lanjut terhadap RUU tersebut. Namun, gubernur harus menandatangani atau menyetujuinya, karena veto akan menandakan bahwa tidak ada regulasi AI yang dapat diterima sekarang dan mungkin sampai atau kecuali terjadi kerusakan besar. Posisi seperti itu bukanlah posisi yang tepat bagi pemerintah untuk mengambil alih teknologi tersebut.

Penulis RUU tersebut, Senator Scott Wiener (D-San Francisco), terlibat dengan industri AI pada sejumlah iterasi RUU tersebut sebelum pengesahan legislatif terakhirnya. Setidaknya satu perusahaan AI besar — ​​Anthropic — meminta perubahan spesifik dan signifikan pada teksnya, banyak di antaranya yang dimasukkan dalam RUU final. Sejak Badan Legislatif meloloskannya, CEO Anthropic telah mengatakan bahwa “manfaatnya mungkin lebih besar daripada kerugiannya … [although] beberapa aspek dari RUU tersebut [still] Bukti publik hingga saat ini menunjukkan bahwa sebagian besar perusahaan AI lainnya memilih untuk menentang RUU tersebut berdasarkan prinsip, daripada terlibat dalam upaya khusus untuk memodifikasinya.

Apa yang harus kita simpulkan dari penentangan semacam itu, terutama karena para pemimpin beberapa perusahaan ini telah secara terbuka menyatakan kekhawatiran tentang potensi bahaya AI tingkat lanjut? Pada tahun 2023, para CEO OpenAI dan DeepMind milik Google, misalnya, menandatangani surat terbuka yang membandingkan risiko AI dengan pandemi dan perang nuklir.

Kesimpulan yang masuk akal adalah bahwa mereka, tidak seperti Anthropic, menentang segala jenis peraturan wajib. Mereka ingin mempertahankan hak untuk memutuskan kapan risiko suatu aktivitas atau upaya penelitian atau model lain yang diterapkan lebih besar daripada manfaatnya. Yang lebih penting, mereka ingin mereka yang mengembangkan aplikasi berdasarkan model yang mereka liput bertanggung jawab penuh atas mitigasi risiko. Kasus pengadilan baru-baru ini telah disarankan bahwa orang tua yang menyerahkan senjata kepada anak-anak mereka memiliki tanggung jawab hukum atas akibatnya. Mengapa perusahaan AI harus diperlakukan berbeda?

Perusahaan AI ingin masyarakat memberi mereka kebebasan meskipun ada konflik kepentingan yang jelas — perusahaan yang mencari laba tidak boleh dipercaya untuk membuat keputusan yang dapat menghambat prospek mereka untuk menghasilkan laba.

Kita pernah mengalami hal ini sebelumnya. Pada bulan November 2023, dewan direksi OpenAI memecat CEO-nya karena mereka memutuskan bahwa, di bawah arahannya, perusahaan tersebut sedang menuju jalur teknologi yang berbahaya. Dalam beberapa hari, berbagai pemangku kepentingan di OpenAI berhasil membalikkan keputusan itu, mengangkatnya kembali, dan menyingkirkan anggota dewan yang telah mengadvokasi pemecatannya. Ironisnya, OpenAI secara khusus disusun untuk memungkinkan dewan bertindak sebagaimana mestinya — terlepas dari potensi perusahaan untuk menghasilkan laba, dewan seharusnya memastikan bahwa kepentingan publik didahulukan.

Jika SB 1047 diveto, kekuatan antiregulasi akan menyatakan kemenangan yang menunjukkan kebijaksanaan posisi mereka, dan mereka tidak akan punya banyak insentif untuk menggarap legislasi alternatif. Tidak adanya regulasi yang signifikan menguntungkan mereka, dan mereka akan memanfaatkan veto untuk mempertahankan status quo tersebut.

Alternatifnya, gubernur dapat menjadikan SB 1047 sebagai undang-undang, dengan menambahkan undangan terbuka kepada para penentangnya untuk membantu memperbaiki kekurangannya secara spesifik. Dengan apa yang mereka lihat sebagai undang-undang yang tidak sempurna, para penentang RUU tersebut akan memiliki insentif yang cukup besar untuk bekerja — dan bekerja dengan itikad baik — untuk memperbaikinya. Namun pendekatan dasarnya adalah bahwa industri, bukan pemerintah, yang mengemukakan pandangannya tentang apa yang merupakan perawatan yang wajar dan tepat tentang sifat keselamatan model-model canggihnya. Peran pemerintah adalah untuk memastikan bahwa industri melakukan apa yang menurut industri itu sendiri harus dilakukannya.

Konsekuensi dari penghentian SB 1047 dan mempertahankan status quo cukup besar: Perusahaan dapat mengembangkan teknologi mereka tanpa hambatan. Konsekuensi dari penerimaan RUU yang tidak sempurna akan menjadi langkah yang berarti menuju lingkungan regulasi yang lebih baik bagi semua pihak yang terlibat. Ini akan menjadi awal, bukan akhir, dari permainan regulasi AI. Langkah pertama ini menentukan arah untuk apa yang akan datang dan menetapkan legitimasi regulasi AI. Gubernur harus menandatangani SB 1047.

Herbert Lin adalah peneliti senior di Pusat Keamanan dan Kerjasama Internasional di Universitas Stanford, dan seorang peneliti di Hoover Institution. Ia adalah penulis buku “Cyber ​​Threats and Nuclear Weapons.” “

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Post