Terkait Keamanan Terkait Keamanan Jam Keamanan AI Dapat Membantu Menyelamatkan Kita

Jam Keamanan AI Dapat Membantu Menyelamatkan Kita

Jam Keamanan AI Dapat Membantu Menyelamatkan Kita


SAYAJika kecerdasan umum buatan yang tidak terkendali—atau AI yang “seperti Tuhan”—akan segera terjadi, kita sekarang sudah setengah jalan mencapai tujuan tersebut. Setiap hari, waktu terus berjalan mendekati kemungkinan skenario hari kiamat.

Itu sebabnya saya memperkenalkan AI Safety Clock bulan lalu. Tujuan saya sederhana: Saya ingin memperjelas bahwa bahaya AGI yang tidak terkendali adalah nyata dan nyata. Pembacaan Jam saat ini—29 menit menjelang tengah malam—adalah ukuran seberapa dekat kita dengan titik kritis di mana AGI yang tidak terkendali dapat menimbulkan risiko besar. Meskipun belum ada dampak buruk yang terjadi, kecepatan pengembangan AI dan kompleksitas peraturan membuat seluruh pemangku kepentingan harus tetap waspada dan terlibat.

Ini bukanlah kekhawatiran; itu didasarkan pada data keras. AI Safety Clock melacak tiga faktor penting: semakin canggihnya teknologi AI, meningkatnya otonomi, dan integrasinya dengan sistem fisik.

Kami melihat kemajuan luar biasa dalam ketiga faktor ini. Dampak terbesar terjadi pada pembelajaran mesin dan jaringan syaraf, dimana AI kini mengungguli manusia dalam bidang tertentu seperti pengenalan gambar dan ucapan, menguasai permainan kompleks seperti Go, dan bahkan lulus ujian seperti ujian sekolah bisnis dan wawancara pengkodean Amazon.

Baca selengkapnya: Tidak Ada yang Tahu Cara Menguji Keamanan AI

Terlepas dari kemajuan ini, sebagian besar sistem AI saat ini masih bergantung pada arahan manusia, sebagaimana dicatat oleh Stanford Institute for Human-Centered Artificial Intelligence. Mereka dibuat untuk melakukan tugas-tugas yang didefinisikan secara sempit, dipandu oleh data dan instruksi yang kami berikan.

Meskipun demikian, beberapa sistem AI sudah menunjukkan tanda-tanda kemandirian yang terbatas. Kendaraan otonom membuat keputusan secara real-time mengenai navigasi dan keselamatan, sementara algoritme rekomendasi pada platform seperti YouTube dan Amazon menyarankan konten dan produk tanpa campur tangan manusia. Namun kita belum mencapai otonomi penuh—masih ada rintangan besar, mulai dari memastikan keselamatan dan pengawasan etika hingga menghadapi sistem AI yang tidak dapat diprediksi di lingkungan yang tidak terstruktur.

Saat ini, sebagian besar AI masih berada di bawah kendali manusia. Negara ini belum sepenuhnya terintegrasi ke dalam sistem penting yang menjaga dunia tetap berjalan—jaringan energi, pasar keuangan, atau senjata militer—dengan cara yang memungkinkan negara tersebut beroperasi secara mandiri. Tapi jangan salah, kami sedang menuju ke arah itu. Teknologi berbasis AI sudah mulai memberikan manfaat, khususnya di bidang militer dengan sistem seperti drone otonom, dan di sektor sipil, di mana AI membantu mengoptimalkan konsumsi energi dan membantu perdagangan keuangan.

Ketika AI mendapatkan akses ke infrastruktur yang lebih penting, risikonya akan berlipat ganda. Bayangkan AI memutuskan untuk memutus pasokan listrik suatu kota, memanipulasi pasar keuangan, atau menggunakan senjata militer—semuanya tanpa pengawasan manusia, atau terbatas. Ini adalah masa depan yang tidak bisa kita biarkan terwujud.

Namun bukan hanya skenario hari kiamat yang harus kita takuti. Sisi gelap dari kemampuan AI sudah mulai diketahui. Kampanye misinformasi yang didukung AI mendistorsi wacana publik dan mengganggu stabilitas demokrasi. Contoh yang paling terkenal adalah pemilihan presiden AS tahun 2016, di mana Badan Riset Internet Rusia menggunakan bot otomatis di platform media sosial untuk menyebarkan konten yang memecah belah dan menyesatkan.

Deepfake juga menjadi masalah serius. Pada tahun 2022, kita melihat contoh yang mengerikan ketika video palsu Presiden Ukraina Volodymyr Zelensky muncul, yang secara keliru menggambarkan dia menyerukan penyerahan diri selama invasi Rusia. Tujuannya jelas: mengikis semangat dan menabur kebingungan. Ancaman-ancaman ini tidak bersifat teoretis—hal ini sedang terjadi saat ini, dan jika kita tidak bertindak, ancaman tersebut akan semakin canggih dan sulit dihentikan.

Meskipun AI berkembang pesat, regulasi masih tertinggal. Hal ini terutama berlaku di AS, di mana upaya untuk menerapkan undang-undang keselamatan AI masih terfragmentasi. Peraturan sering kali diserahkan kepada negara bagian, sehingga menghasilkan undang-undang yang tambal sulam dengan tingkat efektivitas yang berbeda-beda. Tidak ada kerangka nasional yang kohesif untuk mengatur pengembangan dan penerapan AI. Keputusan Gubernur California Gavin Newsom baru-baru ini untuk memveto rancangan undang-undang keselamatan AI, karena khawatir hal tersebut akan menghambat inovasi dan mendorong perusahaan teknologi ke tempat lain, hanya menunjukkan betapa tertinggalnya kebijakan tersebut.

Baca selengkapnya: Mengatur AI Lebih Mudah dari yang Anda Bayangkan

Kita memerlukan pendekatan global yang terkoordinasi terhadap regulasi AI—sebuah badan internasional yang memantau perkembangan AGI, serupa dengan Badan Energi Atom Internasional untuk teknologi nuklir. AI, seperti halnya tenaga nuklir, adalah teknologi tanpa batas. Jika satu negara saja mengembangkan AGI tanpa perlindungan yang memadai, dampaknya akan berdampak ke seluruh dunia. Kita tidak boleh membiarkan kesenjangan dalam peraturan menyebabkan seluruh planet ini terkena risiko bencana. Di sinilah kerja sama internasional menjadi penting. Tanpa perjanjian global yang menetapkan batas-batas yang jelas dan memastikan pengembangan AI yang aman, kita berisiko mengalami perlombaan senjata menuju bencana.

Pada saat yang sama, kita tidak bisa menutup mata terhadap tanggung jawab perusahaan seperti Google, Microsoft, dan OpenAI—perusahaan yang berada di garis depan pengembangan AI. Ada kekhawatiran yang semakin meningkat bahwa perebutan dominasi AI, yang didorong oleh persaingan yang ketat dan tekanan komersial, dapat menutupi risiko jangka panjang. OpenAI baru-baru ini menjadi berita utama dengan beralih ke struktur nirlaba.

Peringatan pelopor kecerdasan buatan Geoffrey Hinton tentang persaingan antara Google dan Microsoft sangat jelas: “Saya rasa mereka tidak perlu meningkatkan skala ini sampai mereka memahami apakah mereka dapat mengendalikannya.”

Salah satu solusinya adalah dengan membangun sistem pengamanan kegagalan (fail-safe) dalam sistem AI—yaitu “tombol mematikan” atau pintu belakang yang memungkinkan manusia melakukan intervensi jika sistem AI mulai berperilaku tidak terduga. Undang-undang keselamatan AI California mencakup ketentuan untuk perlindungan semacam ini. Mekanisme seperti ini perlu dibangun ke dalam AI sejak awal, bukan ditambahkan setelahnya.

Tidak dapat disangkal bahwa risikonya memang nyata. Kita berada di ambang berbagi planet kita dengan mesin yang bisa menyamai atau bahkan melampaui kecerdasan manusia—baik itu terjadi dalam satu atau sepuluh tahun. Namun kami bukannya tidak berdaya. Peluang untuk memandu pengembangan AI ke arah yang benar masih dalam genggaman kita. Kita bisa menjamin masa depan dimana AI bisa menjadi kekuatan untuk kebaikan.

Tapi jam terus berdetak.

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Post