Terkait Keamanan Terkait Keamanan Cara menghindari tertipu oleh misinformasi yang dihasilkan AI

Cara menghindari tertipu oleh misinformasi yang dihasilkan AI

Cara menghindari tertipu oleh misinformasi yang dihasilkan AI


Cara menghindari tertipu oleh misinformasi yang dihasilkan AI

Banyak gambar yang dihasilkan AI terlihat realistis sampai Anda melihat lebih dekat

tengah perjalanan

Apakah Anda menyadari bahwa gambar di atas dibuat oleh kecerdasan buatan? Mungkin sulit untuk mengenali gambar, video, audio, dan teks yang dihasilkan AI pada saat kemajuan teknologi membuatnya semakin sulit dibedakan dari banyak konten yang dibuat manusia, sehingga kita rentan terhadap manipulasi oleh disinformasi. Namun, dengan mengetahui status terkini teknologi AI yang digunakan untuk membuat misinformasi, dan berbagai tanda yang menunjukkan bahwa apa yang Anda lihat mungkin palsu, Anda dapat membantu melindungi diri Anda agar tidak tertipu.

Para pemimpin dunia merasa khawatir. Menurut laporan Forum Ekonomi Dunia, misinformasi dan disinformasi dapat “mengganggu proses pemilu secara radikal di beberapa negara selama dua tahun ke depan”, sementara akses yang lebih mudah ke perangkat AI “telah memungkinkan ledakan informasi palsu dan apa yang disebut konten ‘sintetis’, mulai dari kloning suara yang canggih hingga situs web palsu”.

Istilah misinformasi dan disinformasi keduanya merujuk pada informasi yang salah atau tidak akurat, tetapi disinformasi adalah informasi yang sengaja dimaksudkan untuk menipu atau menyesatkan.

“Masalah dengan disinformasi yang didukung AI adalah skala, kecepatan, dan kemudahan peluncuran kampanye,” kata Hany Farid dari University of California, Berkeley. “Serangan ini tidak akan lagi melibatkan aktor yang disponsori negara atau organisasi yang memiliki dana besar – satu orang dengan akses ke daya komputasi yang sederhana dapat membuat konten palsu dalam jumlah besar.”

Ia mengatakan bahwa AI generatif (lihat glosarium, di bawah) “mencemari seluruh ekosistem informasi, membuat semua yang kita baca, lihat, dan dengar menjadi diragukan”. Ia mengatakan penelitiannya menunjukkan bahwa, dalam banyak kasus, gambar dan audio yang dihasilkan AI “hampir tidak dapat dibedakan dari kenyataan”.

Namun, penelitian oleh Farid dan lainnya mengungkapkan bahwa ada strategi yang dapat Anda ikuti untuk mengurangi risiko tertipu oleh misinformasi media sosial atau disinformasi yang diciptakan oleh AI.

Cara mengenali gambar AI palsu

Ingatkah Anda melihat foto Paus Fransiskus mengenakan jaket tebal? Gambar AI palsu seperti itu menjadi lebih umum karena alat baru berdasarkan model difusi (lihat glosarium, di bawah) telah memungkinkan siapa saja untuk mulai menghasilkan gambar dari perintah teks sederhana. Satu studi oleh Nicholas Dufour di Google dan rekan-rekannya menemukan peningkatan pesat dalam proporsi gambar yang dihasilkan AI dalam klaim misinformasi yang telah diperiksa faktanya sejak awal tahun 2023 dan seterusnya.

“Saat ini, literasi media membutuhkan literasi AI,” kata Negar Kamali di Universitas Northwestern di Illinois. Dalam sebuah studi tahun 2024, ia dan rekan-rekannya mengidentifikasi lima kategori kesalahan berbeda dalam gambar yang dihasilkan AI (diuraikan di bawah) dan memberikan panduan tentang cara orang dapat mengenalinya sendiri. Kabar baiknya adalah penelitian mereka menunjukkan bahwa saat ini orang-orang memiliki akurasi sekitar 70 persen dalam mendeteksi gambar AI palsu tentang orang-orang. Anda dapat menggunakan tes gambar daring mereka untuk menilai keterampilan detektif Anda sendiri.

5 jenis kesalahan umum pada gambar yang dihasilkan AI:

  1. Ketidakmungkinan sosial budaya: Apakah adegan tersebut menggambarkan perilaku yang langka, tidak biasa, atau mengejutkan bagi budaya atau tokoh sejarah tertentu?
  2. Ketidakmungkinanan anatomi: Perhatikan baik-baik: apakah bagian tubuh seperti tangan memiliki bentuk atau ukuran yang tidak biasa? Apakah mata atau mulut terlihat aneh? Apakah ada bagian tubuh yang menyatu?
  3. Artefak gaya: Apakah gambar terlihat tidak alami, terlalu sempurna, atau bergaya? Apakah latar belakangnya terlihat aneh atau ada yang kurang? Apakah pencahayaannya aneh atau bervariasi?
  4. Ketidakmungkinan fungsional: Apakah ada benda yang tampak aneh atau seperti tidak nyata atau tidak berfungsi? Misalnya, apakah kancing atau gesper sabuk berada di tempat yang aneh?
  5. Pelanggaran fisika: Apakah bayangan menunjuk ke arah yang berbeda? Apakah pantulan cermin konsisten dengan dunia yang digambarkan dalam gambar?
Sebuah gambar seorang pria sedang menggosok giginya dengan dua sikat gigi, yang salah satunya terlihat aneh, yang dihasilkan oleh program AI

Objek dan perilaku aneh bisa menjadi petunjuk bahwa suatu gambar dibuat oleh AI

tengah perjalanan

Cara mengidentifikasi video deepfake

Teknologi AI yang dikenal sebagai jaringan adversarial generatif (lihat glosarium, di bawah) telah memungkinkan individu yang paham teknologi untuk membuat video deepfake sejak 2014 – memanipulasi video orang yang sudah ada secara digital untuk menukar wajah yang berbeda, membuat ekspresi wajah baru, dan memasukkan audio lisan baru yang selaras dengan sinkronisasi bibir yang cocok. Hal ini telah memungkinkan semakin banyak penipu, peretas yang didukung negara, dan pengguna internet untuk membuat video deepfake di mana selebritas seperti Taylor Swift dan orang biasa mungkin menemukan diri mereka tanpa sengaja ditampilkan dalam pornografi deepfake nonkonsensual, penipuan, dan misinformasi atau disinformasi politik.

Teknik untuk mengenali gambar palsu AI (lihat di atas) juga dapat diterapkan pada video yang mencurigakan. Selain itu, para peneliti di Massachusetts Institute of Technology dan Northwestern University di Illinois telah menyusun beberapa kiat tentang cara mengenali deepfake semacam itu, tetapi mereka mengakui bahwa tidak ada metode yang benar-benar ampuh dan selalu berhasil.

6 tips untuk mengenali video yang dihasilkan AI:

  1. Gerakan mulut dan bibir: Apakah ada saat-saat ketika video dan audio tidak sepenuhnya tersinkronisasi?
  2. Gangguan anatomi: Apakah wajah atau tubuh terlihat aneh atau bergerak tidak wajar?
  3. Menghadapi: Carilah ketidakkonsistenan pada kehalusan wajah atau kerutan di sekitar dahi dan pipi, beserta tahi lalat wajah.
  4. Penerangan: Apakah pencahayaannya tidak konsisten? Apakah bayangan berperilaku seperti yang Anda harapkan? Perhatikan dengan saksama mata, alis, dan kacamata orang tersebut.
  5. Rambut: Apakah rambut wajah terlihat aneh atau bergerak dengan cara yang aneh?
  6. Berkedip: Kedipan yang terlalu banyak atau terlalu sedikit bisa jadi merupakan tanda deepfake.

Kategori video deepfake yang lebih baru didasarkan pada model difusi (lihat glosarium, di bawah) – teknologi AI yang sama di balik banyak generator gambar – yang dapat membuat klip video yang sepenuhnya dibuat oleh AI berdasarkan perintah teks. Perusahaan-perusahaan sudah menguji dan merilis versi komersial generator video AI yang dapat memudahkan siapa saja untuk melakukan ini tanpa memerlukan pengetahuan teknis khusus. Sejauh ini, video yang dihasilkan cenderung menampilkan wajah yang terdistorsi atau gerakan tubuh yang aneh.

“Video yang dihasilkan AI ini mungkin lebih mudah dideteksi oleh manusia daripada gambar, karena terdapat banyak gerakan dan terdapat lebih banyak peluang untuk artefak dan hal-hal yang tidak mungkin dihasilkan AI,” kata Kamali.


Cara mengidentifikasi bot AI

Akun media sosial yang dikendalikan oleh bot komputer telah menjadi hal yang umum di banyak media sosial dan platform pengiriman pesan. Semakin banyak bot ini juga telah memanfaatkan teknologi AI generatif seperti model bahasa besar (lihat glosarium, di bawah) sejak tahun 2022. Hal ini memudahkan dan murah untuk menghasilkan konten yang ditulis AI melalui ribuan bot yang tata bahasanya benar dan disesuaikan secara meyakinkan dengan situasi yang berbeda.

Kini, “menjadi jauh lebih mudah untuk menyesuaikan model bahasa yang besar ini untuk audiens tertentu dengan pesan tertentu,” kata Paul Brenner di Universitas Notre Dame di Indiana.

Brenner dan rekan-rekannya menemukan dalam penelitian mereka bahwa relawan hanya dapat membedakan bot bertenaga AI dari manusia sekitar 42 persen dari waktu – meskipun para peserta diberi tahu bahwa mereka berpotensi berinteraksi dengan bot. Anda dapat menguji keterampilan deteksi bot Anda sendiri di sini.

Beberapa strategi dapat membantu mengidentifikasi bot AI yang kurang canggih, kata Brenner.

5 cara untuk menentukan apakah akun media sosial adalah bot AI:

  1. Emoji dan tagar: Penggunaan hal-hal ini secara berlebihan dapat menjadi suatu tanda.
  2. Frasa, pilihan kata, atau analogi yang tidak umum: Kata-kata yang tidak biasa dapat mengindikasikan sebuah bot AI.
  3. Pengulangan dan struktur: Bot mungkin menggunakan kata-kata berulang yang mengikuti bentuk yang serupa atau kaku dan mereka mungkin menggunakan istilah slang tertentu secara berlebihan.
  4. Ajukan pertanyaan: Hal ini dapat mengungkap kurangnya pengetahuan bot tentang suatu topik – terutama jika menyangkut tempat dan situasi setempat.
  5. Asumsikan yang terburuk: Jika akun media sosial bukan kontak pribadi dan identitasnya belum divalidasi atau diverifikasi dengan jelas, bisa jadi itu adalah bot AI.

Cara mendeteksi kloning audio dan deepfake ucapan

Kloning suara (lihat glosarium, di bawah) Alat AI telah mempermudah pembuatan audio lisan baru yang dapat meniru hampir semua orang. Hal ini menyebabkan munculnya penipuan audio deepfake yang mengkloning suara anggota keluarga, eksekutif perusahaan, dan pemimpin politik seperti Presiden AS Joe Biden. Hal ini dapat jauh lebih sulit diidentifikasi dibandingkan dengan video atau gambar yang dihasilkan AI.

“Kloning suara sangat sulit dibedakan antara yang asli dan yang palsu karena tidak ada komponen visual yang mendukung otak kita dalam membuat keputusan itu,” kata Rachel Tobac, salah satu pendiri SocialProof Security, sebuah organisasi peretas topi putih.

Mendeteksi deepfake audio AI semacam itu bisa jadi sulit terutama jika digunakan dalam panggilan video dan telepon. Namun, ada beberapa langkah yang masuk akal yang dapat Anda ikuti untuk membedakan suara manusia asli dari suara yang dihasilkan AI.

4 langkah untuk mengenali apakah audio telah dikloning atau dipalsukan menggunakan AI:

  1. Tokoh masyarakat: Jika klip audio tersebut berasal dari pejabat terpilih atau selebriti, periksa apakah apa yang mereka katakan konsisten dengan apa yang telah dilaporkan ke publik atau dibagikan tentang pandangan dan perilaku mereka.
  2. Carilah ketidakkonsistenan: Bandingkan klip audio dengan klip video atau audio yang telah diautentikasi sebelumnya yang menampilkan suara orang yang sama. Apakah ada ketidakkonsistenan dalam bunyi suara atau cara bicara mereka?
  3. Keheningan yang canggung: Jika Anda mendengarkan panggilan telepon atau pesan suara dan pembicara mengambil jeda yang luar biasa lama saat berbicara, mereka mungkin menggunakan teknologi kloning suara bertenaga AI.
  4. Aneh dan bertele-tele: Pola bicara robotik atau cara bicara yang sangat bertele-tele dapat mengindikasikan bahwa seseorang menggunakan kombinasi kloning suara untuk meniru suara seseorang dan model bahasa yang besar untuk menghasilkan kata-kata yang tepat.
Rekaman video versi AI dari Narendra Modi yang sedang menari mengikuti lagu Gangnam Style

Tokoh publik seperti Narendra Modi yang berperilaku tidak seperti biasanya bisa jadi merupakan tanda adanya AI

@the_indian_deepfaker

Teknologi akan menjadi lebih baik

Saat ini, tidak ada aturan konsisten yang selalu dapat membedakan konten yang dihasilkan AI dari konten manusia yang autentik. Model AI yang mampu menghasilkan teks, gambar, video, dan audio hampir pasti akan terus ditingkatkan dan sering kali dapat dengan cepat menghasilkan konten yang tampak autentik tanpa artefak atau kesalahan yang jelas. “Bersikaplah paranoid dengan sopan dan sadari bahwa AI telah memanipulasi dan memalsukan gambar, video, dan audio dengan cepat – kita berbicara tentang penyelesaian dalam waktu 30 detik atau kurang,” kata Tobac. “Hal ini memudahkan individu jahat yang ingin mengelabui orang untuk membalikkan disinformasi yang dihasilkan AI dengan cepat, yang akan muncul di media sosial dalam hitungan menit setelah berita terbaru.”

Meskipun penting untuk mengasah mata Anda terhadap informasi palsu yang dihasilkan AI dan belajar untuk mengajukan lebih banyak pertanyaan tentang apa yang Anda baca, lihat, dan dengar, pada akhirnya ini tidak akan cukup untuk menghentikan bahaya dan tanggung jawab untuk mendeteksi berita palsu tidak dapat sepenuhnya dibebankan kepada individu. Farid adalah salah satu peneliti yang mengatakan bahwa regulator pemerintah harus meminta pertanggungjawaban perusahaan teknologi terbesar – bersama dengan perusahaan rintisan yang didukung oleh investor Silicon Valley terkemuka – yang telah mengembangkan banyak alat yang membanjiri internet dengan konten palsu yang dihasilkan AI. “Teknologi tidak netral,” kata Farid. “Pernyataan yang dijual sektor teknologi kepada kita bahwa entah bagaimana mereka tidak harus menanggung tanggung jawab seperti yang dilakukan oleh industri lain, saya tolak saja.”

Model difusi: Model AI yang belajar dengan terlebih dahulu menambahkan gangguan acak ke data – seperti mengaburkan gambar – lalu membalikkan proses untuk memulihkan data asli.

Jaringan permusuhan generatif: Metode pembelajaran mesin berdasarkan dua jaringan saraf yang bersaing dengan memodifikasi data asli dan kemudian mencoba memprediksi apakah data yang dihasilkan autentik atau nyata.

AI Generatif: Kelas luas model AI yang dapat menghasilkan teks, gambar, audio, dan video setelah dilatih pada bentuk konten serupa.

Model bahasa besar: Sekelompok model AI generatif yang dapat menghasilkan berbagai bentuk konten tertulis sebagai respons terhadap perintah teks dan terkadang menerjemahkannya ke berbagai bahasa.

Kloning suara: Metode penggunaan model AI untuk membuat salinan digital suara seseorang dan kemudian berpotensi menghasilkan sampel ucapan baru dalam suara tersebut.

Topik:

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Post