Jikalau gambar bernilai seribu perkataan, maka video bernilai seribu gambar.
Selagi video wujud, ia boleh dijadikan sebagai bukti yang boleh dipercayai. Tiada yang memberi kesan besar selain rakaman video (contohnya pembunuhan JFK) atau melihat seseorang berkata di dalam video, ia boleh memberi dampak terhadap sesebuah penyiasatan.
Walau bagaimanapun, asas kepercayaan itu perlahan-lahan mulai pudar dengan kehadiran teknologi Artificial Intelligence (AI) di mana dokumentari sintetik mulai masuk ke arus perdana. Dikenali sebagai "deepfakes," video sintetik dicipta menggunakan aplikasi yang dipanggil FakeApp, yang menggunakan teknologi AI untuk menukar wajah dalam video dengan wajah orang lain. Bukankah hal ini menakutkan?
Sejak ia hadir pada awal bulan ini, FakeApp telah mengumpulkan komuniti yang besar dan ratusan ribu telah muat turun aplikasi ini. Malangnya, sebilangan besar penggunanya ingin menggunakan aplikasi ini untuk kegunaan yang masih boleh dipersoalkan tujuannya.
Mencipta video palsu bukanlah sesuatu yang baru, sebelum ini ia telah wujud tetapi memerlukan akses kepada hardware, kepakaran dan wang yang banyak. Namun, sekarang anda seorang amatur boleh melakukannya dari rumah anda dengan selesa, cukup dengan hanya mempunyai kad grafik dan jumlah RAM yang baik.
Walaupun keputusan deepfakes masih berkualiti rendah. Kebanyakan bahan kajian yang dijalankan jelas memberikan sifat sebenarnya (boleh dikenalpasti) media. Malah yang lebih meyakinkan, ia hanya dapat dibezakan jika anda melihatnya secara teliti. Masa akan menjadikannya sebuah teknologi menjadi cukup baik sehingga ia mampu menipu pakar terlatih. Justeru, ketahuilah kuasa pemusnah ini akan mengambil dimensi dalam dunia video tidak lama lagi.
Deepfakes bukanlah sihir, ia adalah matematik. Aplikasi ini menggunakan aplikasi pembelajaran yang bermaksud ia bergantung kepada rangkaian neural (internet) untuk melaksanakan fungsinya. Rangkaian neural adalah struktur perisian yang direka bentuk selepas otak manusia.
Walau bagaimanapun, deepfakes mengalami masalah yang sama sepertimana aplikasi pembelajaran (deep learning) dilakukan; ia bergantung dan memerlukan banyak data. Bagi mencipta video palsu yang baik, para pemain deepfakers memerlukan banyak gambar wajah orang dalam video asal (yang tidak menjadi masalah jika mereka mencipta sendiri) dan pengganti wajah yang akan diletakkan dalam pengeluaran akhir. Ia memerlukan gambar-gambar dari pelbagai sudut dengan kualiti yang baik.
Ini bermakna, selebriti, ahli politik, atlet dan orang lain yang sering muncul di kaca televisyen atau media sosial cenderung terkena tempias pemalsuan ini berbanding orang awam yang kurang memuatnaik bahan media ke laman-laman sosial.
Masa depan pemalsuan teknologi AI
Bahkan, apabila anda memasukkan peranti berkuasa AI lain seperti alat yang dapat mensintesis suara manusia (Lyrebird dan Voicery), atau gaya tulisan tangan dan perbualan, kesan negatif boleh menjadi bencana yang sangat besar!
Bencana besar boleh berlaku sekiranya video palsu melibatkan pihak berkuasa atau pegawai melakukan sesuatu yang boleh memberi kesan sosial dan politik yang besar. Ini seperti video tentera membunuh orang awam, atau ahli politik yang mengambil rasuah atau melalukan seksual terlarang, atau pun karangan komen berbentuk rasis. Ia tidak semestinya sangat sukar bagi seorang pakar AI.
Ketika zaman ini, prinsip anda adalah tidak perlu percaya semua yang anda lihat, baca atau dengar sehingga anda dapat buktikan kesahihannya. Begitulah jua pelaburan cryptocurrency.
Bagaimana mengatasi kesan pemalsuan AI
Jadi, bagaimana anda boleh buktikan kesahihan video dan memastikan penggunaannya sintetik AI selamat? Sesetengah pakar menyarankan supaya langkah pertama adalah melalui peningkatan kesedaran. Pendidikan tentang keupayaan algoritma AI adalah langkah terbaik untuk mencegah penggunaan yang tidak bermoral seperti FakeApp yang mempunyai kesan yang meluas walaupun dalam tempoh singkat.
Kedua, langkah-langkah undang-undang juga penting. Pada masa ini, perlindungan yang serius untuk melindungi orang daripada rakaman suara yang palsu atau media palsu adalah tidak memadai. Hukuman berat terhadap amalan ini pula secara antagonis hanya menatijahkan peningkatan kos bagi pembuatan dan penerbitan bahan palsu.
Langkah-langkah di atas hanya berkesan sekiranya manusia dapat membezakan antara media palsu dan sebenar. Awas! Apabila teknologi ini telah matang, ia hampir mustahil untuk membuktikan bahawa rakaman video atau audio tertentu telah dibuat oleh algoritma AI.
Sementara itu, seseorang juga mungkin mengambil kesempatan melalui pemalsuan AI untuk membuat tuntutan palsu bahawa video sebenar yang menggambarkan mereka melakukan jenayah palsu. Malahan, tuntutan itu juga sukar untuk dilenyapkan.
Teknologi menangani pemalsuan AI
Cara terbaik untuk mengesan media AI adalah AI sendiri. AI boleh dilatih untuk mengesan tanda-tanda yang menunjukkan AI digunakan untuk memanipulasi foto, video atau fail bunyi.
Walau bagaimanapun, pada satu ketika, bunyi itu mungkin menjadi hampir nyata dan real sehinggakan AI sendiri tidak dapat mengesannya. Atas sebab itu, kita perlu membuat langkah-langkah lain seperti pendaftaran media dan dokumen yang benar.
Jalan terbaik adalah menggunakan teknologi Blockchain iaitu distributed ledger technology (DLT) yang membolehkan anda menyimpan maklumat dalam talian tanpa memerlukan central server. Pada blockchain, setiap rekod ditiru pada beberapa komputer dan mengikatnya dengan sepasang kunci encrypt awam dan persendirian. Pemegang kunci peribadi akan menjadi pemilik data yang sebenarnya, bukan komputer yang menyimpannya.
Tambahan lagi, blockchain berdaya tahan terhadap pelbagai ancaman keselamatan berbanding menyimpan data berpusat. Walaupun teknologi DLT belum lagi mampu menyimpan sejumlah data yang besar, tetapi buat masa ini ia adalah sempurna untuk menyimpan hash dan tandatangan digital.
Sebagai contoh, anda boleh menggunakan blockchain untuk menandatangan secara digital dan mengesahkan keaslian fail video atau audio yang berkaitan dengannya. Lebih banyak orang menambah tandatangan digital mereka ke video itu, semakin besar ia disah dan dianggap sebagai dokumen yang sebenar. Walaupun, ini bukan penyelesaian yang sempurna, ia masih memerlukan langkah-langkah tambahan untuk menimbang faktor kelayakan voters pada dokumen.
Buat masa ini, apa yang jelas ialah pemalsuan AI tidak lama lagi akan menjadi ancaman serius. Kita perlu bijak mengambil pelbagai pendekatan yang tepat dan mengelakkan penggunaan AI yang berniat jahat, iaitu, sementara inovasi ini masih diteruskan.
Shafiq Neurotrader untuk Market Demon
Emel: shafiq.cryptocall@gmail.com
P/S: Amaran! Jangan gatal tangan download FakeApp.
[2] Video palsu aksi terlampau boleh dikawal terutama melibatkan kes profil tinggi ahli politik!
[2] Video palsu aksi terlampau boleh dikawal terutama melibatkan kes profil tinggi ahli politik!
[3] Kurangkan derma foto dan video anda di media sosial!