Site Overlay

Video Seks, Kecerdasan Buatan, dan Politisi: Selamat Datang di Pemilu 2024, DeepFake!

Hingga tulisan ini dibuat, hasil resmi Pemilu 2019 memang belum diumumkan. Kita belum tahu siapa kah yang nantinya ditetapkan sebagai Presiden RI 2019-2024, tapi ada baiknya mengantisipasi ancaman kecerdasan buatan dalam penyebaran berita bohong pada pemilu mendatang dalam bentuk video. Video seks dan politisi yang dimakelari oleh kecerdasan buatan. Ucapkan selamat datang kepada DeepFake!

DeepFake? Bila kata ini pertama kali didengar, ketahuilah bahwa kata ini berasal dari gabungan kata deep learning dan fake, sebuah teknik yang digunakan untuk menumpuk gambar (superimpose) ke sebuah video. Kecerdasan buatan yang mempelajari gambar-gambar yang disuplai pengguna akan menyinkronkan dengan video utama, menjadikan sebuah wajah bisa menggantikan wajah lain di satu video.

Awalnya teknologi ini dipergunakan untuk keperluan riset dan pengembangan teknologi. Tapi seperti pepatah bilang “Pada setiap inovasi selalu ada ruang untuk masturbasi”, teknologi DeepFake menemukan relevansinya untuk mengisi benak-benak para penyuka video porno dengan membayangkan artis atau selebrita sebagai pemainnya.

Bila dahulu adalah khayalan, kini selangkah lebih dekat, mendekati tahap yang bisa dipercayai layaknya sungguhan.

PERINGATAN! PENGGAMBARAN ADEGAN SEKS PADA PARAGRAF BERIKUTNYA

Daisy Ridley, pemeran tokoh sentral Rey dalam film seri Star Wars episode 7-9 adalah salah satu objek fantasi dari situs berbagi video porno. Dengan teknologi DeepFake, kini dengan mudah mencomot wajahnya setelah komputer belajar dari ratusan foto dan video wawancara sehingga bisa terlihat meyakinkan di sebuah video singkat menghadap alat kelamin pria dengan wajah belepotan cairan berwarna bening.

Tangkapan layar dari video DeepFake yang menampilkan wajah aktris Daisy Ridley yang ditumpuk berkat kecerdasan buatan. Gambar disensor.

Atau tokoh dari serial “Game of Thrones” Maisie Williams yang memerankan Arya Stark serta Emilia Clarke yang memerankan tokoh Daenerys Targaryen tidak luput dari sasaran para penggemar teknologi ini.

Tangkapan layar dari video DeepFake yang menampilkan wajah mirip Maisie Williams. Gambar disensor.

Adegan panas yang mereka mainkan di dalam serial akan terlihat seperti “jinak” bila melihat video-video DeepFake yang beredar di internet. Mulai adegan sesama perempuan, hingga menggelar permainan bertiga dengan “Daisy Ridley” yang wajahnya dipasang melalui teknik yang sama.

Videonya memang singkat, itupun adalah hasil dari proses yang intensif dari kerja komputer yang mempelajari wajah aktris untuk di-tracking ke tubuh yang disasar. Tapi itu sudah cukup. Bagi penggemarnya, dengan bermodal kemiripan saja akan memenuhi keinginan atau hasrat mereka.

Tangkapan layar dari video DeepFake yang menampilkan wajah mirip Emilia Clarke. Gambar disensor.

Kenapa? Mungkin ini relevan dengan tren pengguna layanan video dewasa untuk mencari varian mesum dari apa saja yang sedang ramai. Karena Game of Thrones sedang menayangkan season terakhir, wajarlah bila pencarian ikut meroket. Salah satunya bisa dipelajari dari tulisan saya sebelumnya terkait membaca data dari Pornhub.

Aktris porno yang paling banyak dicari sepanjang tahun 2018. Saya ga kenal sama mereka. Suer.

Teknologi ini masih baru, tapi sudah menunjukkan perkembangan yang sangat pesat dalam hitungan 1-2 tahun saja, Makin banyak ditemui video dengan wajah yang “menempel” erat ke badan, dan mengikuti proporsinya sehingga muncul kesan yang bisa meyakinkan.

Dan taraf ini memberikan kebebasan untuk para pengulik untuk mencari artis-artis lain yang bisa memenuhi keinginan mereka. Emma Watson, pemeran Hermione dalam seri film Harry Potter, adalah salah satu artis yang paling sering jadi korban teknologi DeepFake ini.

Tangkapan layar dari video DeepFake yang menampilkan wajah mirip aktris Emma Watson. Gambar disensor.

Bisa jadi karena penasaran, Watson sendiri memang membatasi peran yang diambil yang bisa menunjukkan badannya secara terbuka. Hal tersebut menimbulkan rasa penasaran bagi para pencari klip video, dan akhirnya bisa diwujudkan melalui DeepFake.

Apakah hanya artis, sayangnya teknologi ini seperti memberi cek kosong, memungkinkan siapa saja yang bisa menyuplai materi ajar kepada komputer untuk membuat simulasi wajah dari siapa pun. Meghan Markle, anggota kerajaan Inggris, tidak luput dari sasaran, hingga politisi di Amerika Serikat, Alexandria Ocasio-Cortez (OCA) pun juga muncul video DeepFake-nya.

Tangkapan layar dari video DeepFake mirip anggota kerajaan Meghan Markle. Gambar disensor.
Tidak hanya selebrita, politisi pun juga kena DeepFake seperti dialami Alexandria Ocasio-Cortez. Gambar disensor.

Akan sulit mendapatkan jawaban dari pertanyaan “Mengapa” karena semua orang bisa melakukannya. Instruksinya beredar jelas dan dengan perangkat komputer yang tersedia bebas, teknologi DeepFake ini tersedia bagi siapa saja yang punya dan mau menginvestasikan waktunya untuk belajar.

DeepFake sendiri bukanlah teknologi yang tujuannya untuk hal yang negatif seperti disebutkan di atas. Tapi untuk untuk menunjukkan kemampuan kecerdasan buatan dalam mengolah informasi wajah yang diterjemahkan dari titik-titik penanda seperti ujung bibir, ujung alis, pucuk hidung, dan sebagai nya untuk membimbing tracking gambar ke video.

Tinggal mencari badan yang memiliki perawakan yang sama sebagai model, jadilah DeepFake yang mengesankan nyata.

Beberapa membuat video DeepFake untuk tujuan komedi seperti memasang foto aktor Nicholas Cage ke banyak adegan film seperti Indiana Jones atau Superman. Untuk apa? Hanya untuk menunjukkan bahwa kita bisa.

Sayangnya teknologi ini pun akhirnya datang dengan konsekuensinya.

Hal ini memunculkan tantangan serta pekerjaan rumah baru bagi warga internet karena penyebaran berita bohong akan lebih canggih lagi. Saat hoaks bisa diperkuat dengan video buatan seperti ini, tinggal kemampuan berpikir kritis lah yang menentukan bagaimana nasib sebuah bangsa.

Kombinasi maut

Kembali ke Indonesia, pengalaman selama kampanye Pemilu 2019 menyisakan satu pekerjaan rumah untuk meningkatkan literasi digital. Bagaimana tetap kritis di tengah banjir informasi karena serbuan narasa berbalas kontranarasi, hoaks dibalik dengan hoaks, propaganda dan agitasi membanjiri linimasa media sosial.

Meskipun hasil penghitungan suara belum diumumkan oleh Komisi Pemilihan Umum, kita bisa melihat betapa berita bohong masih bisa berkeliaran dan ditelan sebagai kebenaran. Yang membahayakan dari berita bohong adalah pasokan informasi yang salah dan mengakibatkan penerimanya mengambil keputusan yang salah.

Pekerjaan rumah ini harus segera ditangani karena teknologi DeepFake yang sudah matang akan segera beraksi. Banyak yang meyakini bahwa medan percobaan mereka pertama adalah Pemilu Amerika Serikat di tahun 2020.

Tahun depan bakal menjadi kesempatan berharga untuk melihat betapa ganasnya teknologi DeepFake dipakai untuk membuat kabar bohong menjadi lebih sakti. Ada videonya, ada dialognya, ini bukti yang kamu minta!  Betapa video palsu akan membantu untuk membentuk opini warga / calon pemilih terkait satu isu.

Dan yang tersisa bagi Indonesia adalah setumpuk pekerjaan rumah. Saya tahu Pemilu 2019 baru saja dilakukan tapi bukan berarti kita bisa berantai-santai, bila benar video-video DeepFake dioptimalkan pada Pemilu AS 2020, kita harus mengantisipasi nya karena Indonesia punya beberapa kelemahan seperti rendahnya literasi digital yang membuat keberadaan video palsu akan memudahkan pembentukan opini yang menyesatkan.

Langkah lainnya adalah membentuk protokol verifikasi video untuk memvalidasi sebuah video sebagai rekayasa atau betulan. Teknologi harusnya ada, yang penting menetapkan prosedur sehingga hasilnya bisa dipakai sebagai acuan.

Pemerintah juga tidak boleh ketinggalan dengan menyiapkan regulasi, termasuk sanksi yang tegas bagi para pembuat DeepFake yang berpotensi merugikan banyak orang hingga kepentingan negara.

Memang apa sih ruginya kalau jadi korban video palsu?

Yang pertama, memberikan informasi yang menyesatkan. Masyarakat bisa mendapatkan referensi yang salah hingga terhasut untuk tidak mengikuti program yang dipersiapkan oleh pemerintah. Pada kasus tertentu bisa mengurangi kewibawaan aparat pemerintah.

Bagi politisi, video palsu bisa menjadi serangan yang bisa menjatuhkan program mereka, atau berpotensi kehilangan dukungan dari pemilihnya. Video palsu bisa menjadi cara terbaik dan paling efektif dalam membunuh karakter seorang pejabat dan politisi, tidak mesti video seks, tempatkan saja dalam sebuah situasi, bumbui dengan narasi yang mengundang emosi. Bila pas akan meledak dan sasaran akan kehabisan tenaga dan waktu karena memberi klarifikasi.

Waktu terus berjalan, teknologi kian canggih, begitu pula kewajiban kita untuk lebih tanggap lagi.

Leave a Reply

Your email address will not be published. Required fields are marked *