5 Dampak Negatif Deepfake dan AI dalam Pemilu AS

Estimated read time 8 min read

WASHINGTON — Pada tanggal 21 Januari, Patricia Gingrich sedang bersiap untuk duduk untuk makan malam ketika telepon rumahnya berdering. Seorang pemilih di New Hampshire mengangkat telepon dan mendengar suara yang menyuruhnya untuk tidak memilih dalam pemilihan presiden mendatang.

“Ketika saya mendengarnya, saya berpikir, wow, itu terdengar seperti Joe Biden,” kata Gingrich kepada Al Jazeera. “Tetapi fakta bahwa dia mengatakan simpan suara Anda, jangan gunakan pada pemilu berikutnya – saya tahu Joe Biden tidak akan pernah mengatakan itu.”

Suaranya mungkin mirip dengan Presiden Amerika Serikat, tapi itu bukan dia: suara palsu yang diciptakan oleh kecerdasan buatan (AI).

Para ahli memperingatkan bahwa deepfake – audio, video atau gambar yang dibuat dengan alat AI, dengan tujuan untuk menipu – menimbulkan risiko tinggi bagi pemilih Amerika menjelang pemilu November, tidak hanya dengan memasukkan konten palsu ke dalam pemilu tetapi juga merusak kepercayaan publik.

Gingrich mengatakan dia tidak terpengaruh oleh kebohongan Biden, namun dia khawatir kebohongan tersebut dapat mengurangi jumlah pemilih. Pesan tersebut menjangkau hampir 5.000 pemilih di New Hampshire hanya beberapa hari sebelum pemilihan utama negara bagian tersebut.

“Ini mungkin tidak baik bagi orang-orang yang tidak mendapat informasi tentang apa yang terjadi dengan Partai Demokrat,” kata Gingrich, ketua Komite Demokratik Barrington di Burlington, New Hampshire.

“Jika mereka benar-benar berpikir mereka tidak akan memilih sesuatu dan Joe Biden mengatakan kepada mereka untuk tidak melakukannya, mungkin mereka tidak akan memilih.”

5 dampak negatif Deepfakes dan AI pada pemilu AS1. Kelompok online adalah kelompok yang paling rentan

Foto/AP

Seruan Biden bukanlah satu-satunya hal gila dalam siklus pemilu kali ini. Sebelum mundur dari pemilihan presiden, tim kampanye Gubernur Florida Ron DeSantis membagikan video dengan gambar Donald Trump yang dibuat oleh AI yang sedang memeluk ahli imunologi Anthony Fauci – kedua karakter tersebut mengalami konflik publik selama pandemi COVID-19.

Dan pada bulan September, robocall lain dilakukan kepada 300 pemilih yang diperkirakan akan berpartisipasi dalam pemilihan pendahuluan Partai Republik di Carolina Selatan. Kali ini, penerima mendengar suara yang dihasilkan AI yang meniru Senator Lindsey Graham, menanyakan siapa yang mereka pilih.

Praktik mengubah atau memalsukan konten—terutama untuk tujuan politik—telah ada sejak awal mula politik Amerika. Bahkan presiden pertama AS, George Washington, menghadapi serangkaian “surat palsu” yang tampaknya mempertanyakan alasan kemerdekaan Amerika.

2. Informasi bahan bakar yang lebih murah dan menyesatkan

Foto/AP

Namun alat AI saat ini sudah cukup canggih untuk meniru manusia secara meyakinkan dengan cepat dan murah, sehingga meningkatkan risiko misinformasi.

Sebuah studi yang diterbitkan awal tahun ini oleh para peneliti di Universitas George Washington memperkirakan bahwa pada pertengahan tahun 2024, “serangan AI” harian akan meningkat, sehingga menimbulkan ancaman terhadap pemilihan umum pada bulan November.

Penulis utama studi tersebut, Neil Johnson, mengatakan kepada Al Jazeera bahwa risiko tertinggi tidak datang dari panggilan palsu baru-baru ini – yang berisi pesan-pesan mengejutkan – tetapi dari panggilan palsu yang lebih meyakinkan.

“Ini akan menjadi gambaran yang berbeda, gambaran yang berubah, bukan informasi yang sepenuhnya salah karena informasi palsu menarik perhatian para pemeriksa fakta,” kata Johnson.

Penelitian menunjukkan bahwa komunitas online saling berhubungan sedemikian rupa sehingga memungkinkan penjahat untuk mengirimkan media yang dimanipulasi dalam jumlah besar langsung ke arus utama.

Komunitas di swing states mungkin sangat rentan, begitu pula kelompok pengasuhan anak di platform seperti Facebook.

“Peran komunitas orang tua akan sangat besar,” kata Johnson, mengutip cepatnya penyebaran informasi yang salah tentang vaksin selama pandemi ini sebagai contoh.

“Saya pikir kita akan tiba-tiba dihadapkan pada gelombang [misinformasi] – banyak hal yang bukan tidak benar, bukan tidak benar, namun menyebarkan kebenaran.”

3. Merusak kepercayaan masyarakat

Foto/AP

Namun, para pemilih sendiri bukanlah satu-satunya sasaran deepfake. Larry Norden, direktur senior Program Pemilu dan Pemerintahan di Brennan Center for Justice, telah bekerja sama dengan pejabat pemilu untuk membantu mereka mendeteksi konten palsu.

Misalnya, Norden mengatakan penjahat dapat menggunakan alat AI untuk menginstruksikan petugas pemilu agar menutup tempat pemungutan suara awal, baik dengan memanipulasi suara atasan mereka atau dengan mengirimkan pesan yang terlihat seperti melalui akun pemantauan.

Dia mengajari lembaga survei cara melindungi diri mereka sendiri dengan memverifikasi pesan yang mereka terima.

Norden menekankan bahwa penjahat dapat membuat konten yang menyesatkan tanpa AI. “Manfaat AI adalah mempermudah melakukan hal tersebut dalam skala besar,” katanya.

Tahun lalu, Norden mendemonstrasikan kemampuan AI dengan membuat video palsu untuk memberikan presentasi tentang risiko yang ditimbulkan oleh teknologi tersebut.

“Tidak butuh waktu lama,” kata Norden, menjelaskan bahwa yang harus dia lakukan hanyalah mengimpor wawancara TV sebelumnya ke dalam sebuah aplikasi.

Avatarnya tidak sempurna—wajahnya sedikit buram, suaranya agak serak—tetapi Norden mencatat bahwa alat AI berkembang pesat. “Sejak kami menggunakannya, teknologinya menjadi lebih kompleks dan menurut saya semakin sulit untuk membedakannya.”

Teknologi saja bukanlah masalahnya. Ketika deepfake menjadi lebih umum, penonton akan menjadi lebih menyadarinya dan lebih skeptis terhadap konten yang mereka lihat.

Hal ini dapat mengikis kepercayaan masyarakat dan pemilih cenderung menolak informasi faktual. Tokoh politik juga dapat menyalahgunakan skeptisisme ini untuk kepentingan mereka sendiri.

4. Hanya menguntungkan pembohong

Foto/AP

Pakar hukum menyebut fenomena ini sebagai “keuntungan pembohong”: Kekhawatiran terhadap deepfake dapat memudahkan mereka yang memiliki rekaman audio atau video sah untuk mengklaim bahwa rekaman tersebut palsu.

Norden menggunakan klip audio Access Hollywood yang muncul sebelum pemilu 2016 sebagai contoh. Dalam klip tersebut, Trump terdengar berkata tentang interaksinya dengan perempuan: “Anda bisa melakukan apa saja. Pegang vaginanya.”

Rekaman tersebut – yang sangat realistis – dipandang merusak prospek Trump di kalangan pemilih perempuan. Namun jika audio serupa bocor hari ini, Norden mengatakan kandidat tersebut dapat dengan mudah menyebutnya palsu. “Lebih mudah bagi masyarakat untuk mengabaikan hal-hal seperti itu dibandingkan beberapa tahun yang lalu.”

“Salah satu masalah yang kita hadapi saat ini di Amerika adalah kurangnya kepercayaan, dan ini hanya akan memperburuk keadaan,” tambah Norden.

5. Tidak ada undang-undang yang kuat yang mengaturnya

Foto/AP

Meskipun deepfake semakin menjadi perhatian dalam pemilu AS, hanya ada sedikit undang-undang federal yang membatasi penggunaannya. Komisi Pemilihan Umum Federal (FEC) belum membatasi tindakan deepfake dalam pemilu, dan rancangan undang-undang di Kongres masih terhenti.

Setiap negara bagian berupaya untuk mengisi kesenjangan tersebut. Hingga saat ini, 20 undang-undang negara bagian telah disahkan untuk mengatur kecurangan pemilu yang berkantung besar, menurut pelacak legislatif yang diterbitkan oleh organisasi konsumen Public Citizen.

Beberapa rancangan undang-undang lainnya – di Hawaii, Louisiana dan New Hampshire – telah disahkan dan sedang menunggu tanda tangan gubernur.

Norden mengatakan dia tidak akan terkejut melihat masing-masing negara bagian mengambil tindakan di hadapan Kongres. “Negara harus menjadi laboratorium demokrasi, jadi ini terbukti lagi: negara bertindak dulu. “Kita semua tahu betapa sulitnya meloloskan apa pun di Kongres,” katanya.

Para pemilih dan organisasi politik juga mengambil tindakan. Setelah Gingrich menerima telepon palsu Biden di New Hampshire, dia bergabung dengan tuntutan hukum – yang dipimpin oleh Liga Pemilih Wanita – mencari pertanggungjawaban atas dugaan penipuan.

Sumber perbincangannya ternyata adalah Steve Kramer, seorang konsultan politik, yang menyatakan niatnya untuk menarik perhatian akan perlunya regulasi AI dalam politik. Kramer juga mengaku berada di balik robocall di Carolina Selatan, menyamar sebagai Senator Graham.

Kramer melontarkan komentar tersebut setelah NBC News mengungkapkan bahwa dia menugaskan seorang pesulap untuk menggunakan perangkat lunak yang tersedia untuk umum untuk membuat suara Biden palsu.

Menurut gugatan tersebut, pembuatan deepfake membutuhkan waktu kurang dari 20 menit dan biayanya hanya $1.

Namun, Kramer mengatakan kepada CBS News bahwa ia menerima hibah sebesar $5 juta atas upayanya, yang ia harap akan memungkinkan peraturan AI untuk “lepas landas dengan sendirinya atau setidaknya mendapatkan bayarannya sendiri.”

“Niat saya adalah membuat perbedaan,” katanya.

Namun kasus Kramer menunjukkan bahwa undang-undang yang ada dapat digunakan untuk membatasi deepfake.

Misalnya, Komisi Komunikasi Federal (FCC) memutuskan (PDF) awal tahun ini bahwa perangkat lunak peniru suara termasuk dalam Undang-Undang Perlindungan Konsumen Telepon tahun 1991—dan oleh karena itu dalam banyak kasus merupakan tindakan ilegal.

Komisi akhirnya merekomendasikan denda $6 juta terhadap Kramer karena robocall ilegal.

Departemen Kehakiman New Hampshire juga mendakwa Kramer dengan tuduhan penindasan pemilih dan peniruan identitas seorang kandidat, yang dapat mengakibatkan hukuman hingga tujuh tahun penjara. Kramer telah mengaku tidak bersalah. Dia tidak menanggapi permintaan komentar Al Jazeera.

Norden mengatakan penting bahwa tidak ada undang-undang yang dituduhkan Kramer dilanggar, yang dirancang khusus untuk deepfake. “Tuduhan pidana terhadapnya tidak ada hubungannya dengan AI,” ujarnya. “Hukum tetap ada, apapun teknologi yang digunakan.”

Namun, undang-undang tersebut tidak mudah diterapkan terhadap penjahat yang tidak dapat diidentifikasi atau berada di luar Amerika Serikat.

“Kami mengetahui dari badan intelijen bahwa mereka telah melihat Tiongkok dan Rusia menguji alat-alat ini. Dan mereka mengharapkannya untuk digunakan, kata Norden. “Dalam hal ini, Anda tidak akan membuat undang-undang untuk keluar dari masalah ini.”

Baik Norden maupun Johnson percaya bahwa kurangnya peraturan membuat pemilih semakin penting untuk mendapatkan informasi tentang deepfake – dan mempelajari cara menemukan informasi yang akurat.

Mengenai Gingrich, dia mengatakan dia tahu bahwa deepfake yang manipulatif akan menjadi lebih umum. Ia juga merasa bahwa para pemilih harus mendidik diri mereka sendiri tentang risiko-risiko ini.

Pesannya kepada pemilih? “Saya akan memberitahu masyarakat untuk memastikan mereka tahu bahwa mereka dapat memilih.”

You May Also Like

More From Author

+ There are no comments

Add yours