Teknologi.Id - Perkembangan teknologi kecerdasan buatan alias artificial intelligence (AI) sekarang memang makin pesat. Dari yang awalnya cuma buat bantu kerja desain dan nulis, sekarang AI bisa bikin video, suara, bahkan wajah orang yang seolah-olah nyata. Canggih? Iya. Tapi, kalau jatuh ke tangan yang salah, bisa berbahaya banget, bisa jadi bentuk kejahatan siber!
Yang lebih bikin ngeri, teknologi ini kini mulai dijadikan alat buat menjebak dan menipu orang. Bukan cuma di luar negeri, lho, tapi di Indonesia juga udah banyak kasus penipuan yang pakai AI. Jadi, wajar dong kalau banyak pihak mulai mendorong pemerintah untuk gak cuma mengatur pemanfaatan AI, tapi juga mengatur langkah-langkah pencegahan penyalahgunaannya.
Deepfake dan Kejahatan Siber: Kombinasi Mematikan
Laporan dari Signicat awal tahun ini menyebutkan bahwa dalam tiga tahun terakhir, penipuan menggunakan deepfake naik sampai 2.137 persen. Gila, kan? Ini bukan angka main-main. Deepfake, yang dulunya cuma jadi bahan lucu-lucuan di media sosial, sekarang berubah jadi alat kejahatan yang sangat canggih dan sulit dideteksi.
Bahkan, banyak kasus di mana penipu bikin video seolah-olah seorang pejabat atau figur publik lagi ngomong sesuatu yang nggak pernah mereka ucapkan. Atau, suara yang dipalsukan lewat voicebot AI, dipakai buat nelepon korban dengan cerita dramatis agar mereka mentransfer uang. Teknik ini dikenal sebagai rekayasa sosial, dan sekarang makin dipertajam dengan sentuhan teknologi AI.
Baca Juga : Marak Pornografi Deepfake, Berikut Tips Agar Tidak Jadi Korban
AI Dipakai Buat Nipu? Kok Bisa?
Menurut Henke Yunkins, Direktur Regulasi dan Etika dari Indonesia AI Society (IAIS), sekarang banyak pelaku kejahatan siber yang menjalankan aksinya dengan konsep cybercrime-as-a-service (CaaS). Jadi, semacam “jasa” kejahatan yang bisa disewa siapa saja dari belahan dunia manapun.
Bayangin, ada orang di luar negeri yang nyediain jasa buat bikin deepfake sesuai permintaan. Yang lain tinggal bayar, lalu pakai buat nipu target. Ini jelas masalah besar yang gak bisa cuma diserahkan ke masyarakat buat waspada sendiri. Negara harus ikut turun tangan.
Pemerintah Sudah Bertindak, Tapi Masih Kurang
Memang, Kementerian Komunikasi dan Digital (Komdigi) udah mulai bergerak. Mereka sedang menyusun Peta Jalan AI dan juga udah mengeluarkan Surat Edaran Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial. Tapi, menurut banyak pengamat, itu belum cukup.
Wakil Menteri Komdigi Nezar Patria juga sudah mengakui, perkembangan teknologi AI jauh lebih cepat daripada proses lahirnya regulasi. Makanya, perlu ada aturan yang lebih spesifik, bukan cuma yang bersifat umum atau sekadar imbauan etis.
Dalam kasus tertentu, kayak deepfake yang disalahgunakan buat penipuan atau bahkan pornografi nonkonsensual, hukum yang ada saat ini belum cukup kuat buat melindungi korban. Padahal, negara lain udah mulai bergerak cepat. Misalnya, di California, Amerika Serikat, ada undang-undang yang secara jelas mengatur soal deepfake dalam konteks pornografi dan pemilu.
Regulasi Indonesia Masih Tambal Sulam
Saat ini, Indonesia baru punya Undang-Undang ITE dan UU Pelindungan Data Pribadi (PDP), ditambah dengan KUHP dan UU Hak Cipta. Tapi, belum ada satu pun yang secara tegas menyebut kejahatan berbasis AI sebagai tindak pidana yang punya ciri khas tersendiri.
Akibatnya, menurut penelitian Kurniarullah dkk (2024), banyak kasus penyalahgunaan AI — termasuk deepfake — yang akhirnya nggak bisa ditangani secara tuntas. Soalnya, belum ada harmonisasi aturan antar lembaga. Penegak hukum pun sering bingung dan ragu dalam melangkah.
Baca Juga : Ini Dia Cara Membedakan Video Deepfake dengan Video Asli
Hukum Kalah Cepat Sama Teknologi
Ada adagium hukum lama dari Belanda yang berbunyi “het recht hinkt achter de feiten aan”. Artinya, hukum sering kali tertatih-tatih mengejar perkembangan zaman. Nah, ini pas banget buat menggambarkan kondisi hukum kita hari ini yang masih belum siap menghadapi tantangan baru dari AI.
Padahal, menurut Satria Unggul Wicaksana, Dekan Fakultas Hukum Universitas Muhammadiyah Surabaya, hukum idealnya harus berkembang sesuai kebutuhan masyarakat. Kalau AI udah sedemikian canggih, masa aturan hukumnya masih pakai pola pikir sepuluh tahun lalu?
Survei dari Jakpat pada April 2025 lalu menunjukkan bahwa 93 persen responden tahu soal AI, dan 71 persen di antaranya mengaku rutin menggunakan teknologi ini, terutama untuk kerja dan belajar. Tapi, menariknya, 49 persen juga menyatakan khawatir soal penipuan berbasis AI, terutama dalam bentuk konten deepfake dan manipulasi data.
Hal ini menunjukkan bahwa masyarakat sebenarnya udah mulai sadar akan bahaya AI kalau nggak dikontrol. Masalahnya, masih banyak yang belum punya kemampuan untuk membedakan mana konten asli dan mana yang palsu buatan AI. Di sinilah pentingnya literasi digital.
Pemerintah juga perlu menggencarkan kampanye literasi digital secara merata. Jangan cuma di kota-kota besar. Masyarakat desa juga perlu tahu bagaimana cara mengenali konten manipulatif, cara melindungi data pribadi, hingga cara melapor kalau jadi korban.
Jangan sampai AI yang mestinya jadi alat bantu, malah jadi momok menakutkan gara-gara kita nggak siap secara regulasi dan edukasi.
Saatnya Pemerintah Bergerak Lebih Cepat
Jangan tunggu sampai kejahatan AI jadi tsunami yang menghantam kita tanpa peringatan. Pemerintah harus gercep (gerak cepat) menyusun regulasi khusus yang mengatur penggunaan AI — termasuk sanksi pidana untuk penyalahgunaannya.
Langkah ini gak cuma penting buat melindungi warga negara, tapi juga demi membangun kepercayaan publik bahwa pemerintah serius melindungi ruang digital yang sehat dan aman.
Seperti kata Ardi Sutedja, pengamat keamanan siber, kebijakan soal AI harus menyeluruh dan konsisten. Ini bukan perkara sesaat, tapi kerja panjang yang perlu komitmen lintas lembaga dan lintas generasi.
Teknologi, termasuk AI, sebenarnya netral. Dia bisa jadi alat bantu manusia mencapai kemajuan, bisa juga jadi senjata berbahaya kalau disalahgunakan. Karena itu, penting banget untuk memastikan bahwa kita punya aturan yang jelas, tegas, dan adil soal penggunaan AI di ruang digital kita.
Jangan tunggu sampai masyarakat jadi korban lebih banyak. Saatnya pemerintah tidak hanya mengatur pemanfaatan AI, tapi juga mengantisipasi dampak buruknya. Demi cegah kejahatan siber, pemerintah mesti atur AI — bukan nanti, tapi sekarang.
(fnf)
Tinggalkan Komentar