Foto: Steemit
Teknologi.id - Perkembangan Artificial Intelligence atau AI yang semakin masif membawa dua sisi yang saling bertolak belakang. Di satu sisi, teknologi ini dapat memudahkan pekerjaan manusia, namun disisi lain dapat menjadi senjata bagi para penjahat siber dalam mengakses informasi pribadi seperti akun bank, serta menyebarkan disinformasi. Salah satu yang cukup ramai saat ini adalah mengenai kejahatan menggunakan kloning suara AI.
Bayangkan ketika kita menerima panggilan dari seseorang yang suaranya sangat kita kenal, seperti sahabat atau anggota keluarga, dan mereka meminta bantuan finansial dengan alasan mendesak. Namun, dibalik panggilan tersebut, suara yang Anda dengar sebenarnya adalah hasil rekayasa teknologi AI. Begitulah modus kejahatan yang sedang ramai terjadi saat ini.
Berkaitan dengan kejahatan tersebut, OpenAI, yang dikenal melalui teknologi ChatGPT, pernah mengembangkan alat yang disebut Voice Engine untuk mereplikasi suara. Namun pada akhirnya pihak OpenAI memutuskan untuk tidak merilis teknologi tersebut ke publik dikarenakan kekhawatiran akan penyalahgunaan yang dapat terjadi.
Hal tersebut menunjukkan bahwa penjahat siber kini semakin licik ketika memperdaya korban mereka. Dalam melakukan hal tersebut, teknologi kecerdasan buatan (AI) menjadi salah satu alat yang mereka manfaatkan. Menurut laporan CNN Business pada Kamis (19/9/2024), hal ini dibenarkan oleh Starling Bank, sebuah perusahaan pinjaman online asal Inggris yang turut memperingatkan masyarakat tentang risiko penipuan yang memanfaatkan AI untuk meniru suara seseorang. Mereka menyampaikan peringatan yang menyatakan bahwa hanya dengan rekaman suara selama tiga detik, misalnya dari video yang diunggah di media sosial maka penipu sudah bisa membuat kloning suara yang sangat mirip dengan suara asli.
Hal tersebut dibenarkan Lisa Grahame selaku Kepala Petugas Keamanan Informasi di Starling Bank. Ia menyatakan bahwa orang-orang secara tanpa sadar sering mengunggah konten berupa suara di internet. Akibatnya hal ini membuat mereka lebih rentan terhadap modus penipuan ini.
Berdasarkan survei yang dilakukan oleh bank tersebut, sekitar 750 orang telah menjadi korban dalam satu tahun terakhir. Hasil survei tersebut juga mengungkap bahwa 46 persen dari 3.000 responden tidak mengetahui adanya metode penipuan ini. Hal yang lebih mengejutkan adalah 8 persen dari mereka mengaku akan mengirimkan uang jika mendengar suara dari seseorang yang mereka kenal seperti teman atau anggota keluarga.
Dalam melakukan kejahatannya, dari sampel suara yang diambil di platform online, para pelaku selanjutnya meniru suara tersebut dan menghubungi kerabat atau teman korban dengan tujuan meminta uang. Mereka memanfaatkan kepercayaan yang dibangun dari suara tiruan ini untuk menipu korban..Dan dalam banyak kasus kejahatan ini terjadi cukup lancar disebabkan para korban tidak menyadari bahwa mereka sedang ditipu. Hal ini bukan hanya disebabkan oleh kepercayaan korban kepada pelaku, melainkan juga dikarenakan kemiripan kloningan suara yang dihasilkan oleh teknologi yang semakin canggih. tentunya hal ini perlu menjadi catatan untuk melakukan kontrol guna mengantisipasi dampak buruk perkembangan teknologi sebagaimana dalam kasus ini.
Foto: Sindonews
Baca juga : Waspada Phising! Malware Ini Ancam Mobile Banking hingga Privasi HP Kalian
Lantas, bagaimana cara melindungi diri dari jebakan penipu yang menggunakan teknologi kloning suara?
Baca berita dan artikel lain di Google News
(mha)
Tinggalkan Komentar