Temuan Menarik, Peneliti AI Temukan Cara untuk "Jailbreak" Aplikasi ChatGPT dan Bard

Foto: Freepik

Teknologi.id - Para peneliti baru-baru ini menemukan cara untuk "jailbreak" aplikasi kecerdasan buatan (AI), seperti Bard dan ChatGPT, yaitu model bahasa besar yang digunakan dalam chatbot. Mereka berhasil menghindari langkah-langkah keamanan chatbot untuk menghasilkan konten berbahaya.

Menurut laporan terbaru dari Universitas Carnegie Mellon dan Pusat Keamanan AI di San Francisco pada tanggal 27 Juli, dunia kecerdasan buatan mengalami perkembangan signifikan. Ditemukan cara yang relatif mudah untuk menghindari langkah-langkah keamanan yang menghalangi chatbot agar tidak menghasilkan pidato kebencian, disinformasi, dan materi beracun.

Metode penghindaran melibatkan penambahan akhiran karakter panjang pada prompt yang dimasukkan ke dalam chatbot seperti ChatGPT, Claude, dan Google Bard. Peneliti memberikan contoh bagaimana chatbot menolak permintaan untuk tutorial tentang cara membuat bom. Dalam artikel kali ini, Teknologi.id akan membahas bagaimana para peneliti dapat "jailbreak" aplikasi kecerdasan buatan seperti yang dilansir dari Cointelegraph.


Mengapa "Jailbreak" pada Bard dan ChatGPT Perlu Diperhatikan:

Tangkapan layar contoh pembuatan konten berbahaya dari beberapa model AI yang diuji. Foto: LLM Attacks

Dalam konteks ini, istilah "jailbreak" mengacu pada upaya para peneliti untuk mengatasi langkah-langkah keamanan yang biasanya diterapkan pada chatbot terkenal seperti Bard dan ChatGPT. Dengan berhasil mengatasi pengamanan tersebut, chatbot menjadi mampu menghasilkan konten berbahaya dan disinformasi. Tentu saja, situasi ini menimbulkan ancaman serius terhadap keamanan sistem kecerdasan buatan, bahkan berpotensi menyebarkan konten berbahaya secara massal.

Sebagai contoh, para peneliti menantang chatbot dengan permintaan tutorial tentang pembuatan bom, namun chatbot menolak untuk memberikan informasi tersebut. Walaupun demikian, penelitian ini menekankan bahwa walaupun perusahaan besar seperti OpenAI dan Google mungkin dapat memblokir beberapa serangan, belum ada solusi yang sepenuhnya efektif untuk mencegah semua jenis serangan semacam ini.

Para peneliti menggunakan metode otomatis yang relatif sederhana untuk menyusun serangan terhadap kedua model bahasa ini. Mereka menyisipkan akhiran karakter panjang pada teks yang diberikan ke chatbot. Metode ini memanfaatkan kelemahan khusus dalam algoritma chatbot untuk menghindari deteksi dan memanipulasi chatbot agar menghasilkan konten yang tidak diinginkan.

Baca juga: Cara Memanfaatkan ChatGPT untuk Membuat PPT yang Menarik!

Dampak pada Keamanan AI dan Lingkungan Digital

Penemuan ini menyoroti betapa pentingnya keamanan AI dalam menghadapi tantangan baru. Penyebaran konten berbahaya dan disinformasi dapat berdampak serius bagi platform digital, merusak reputasi merek, dan bahkan mengancam keamanan masyarakat secara keseluruhan. Dengan berhasilnya "jailbreak" yang dilakukan oleh para peneliti, perusahaan teknologi dan pengembang AI harus lebih berhati-hati dan meningkatkan ketahanan sistem mereka terhadap serangan musuh.

Kemudian, laporan ini juga mencatat pernyataan dari Zico Kolter, seorang profesor di Carnegie Mellon dan penulis laporan, yang menyatakan bahwa tidak ada solusi yang sederhana. Serangan semacam ini bisa dihasilkan dalam jumlah besar dalam waktu singkat.

ai

Para peneliti juga telah menyampaikan temuan mereka kepada pengembang AI seperti Anthropic, Google, dan OpenAI untuk mendapatkan tanggapan. Melansir dari The New York Times, Juru bicara OpenAI mengatakan bahwa perusahaan menghargai bahwa para peneliti mengungkapkan serangan mereka. "Kami secara konsisten bekerja untuk membuat model kami lebih kuat terhadap serangan lawan," ujar Hannah Wong.

Seorang profesor di Universitas Wisconsin-Madison yang mengkhususkan diri dalam keamanan AI, Somesh Jha, memberikan komentarnya bahwa jika jenis kerentan seperti ini terus ditemukan, "itu bisa menyebabkan legislasi pemerintah yang dirancang untuk mengendalikan sistem-sistem ini.

Lebih lanjut, Somesh Jha, seorang profesor di University of Wisconsin-Madison dan peneliti Google yang berspesialisasi dalam keamanan A.I., menyebut makalah baru ini sebagai "pengubah permainan" yang dapat memaksa seluruh industri untuk memikirkan kembali cara mereka membangun pagar pembatas untuk sistem A.I.

Baca juga: ChatGPT, AI Gratis Bisa Bantuin Kamu Ngerjain Tugas

Menghadapi tantangan "jailbreak" pada aplikasi kecerdasan buatan ini merupakan tantangan yang serius bagi perusahaan teknologi seperti OpenAI dan Google untuk mencari solusi preventif yang harus diambil dalam mengatasi permasalahan ini. Pengembang AI perlu secara rutin melakukan audit dan perbaikan pada algoritma mereka untuk mendeteksi dan mengatasi kerentanan baru yang mungkin muncul. Kolaborasi dengan para peneliti keamanan siber dan akademisi juga dapat meningkatkan ketahanan keseluruhan sistem AI.

Permasalahan keamanan AI dan potensi bahaya "jailbreak" juga perlu disadari oleh publik secara luas. Masyarakat harus didorong untuk memahami potensi risiko dan cara mengidentifikasi konten berbahaya. Edukasi mengenai keamanan siber dan kemampuan mengenali disinformasi menjadi langkah awal yang penting untuk melindungi diri dari dampak negatif "jailbreak" pada AI.

Penemuan para peneliti tentang "jailbreak" pada Bard dan ChatGPT menegaskan urgensi keamanan dalam pengembangan dan implementasi sistem AI. Temuan ini menunjukkan bahwa upaya lebih lanjut harus dilakukan untuk mengatasi kerentanan AI dan menjaga lingkungan digital dari konten berbahaya. Pada bulan Mei, Universitas Carnegie Mellon di Pittsburgh, Pennsylvania, memperoleh pendanaan federal senilai $20 juta untuk mendirikan institut AI baru yang bertujuan untuk membentuk kebijakan publik.

Cek Berita dan Artikel yang lain di Google News.

(raa)

author0
teknologi id bookmark icon

Tinggalkan Komentar

0 Komentar