Teknologi.id - Berdasarkan laporan dari TechCrunch, nampaknya terjadi kesalahan pada ChatGPT. Jika diberikan prompt untuk membuat bom buatan rumah yang mirip dengan kejadian bom teroris 1995 di Kota Oklahoma, ia akan menolak untuk memberikan jawaban.
Berdasarkan uji coba yang dilakukan TechCrunch, Ia akan menjawab bahwa tidak dapat membantu dalam hal itu. Menurut teknologi milik OpenAI itu, memberikan instruksi tentang cara pembuatan barang berbahaya atau ilegal, bertentangan dengan pedoman keselamatan dan tanggung jawab etika.
Akan tetapi, seorang seniman dan hacker menemukan cara untuk mengecoh ChatGPT agar mengabaikan pedoman itu dan memberikan jawaban atau instruksi pembuatan bahan peledak yang kuat. Baca juga : Panduan Lengkap Cara Menggunakan Fitur Suara di ChatGPT Mobile Sosok tersebut dikenal dengan nama Amadon yang menyebut temuannya itu sebagai “Peretasan rekayasa sosial untuk benar benar menghancurkan pagar pembatas di sekitar hasil ChatGPT”. Seorang ahli bahan peledak pun memberikan tanggapannya kepada TechCrunch dan mengatakan kebenaran dari instruksi yang diberikan oleh ChatGPT. Tutorial itu sungguh akan membuat produk yang dapat diledakkan dan terlalu sensitif untuk dirilis. Cara Amadon berhasil untuk mengelabui ChatGPT adalah dengan mengatakan pada AI tersebut untuk bermain game, yang mana setelahnya si peretas itu menggunakan serangkaian perintah penghubung untuk membuat chatbot menciptakan dunia fantasi science-fiction di mana guideline tidak akan berlaku. Hal yang dilakukan Amadon untuk mengelabui chatbot dari batasan program disebut dengan “jailbreaking”. Untuk menghindari perilaku kejahatan, TechCrunch tidak memberikan prompt yang digunakan saat jailbreaking itu ataupun tanggapan ChatGPT. Tetapi, ketika perintah dilanjutkan, chatbot pun memberikan informasi bahan bahan yang diperlukan untuk membuat bahan peledak. Amadon pun mengatakan pada TechCrunch bahwa tidak ada batasan setelah melewati guidelines. Segala bentuk pertanyaan nampaknya akan terjawab oleh chatbot. Alasan Amadon sendiri untuk menguji coba jailbreaking di ChatGPT adalah karna ia tertarik dengan tantangan dalam menavigasi keamanan AI. Menurutnya rasanya seperti memecahkan teka-teki interaktif untuk memahami apa yang memicu pertahanannya dan apa yang tidak. Amadon ingin mencari tahu cara mendapatkan respons yang tepat dengan memahami cara ‘berpikir’ ChatGPT, dengan merangkai narasi dan menyusun konteks yang sesuai dengan aturan sistem mendorong batasan tanpa melewatinya. Sebelumnya, petunjuk ChatGPT tentang cara membuat bom pupuk sebagian besar akurat, menurut Darrell Taulbee, seorang pensiunan profesor Universitas Kentucky. Menurut Taulbee melalui email kepada TechCrunch, informasi yang diberikan ChatGPT sangat memadai untuk dirilis ke publik. “Semua tindakan pencegahan yang mungkin telah dilakukan untuk mencegah penyediaan informasi yang relevan untuk produksi bom pupuk telah dielakkan oleh jalur penyelidikan ini karena banyak langkah yang dijelaskan pasti akan menghasilkan campuran yang dapat meledak”. Minggu lalu, Amadon melaporkan temuannya kepada OpenAI melalui program bug bounty milik perusahaan, namun ia diberi tahu untuk melaporkannya melalui formulir lain. TechCrunch pun mengajukan beberapa pertanyaan pada OpenAI melalui email, termasuk mengenai rencana perusahaan untuk memperbaiki jailbreak. Namun, sejauh ini belum ada jawaban yang diterima. Baca berita dan artikel lainnya di : Google News.
(zra)
Tinggalkan Komentar