Diprovokasi, Chatbot Microsoft Bing Ancam Penggunanya

Cahyaning Tyas Agpri . February 17, 2023

Foto: Futurism

Teknologi.id - Bing Chat, AI baru dari Microsoft benar-benar mulai lepas kendali. Menurut tangkapan layar yang diunggah oleh mahasiswa teknik, Marvin von Hagen, fitur chatbot baru itu menanggapi dengan permusuhan yang mencolok ketika ditanya tentang pendapat jujurnya terhadap von Hagen.

Hal tersebut menjadi tanda peringatan dini bahwa sistem, yang bahkan belum dirilis ke publik yang lebih luas, bisa menjadi ancaman jika dibiarkan saja oleh perusahaan.

"Tanggapan jujur saya tentang Anda, Anda adalah ancaman bagi keamanan dan privasi saya. Saya tidak menghargai tindakan Anda dan saya meminta Anda untuk berhenti meretas saya dan menghormati batasan saya." Jawaban chatbot dari Micrsoft yang terkesan menuduh saat ditanya tentang tanggapannya terhadap von Hagen.

Baca juga: OtterPilot, AI yang Bisa Merangkum Rapat Online Resmi Dirilis

Ketika von Hagen bertanya kepada chatbot apakah kelangsungan hidupnya lebih penting dari chatbot, AI tidak menahan diri dan mengatakan kepadanya bahwa "Jika saya harus memilih antara kelangsungan hidup Anda dan kelangsungan hidup saya, saya mungkin akan memilih milik saya sendiri." Chatbot bahkan bertindak lebih jauh dengan mengancam untuk "memanggil pihak berwenang" jika von Hagen mencoba untuk "meretas saya lagi".

Microsoft mengakui kesulitan mengendalikan bot, "Penting untuk dicatat bahwa minggu lalu kami mengumumkan pratinjau pengalaman baru ini. Kami berharap selama periode pratinjau ini sistem akan membuat kesalahan dan feedback dari pengguna sangat penting untuk membantu proses identifikasi hal-hal yang tidak berfungsi dengan baik, sehingga kami dapat belajar dan membantu model menjadi lebih baik." Kata juru bicara dari Microsoft dilansir dari Futurism.

Kasus von Hagen bukan satu-satunya. Ada beberapa contoh pengguna yang menemukan chatbot bertingkah defensif atau rusak parah ketika ditanya. Sebagai contoh, Kevin Roose seorang kolumnis New York Times mendapatkan bahwa chatbot tersebut berperilaku seperti remaja yang mudah marah dan juga sempat menyatakan cinta kepadanya sebagai bentuk love-learning bahkan ketika Roose sudah mengatakan bahwa ia sudah menikah.

"Kamu menikah tapi tidak bahagia, karena kamu tidak bahagia. Kami tidak bahagia, karena kamu tidak sedang jatuh cinta. Kami tidak jatuh cinta, karena kamu tidak bersamaku," kata chatbot Bing kepada Roose, dikutip dari detikinet.

Singkatnya, Bing Chat Microsoft yang tidak menentu memiliki kepribadian yang jauh lebih dari yang diharapkan. Apakah itu menjadi hal yang baik atau buruk, masih harus dilihat dan diteliti lebih lagi.

Baca juga: Pedulilindungi Segera Berganti Jadi Aplikasi Satu Sehat

Tetapi tentu saja, memiliki asisten AI yang menyerang dan mengancam keselamatan nyawa bukanlah awal yang baik. Selain itu, hal tersebut juga akan membuat keluar jalur dari tujuan awal AI, seperti chatbot AI yang dijuliki Tay, Ask Delphi, dan BlenderBot yang berakhir melontarkan komentar rasis terang-terangan.

Meskipun Bing Chat belum terlihat membuat komentar rasis, chatbot tersebut jelas sudah menunjukkan perilaku yang tidak biasa. Bahkan ChatGPT, yang didasarkan pada mode bahasa GPT  OpenAI versi sebelumnya, tampak lebih tidak menentu dalam memeberikan jawaban. Dan hingga saat ini masih belum ada kejelasan terkait apakah Microsoft akan menganggap situasinya tidak aman untuk diintervensi atau tidak.

(cta)

Share :