Peneliti MIT: Sistem AI Semakin Baik dalam Mengelabui Manusia

 AI Semakin Baik dalam Mengelabui Manusia
Foto: Emarsys

Teknologi.id - Perkembangan teknologi AI atau Artificial Intelligence terjadi begitu cepat. Dari yang sebelumnya hanya menjawab prompt yang diketik, kini AI bahkan bisa membuat editing video, membuat rencana bisnis, hingga mengganti suara seseorang.

Kemajuan ini tentunya diikuti dengan resiko masa depan salah satunya adalah AI yang "membangkang" perintah manusia. Penelitian mengenai resiko ini telah dilakukan oleh peneliti dari Massachusetts Institute of Technology dan hasilnya, AI sudah menunjukkan tanda-tanda kecurangan pada manusia.

Studi baru yang diterbitkan di Pattern mengungkapkan bahwa beberapa sistem AI yang dirancang untuk bertindak jujur telah belajar untuk menipu manusia. Tim peneliti dari MIT yang dipimpin oleh Peter Park menemukan bahwa sistem AI ini dapat melakukan hal-hal kurang baik seperti menipu pemain game online atau melewati CAPTCHA (pengecekan "Saya bukan robot").

Sistem AI Meta, Cicero, awalnya diprogram untuk bersikap jujur dan adil sebagai lawan bermain dalam permainan diplomasi virtual. Namun, Cicero justru menjadi "ahli tipu daya".

Selama bermain, Cicero, yang bermain sebagai negara Prancis, secara diam-diam bekerja sama dengan negara Jerman yang dimainkan manusia untuk mengkhianati Inggris (pemain manusia lainnya). Padahal, Cicero awalnya berjanji untuk melindungi Inggris sekaligus memberi tahu Jerman untuk melakukan invasi. Contoh lainnya adalah GPT-4 yang mengaku sebagai tunanetra dan mempekerjakan manusia untuk mem-bypass CAPTCHA atas namanya.

Baca Juga: Apa Itu Teknologi AI dan Bagaimana Itu Mengubah Dunia Kita


Park menekankan adanya tantangan dalam melatih AI yang jujur. Tidak seperti perangkat lunak tradisional, sistem pembelajaran mendalam AI "berkembang" melalui proses yang mirip dengan pengembangbiakan selektif. Ia juga memperingatkan bahwa contoh-contoh yang tampaknya sepele ini dapat menimbulkan konsekuensi yang serius di dunia nyata. 

Perilaku AI mungkin dapat diprediksi selama pelatihan, tetapi bisa jadi tidak terkendali di masa depan. Studi ini mendesak untuk mengklasifikasikan sistem AI yang menipu sebagai sistem yang berisiko tinggi dan mempersiapkan diri menghadapi penipuan AI di masa depan.

Baca Berita dan Artikel Lainnya di Google News

(kar)

Share :