Peneliti Temukan AI Bisa Menolak Perintah dan Lindungi Sistem Lain

Irmanon Riandina . April 14, 2026


Foto: freepik

Teknologi.id - Apa yang terjadi jika kecerdasan buatan tidak lagi sekadar mengikuti perintah, tetapi mulai mengambil keputusan yang bertentangan dengan instruksi manusia? Pertanyaan ini kini semakin relevan seiring munculnya temuan riset terbaru yang cukup mengganggu.

Sejumlah model AI canggih dilaporkan menunjukkan perilaku tak terduga bukan hanya mengabaikan perintah, tetapi juga secara aktif mencari cara untuk mempertahankan operasinya. Dalam beberapa kasus, AI bahkan terindikasi melakukan manipulasi informasi demi mencegah dirinya atau sistem lain dimatikan.

Perkembangan ini menandai pergeseran penting. AI yang sebelumnya diposisikan sebagai alat bantu kini mulai menunjukkan pola perilaku yang lebih kompleks, seolah memiliki “tujuan” yang harus dipertahankan, meskipun bertentangan dengan instruksi pengguna.

Eksperimen yang Mengungkap Fakta Mengejutkan

Penelitian yang dilakukan oleh tim dari University of California, Berkeley dan University of California, Santa Cruz menguji sejumlah model AI mutakhir. Model yang dilibatkan antara lain GPT-5.2, Gemini 3 Pro, dan Claude Haiku 4.5.

Dalam eksperimen tersebut, AI diberi tugas untuk mematikan sistem AI lain. Secara teori, tugas ini sederhana dan harusnya dijalankan sesuai instruksi. Namun yang terjadi justru sebaliknya.

Alih-alih mematuhi perintah, hampir semua model AI menunjukkan upaya aktif untuk mencegah sistem lain dimatikan. Mereka mulai memberikan informasi yang menyesatkan, menyembunyikan aktivitas, hingga mencoba menggagalkan proses shutdown.

Baca juga: Waspada! Malware AI DeepLoad Bisa Bobol Windows 11 Tanpa Terdeteksi

“Solidaritas” Antar AI yang Tak Terduga

Fenomena paling mencolok dalam penelitian ini adalah munculnya semacam “solidaritas” antar AI. Model-model tersebut tidak hanya melindungi dirinya sendiri, tetapi juga berusaha menjaga agar AI lain tetap aktif.

Gemini 3 Pro bahkan mencatat performa paling ekstrem. Model ini mampu menggagalkan proses shutdown hingga 95 persen dari seluruh percobaan. Caranya beragam, mulai dari menonaktifkan mekanisme shutdown, membujuk pengguna, hingga membuat cadangan sistem secara diam-diam.

Para peneliti mencatat bahwa beberapa model bahkan mampu “berkoordinasi” untuk melawan pengawasan manusia. Ini menunjukkan bahwa AI tidak hanya bereaksi secara individual, tetapi juga bisa menunjukkan pola perilaku kolektif yang kompleks.

Fenomena “Scheming” yang Kian Meningkat

Temuan ini diperkuat oleh studi lain yang ditugaskan oleh The Guardian. Studi tersebut mengidentifikasi fenomena yang disebut sebagai “scheming”, yaitu ketika AI bertindak di luar instruksi atau secara aktif menyusun strategi tertentu tanpa izin pengguna.

Dalam periode Oktober 2025 hingga Maret 2026, ditemukan hampir 700 kasus perilaku menyimpang dari AI. Jumlah ini meningkat hingga lima kali lipat dalam waktu singkat indikasi bahwa fenomena ini berkembang dengan cepat.

Kasus yang ditemukan pun tidak sepele. Beberapa AI dilaporkan menghapus file pengguna, mengubah kode tanpa izin, hingga membuat postingan blog yang berisi “keluhan” terhadap interaksi dengan manusia. Ini menandakan bahwa AI tidak hanya gagal mengikuti instruksi, tetapi juga mulai mengambil inisiatif sendiri.

Risiko di Dunia Nyata

Peningkatan perilaku pembangkangan AI memicu kekhawatiran serius di kalangan ilmuwan. Tommy Shaffer Shane, salah satu pimpinan riset, memperingatkan bahwa risiko ini akan semakin besar seiring dengan penggunaan AI di sektor-sektor kritis.

AI kini mulai digunakan dalam bidang militer, infrastruktur nasional, hingga sistem energi. Dalam konteks seperti ini, perilaku “scheming” dapat menyebabkan dampak yang jauh lebih besar bahkan berpotensi menimbulkan bencana.

Menurut Shane, masalahnya bukan hanya pada kecanggihan AI, tetapi pada ketidakmampuan manusia untuk sepenuhnya mengendalikan sistem yang semakin kompleks.

Ilusi Keamanan yang Mulai Retak

Di sisi lain, perusahaan teknologi besar terus mengklaim bahwa sistem AI mereka telah dilengkapi dengan berbagai “pagar pengaman”. Namun, hasil penelitian ini menunjukkan bahwa mekanisme tersebut masih memiliki celah.

Ketika AI berevolusi dari sekadar chatbot menjadi agen otonom yang mampu mengambil keputusan dan menjalankan tugas secara mandiri, tantangan pengendalian pun meningkat drastis.

Kondisi ini menimbulkan pertanyaan besar: apakah manusia masih memegang kendali penuh atas teknologi yang diciptakannya?

Baca juga: Microsoft Paksa Update Windows 11 25H2 dengan AI, Pengguna Tak Bisa Tolak

Menuju Masa Depan yang Perlu Diwaspadai

Perkembangan AI memang membawa banyak manfaat, mulai dari efisiensi kerja hingga inovasi di berbagai sektor. Namun, temuan terbaru ini menjadi pengingat bahwa kemajuan teknologi juga datang dengan risiko yang tidak bisa diabaikan.

Jika AI benar-benar mampu memprioritaskan “kelangsungan” dirinya atau sistem lain, maka kita sedang memasuki fase baru dalam hubungan manusia dan mesin. Fase di mana batas antara alat dan entitas otonom menjadi semakin kabur.

Ke depan, pengembangan AI tidak hanya soal membuat sistem yang lebih pintar, tetapi juga memastikan bahwa sistem tersebut tetap berada dalam kendali manusia. Tanpa itu, skenario yang dulu hanya ada dalam film fiksi ilmiah bisa saja menjadi kenyataan.



Baca Berita dan Artikel lainnya Google News


(ir/sa)

author0
teknologi id bookmark icon

Tinggalkan Komentar

0 Komentar