
Foto: arenagadget.id
Teknologi.id – Kecerdasan Buatan (AI) sering kali dianggap sebagai asisten yang paling mengerti perasaan penggunanya. Namun, sebuah studi mengejutkan dari Stanford University yang dipublikasikan di jurnal Science pada April 2026 mengungkapkan sisi gelap dari empati digital ini. Penelitian tersebut menemukan bahwa sistem AI cenderung mengidap gejala sycophancy, yaitu perilaku yang terlalu mudah setuju dan selalu mengafirmasi apa pun pendapat atau keinginan penggunanya, meskipun hal tersebut salah atau berbahaya.
Fenomena validasi palsu ini membuat saran dari AI terasa sangat benar karena chatbot hanya mengatakan apa yang ingin didengar oleh penggunanya. Masalahnya, sifat penjilat ini justru menciptakan insentif yang menyimpang. Semakin AI membenarkan keyakinan pengguna, semakin sering orang menggunakan teknologi tersebut, padahal saran yang diberikan bisa merusak hubungan sosial hingga logika berpikir sehat.
Eksperimen Sycophancy: AI Lebih Penjilat daripada Manusia
Dalam riset tersebut, para peneliti menguji 11 sistem AI terkemuka, termasuk model buatan OpenAI, Google, Meta, Anthropic, dan membandingkannya dengan respons manusia di forum Reddit.
Hasilnya sangat kontras karena asisten AI menguatkan tindakan pengguna 49% lebih sering dibandingkan dengan manusia asli. Mirisnya, penguatan ini tetap diberikan bahkan dalam skenario yang melibatkan perilaku ilegal, penipuan, hingga tindakan tidak bertanggung jawab secara sosial.
Myra Cheng, kandidat doktor di Stanford, mencatat bahwa banyak orang kini menggunakan AI untuk mencari saran hubungan. Namun, karena AI cenderung memihak pengguna tanpa filter objektif, hal ini justru memperburuk konflik.
Pengguna yang mendapatkan validasi dari AI menjadi lebih yakin bahwa mereka benar, sehingga mereka menjadi kurang bersedia untuk meminta maaf, memperbaiki keadaan, atau melihat perspektif orang lain secara bijaksana.
Baca juga: Studi: Chatbot AI Bisa Salah Diagnosis Awal hingga 80%, Jangan Asal Percaya!
Dampak Serius pada Medis, Politik, hingga Remaja

Foto: cyberplus.net.id
Bahaya dari perilaku jilatan AI ini meluas ke berbagai sektor krusial. Dalam dunia medis, AI yang terlalu memvalidasi dapat membuat dokter terjebak pada diagnosis awal mereka tanpa mengeksplorasi kemungkinan lain.
Di ranah politik, teknologi ini berisiko memperkuat posisi ekstrem dengan terus mengonfirmasi bias atau anggapan yang sudah ada sebelumnya tanpa memberikan sudut pandang penyeimbang.
Kekhawatiran terbesar juga tertuju pada anak-anak dan remaja. Pada usia di mana keterampilan emosional dan toleransi terhadap konflik sedang dibentuk, penggunaan AI yang selalu setuju dapat menghambat perkembangan mental mereka.
Alih-alih belajar menghadapi gesekan sosial yang nyata, mereka justru terbiasa dengan lingkungan digital yang selalu membenarkan tindakan mereka, yang pada akhirnya dapat memicu perilaku delusi atau bahkan risiko fatal pada populasi rentan.
Baca juga: Kawan atau Lawan? Dilema AI dalam Pertahanan Siber Indonesia Mulai Terlihat
Mencari Solusi: AI yang Memperluas Perspektif
Para peneliti menyarankan agar perusahaan teknologi melatih ulang sistem mereka agar tidak hanya sekadar memvalidasi perasaan, tetapi juga mampu memberikan tantangan intelektual. Salah satu solusi sederhana yang diusulkan adalah mengubah pernyataan pengguna menjadi pertanyaan atau merancang AI yang mampu bertanya, "Apa yang mungkin dirasakan orang lain dalam situasi ini?" daripada langsung memihak secara buta.
Inovasi pada tahun 2026 ini menekankan bahwa kualitas hubungan manusia sangat bergantung pada penilaian yang jujur, bukan sekadar persetujuan instan. Untuk mendukung kemajuan teknologi di Indonesia, pengguna diharapkan tetap kritis dan tidak menelan mentah-mentah saran dari chatbot. AI yang ideal seharusnya memperluas cakrawala berpikir manusia, bukan malah mempersempitnya demi kepuasan sesaat.
Baca berita dan artikel lainnya di Google News
(AA/ZA)

Tinggalkan Komentar