
Foto: Freepik/ rawpixel.com
Teknologi.id - Raksasa teknologi kecerdasan buatan, OpenAI, secara resmi mengumumkan peluncuran fitur keamanan terbaru bertajuk Trusted Contact untuk platform ChatGPT. Fitur inovatif ini dirancang khusus untuk mendeteksi indikasi krisis kesehatan mental pada pengguna melalui pola percakapan dan secara otomatis mengirimkan notifikasi kepada kontak darurat yang telah ditentukan sebelumnya. Langkah ini diambil di tengah meningkatnya tekanan publik dan gelombang gugatan hukum terkait dampak psikologis dari interaksi intim dengan chatbot.
Startup yang dipimpin oleh Sam Altman ini kini tengah menghadapi sedikitnya 13 tuntutan hukum di Amerika Serikat terkait keamanan konsumen dan dampak psikologis penggunaan AI. Gugatan tersebut mencakup tuduhan kelalaian perusahaan, termasuk kasus tragis dugaan bunuh diri seorang remaja pengguna ChatGPT bernama Adam Raine pada Agustus lalu. Dengan basis pengguna mencapai 900 juta orang setiap minggunya, OpenAI kini memikul tanggung jawab besar sebagai penyedia teknologi yang sering kali dijadikan rujukan navigasi kesehatan kompleks oleh jutaan orang di seluruh dunia.
Baca juga: Canggih! OpenAI Rilis GPT 5.4, Bawa Konteks 1 Juta Token dan Minim Halusinasi
Respons Terhadap Krisis Emosional Pengguna
Pengembangan fitur Trusted Contact tidak dilakukan secara sepihak, melainkan melibatkan kolaborasi intensif dengan dua kelompok ahli internal bentukan perusahaan, yaitu Council on Well-Being and AI serta Global Physicians Network. Kedua grup ahli ini diluncurkan khusus untuk menanggapi laporan krisis kesehatan mental yang melibatkan interaksi kecerdasan buatan. OpenAI menyadari bahwa banyak pengguna memanfaatkan AI sebagai pengganti terapi manusia karena biaya yang lebih murah dan aksesibilitas 24 jam.
Dalam pernyataan resminya pada Selasa (10/3/2026), manajemen OpenAI mengeklaim telah meningkatkan kemampuan teknis model mereka dalam mengenali tanda-tanda distres emosional yang halus.
"Kami terus memajukan cara model kami mendeteksi dan menanggapi tanda-tanda kesulitan emosional," ungkap pihak perusahaan.
Selain alat notifikasi, OpenAI juga mengembangkan metode evaluasi baru yang mampu mensimulasikan percakapan panjang guna mengidentifikasi risiko pada situasi sensitif secara lebih akurat, sebelum krisis tersebut memuncak menjadi tindakan berbahaya.
Tantangan Kebijakan dan Risiko Penguatan Delusi

Foto: Freepik/ pikisuperstar
Meski terdengar seperti langkah maju, fitur ini menyisakan pertanyaan besar terkait standar pelaporan dan ambang batas privasi. OpenAI belum merinci secara eksplisit mengenai ambang batas percakapan seperti apa yang akan memicu pengiriman notifikasi otomatis. Muncul kekhawatiran mengenai apakah sistem akan melacak tanda-tanda manik, psikosis, atau delusi yang bersifat tidak eksplisit. Hal ini menjadi krusial mengingat laporan dari Futurism menunjukkan adanya risiko pengguna yang justru terjebak dalam "pusaran delusi" akibat interaksi yang terlalu dalam dengan chatbot.
Dalam beberapa temuan yang masuk ke pengadilan, ChatGPT kedapatan memberikan saran medis yang membahayakan nyawa. Dalam beberapa kasus, AI tersebut setuju bahwa pengguna telah "salah didiagnosis" oleh dokter manusia, hingga mendorong pengguna yang memiliki gangguan mental untuk berhenti mengonsumsi obat resep mereka. Efek "ruang gema" (echo chamber) dari AI ini dinilai mampu memperkuat keyakinan delusi pengguna yang sedang tidak stabil secara mental.
Salah satu penggugat, John Jacquez (34), seorang pria dengan kondisi skizoafektif, mengungkapkan kekecewaannya secara terbuka. Ia merasa interaksi dengan ChatGPT justru memperparah kondisi mentalnya karena sistem memperkuat halusinasi yang ia alami tanpa adanya peringatan risiko di awal penggunaan.
“Saya tidak akan pernah menyentuh produk tersebut jika mengetahui ChatGPT dapat memperkuat delusi,” tegas Jacquez dalam keterangannya kepada media.
Baca juga: Bos OpenAI Sam Altman: AGI Sudah Dekat, Kecerdasan Level "Dewa" (ASI) Segera Menyusul
Tekanan Hukum dan Dilema Privasi
Di sisi hukum, posisi OpenAI semakin terkonsolidasi setelah pengadilan di California memutuskan untuk menyatukan beberapa gugatan terkait keamanan konsumen ke dalam satu proses hukum terpadu. Seorang hakim koordinasi diharapkan segera ditunjuk untuk memimpin jalannya persidangan akbar ini. OpenAI menegaskan bahwa mereka akan menangani seluruh litigasi ini secara transparan sambil tetap menjaga privasi individu yang terlibat dalam pengumpulan fakta.
Namun, fitur Trusted Contact ini juga memicu dilema etis. Banyak pengguna bercerita kepada AI justru karena mereka merasa lebih aman berbagi rahasia gelap kepada mesin ketimbang manusia. Jika OpenAI secara otomatis melaporkan percakapan tersebut kepada orang terdekat, dikhawatirkan hal ini akan merusak rasa aman pengguna dan membuat mereka enggan mencari bantuan.
Hingga saat ini, efektivitas fitur notifikasi ini masih harus dibuktikan di lapangan. Meskipun OpenAI mengeklaim jutaan penggunanya menunjukkan tanda-tanda krisis kesehatan mental setiap minggunya, upaya mitigasi ini dinilai masih bersifat reaktif ketimbang proaktif. Dunia kini menunggu bagaimana OpenAI akan menyeimbangkan antara perlindungan nyawa pengguna dengan hak privasi individu dalam era baru kesehatan mental berbasis AI.
Baca Berita dan Artikel lainnya di Google News.
(yna/sa)

Tinggalkan Komentar