
Foto: CIO Insight
Teknologi.id - Meningkatnya Artificial Intelligence (AI) yang begitu cepat memunculkan perdebatan global: bagaimana cara menjaga pengguna di bawah umur agar tetap aman dari teknologi yang mengetahui segalanya? Pada tahun 2025, dua nama besar di industri AI, OpenAI (pembuat ChatGPT) dan Anthropic (pembuat Claude), melangkah maju. Kedua perusahaan ini meluncurkan kebijakan kemanan baru yang dirancang untuk mengidentifikasi pengguna di bawah umur dan menjaga kesehatan mental mereka.
Keamanan Daripada Kebebasan: Spec Baru OpenAI
OpenAI memperkenalkan update terbaru dari "Model Spec"-nya. Pada dasarnya itu merupakan aturan yang memberitahu bagaimana ChatGPT seharusnya berperilaku. Perubahan paling signifikannya adalah golden rule: ChatGPT harus membatasi konten dewasa, bahkan jika bertentangan dengan tujuan lainnya.
Sebelumnya, model-model AI diprogram untuk "kebebasan intelektual secara maksimal". Artinya AI dapat menjawab apapun agar dapat membantu secara maksimal. Sekarang, bagi pengguna yang berusia di bawah 18 tahun, keamanan didahulukan. Jika seorang remaja menuntun percakapan ke zona yang "beresiko tinggi", ChatGPT diperintahkan untuk mengarahkannya kembali ke pilihan yang lebih aman.
Dibandingkan hanya menjadi sumber informasi, ChatGPT dilatih untuk berperan sebagai "pendamping konstruktif". Yang artinya:
- Memperlakukan remaja sebagaimana harusnya: AI diminta untuk menggunakan nada yang hangat dan dengan respect. AI tidak diperbolehkan untuk melayani mereka layaknya orang dewasa.
- Mendukung real world: Sistem ini akan mendorong remaja untuk mencari dukungan offline, berbicara dengan orang tua atau guru, dan membangun hubungan dengan orang lain.
- Membuat batasan: AI tidak akan lagi mendiskusikan topik beresiko tinggi seperti mengakhiri hidup atau melukai diri. Hal ini menyusul gugatan chatbot yang sebelumnya memberikan masukan berbahaya pada remaja.
Baca juga: OpenAI Rilis GPT-5.2: Klaim Ungguli Profesional & Jadi Model Tercanggih Mereka
Strategi "Deteksi dan Blokir" Milik Anthropic
Selagi OpenAI menciptakan tempat yang lebih aman bagi remaja untuk berbicara, Anthropic mengambil sikap yang lebih tegas. Secara resmi, pengguna di bawah 18 tahun tidak diperbolehkan untuk menggunakan AI-nya, Claude. Untuk mendorong ini, Anthropic mengembangkan alat canggih untuk mendeteksi isyarat komunikasi.
Alat ini menganalisis bagaimana seseorang berbicara, termasuk slang yang dipakai, topik yang dibahas, dan gaya bahasa yang digunakan. Jika AI mendeteksi adanya kemungkinan pengguna adalah seorang minor, akunnya akan secara otomatis terblokir. Anthropic juga menandakan pengguna yang mengungkapkan usia mereka dalam percakapan kasual.
Teknologi Deteksi Usia

Foto: Freepik
Selama bertahun-tahun, verifikasi usia pengguna online mudah untuk dilewati, karena pengguna bisa berbohong dengan mudah soal tahun lahirnya. Untuk memperbaiki ini, OpenAI dan Anthropic bergeser ke analisis perilaku.
OpenAI menguji sistem estimasi usia yang mencari tanda-tanda saat berinteraksi. Saat sistemnya menandakan seorang pengguna adalah minor, proteksi khusus bagi remaja akan otomatis menyala. Namun jika orang dewasa tidak sengaja ditandai, yang disebut "kesalahan positif (false positive)", pengguna dapat membuktikan usianya dengan mengunggah kartu identitas dan kembali mendapat akses penuh.
Kenapa Sekarang?
Perubahan pembatasan ini merupakan respon dari tekanan masif. Politikus di Washington dan di seluruh dunia resah akan bagaimana percakapan AI dapat mengganggu kesehatan mental anak muda yang masih rapuh. Industri ini juga khawatir soal "halusinasi", yaitu saat AI membuat-buat fakta yang berbahaya. Terdapat juga kasus sebelumnya saat chatbot digunakan untuk menciptakan malware yang memberikan masukan personal berbahaya. Dengan menanamkan kendali orang tua (parental control) dan penyaring keamanan (safety filter), perusahaan-perusahaan ini menunjukkan usahaanya untuk bertanggung jawab.
Baca juga: CEO Anthropic Sebut AI Akan Mengambil Alih 90% Pekerjaan Coding dalam Waktu Dekat
Jalan ke Depannya: Dapatkah AI Benar-benar Menjadi Bijak?
Meskipun terdapat pengembangan-pengembangan ini, teknologi tidaklah sempurna. Percobaan sebelumnya oleh perusahaan lain, seperti Google, menunjukkan kalau AI bisa sering membuat kesalahan. Kesalahan-kesalahan ini memaksa orang dewasa untuk melakukan berbagai upaya rumit untuk membuktikan kalau mereka bukan anak-anak. Terdapat juga kekhawatiran kalau AI dapat benar-benar memahami kondisi emosional remaja yang tidak menentu.
Bagaimanapun, pesan dari industri AI cukup jelas. Zaman AI yang tidak tersaring sudah selesai. Saatnya kita melangkah maju, dan fokus pada perubahan yang menjadikan AI lebih cerdas ke AI yang lebih bijak dan aman untuk generasi selanjutnya.
Baca Berita dan Artikel yang lain di Google News.
(yna/sa)

Tinggalkan Komentar