Foto : Google
Teknologi.id - Gambar hasil buatan Artificial Intelligence (AI) semakin marak di internet, menimbulkan kekhawatiran karena konten ini sering kali membingungkan pengguna yang tidak mengetahui keasliannya.
Di Korea Selatan, kasus pornografi berbasis AI, khususnya deepfake, menjadi persoalan yang semakin mendesak dalam beberapa waktu terakhir. Semakin banyak warga Korea Selatan, termasuk anak-anak, menjadi korban dari penyalahgunaan teknologi deepfake dalam kasus pornografi.
Masalah ini menjadi perhatian publik setelah viralnya sejumlah ruang obrolan di Telegram yang diduga digunakan untuk memproduksi dan menyebarkan konten pornografi deepfake, menimbulkan ketakutan dan kemarahan di kalangan masyarakat.
Berdasarkan laporan dari Badan Kepolisian Nasional Korea Selatan, sebanyak 297 kasus pornografi deepfake telah dilaporkan antara Januari hingga Juli, dengan 113 dari 178 tersangka merupakan remaja. Di Seoul, sebanyak 10 remaja berusia 14 tahun ditangkap terkait kasus ini.
Karena tingginya peredaran konten berbasis AI yang mengkhawatirkan, Google kini tengah mengembangkan alat pendeteksi konten buatan AI. Pada awal tahun ini, Google bergabung dengan Coalition for Content Provenance and Authenticity (C2PA) untuk bekerja sama mengembangkan teknologi deteksi dan penandaan konten AI bersama anggota komite lainnya.
Teknologi ini nantinya akan diintegrasikan dengan Content Credentials, sebuah ekstensi yang berfungsi melacak sumber dari konten gambar dan video. Dalam beberapa bulan ke depan, Google berencana menambahkan versi terbaru dari Content Credentials ke berbagai produk intinya, sehingga mempermudah pengguna mendeteksi konten berbasis AI di hasil pencarian.
Baca juga: Ask Photos, Fitur AI Google untuk Cari Foto
Dilansir dari Engadget, fitur pendeteksi ini juga akan tersedia di Google Images, Lens, dan Circle to Search. Jika suatu gambar memiliki metadata C2PA, pengguna akan dapat melihat perubahan yang dilakukan oleh AI melalui menu "About this image."
Di samping itu, Google tengah mengembangkan sistem untuk mengidentifikasi data teknis pada video di YouTube, seperti waktu dan jenis kamera yang digunakan saat pengambilan video. Namun, teknologi ini masih memiliki keterbatasan. Keefektifan sistem ini bergantung pada penggunaan sistem penandaan C2PA oleh pihak terkait, seperti produsen kamera dan penyedia perangkat AI. Jika metadata pada suatu gambar atau video dihapus, pendeteksian AI oleh Google menjadi lebih sulit.
Di sisi lain, Meta menghadapi tantangan dalam menentukan kebijakan pengungkapan konten AI di platformnya, seperti Facebook, Instagram, dan Threads. Perusahaan ini baru saja memperbarui kebijakan untuk menempatkan label “AI info” pada foto yang diedit dengan AI di bagian menu postingan, alih-alih menampilkannya di tengah gambar seperti sebelumnya. Perubahan ini menimbulkan kekhawatiran karena label menjadi kurang terlihat.
Selain itu, Google juga merencanakan penerapan metadata C2PA dalam sistem iklan, meskipun detail teknisnya belum sepenuhnya terungkap. Penggunaan C2PA diharapkan dapat membantu Google dalam mengelola kebijakan transparansi konten AI.
Baca berita dan artikel lain di Google News
(mha)
Tinggalkan Komentar