Foto: Reuters
Teknologi.id - Setelah sepekan yang lalu terjadi drama terkait pemecatan CEO OpenAI, yakni Sam Altman, kabar terbaru kini menyebutkan alasan di balik pemecatan tersebut terkait kehadiran project AI (kecerdasan buatan) super yang sedang dikembangkan oleh OpenAI bernama Q* (dibaca Q-Star). Temuan tersebut diduga berbahaya, sebab dapat meningkatkan penalaran AI secara drastis, serta dapat mengancam umat manusia.
Dilaporkan oleh Reuters, dewan direksi OpenAI menerima surat dari beberapa staf peneliti yang kurang setuju terkait peringatan tentang bahaya pengembangan dan komersialisasi Artificial General Intelligence (AGI), yang kemudian meminta dewan direksi perusahaan agar segera bertindak.
Dewan direksi OpenAI disinyalir kecewa terhadap tindakan Altman yang dinilai kurang terbuka terkait pengembangan AGI yang sudah sampai tahap yang jauh.
Baca juga: Sam Altman is Back, Bakal Kembali Menjabat Sebagai CEO OpenAI
Diketahui, Altman memang memiliki ambisi besar dalam upayanya mengembangkan AGI oleh OpenAI, termasuk dengan menggunakan sumber daya komputasi dari investor terbesar OpenAI, yaitu Microsoft. Altman berkeyakinan bahwa OpenAI hampir berhasil mengembangkan AGI, sebagaimana yang diungkapkannya dalam konferensi tingkat tinggi Asia-Pacific Economic Cooperation (APEC) di San Fransisco, AS.
Dilansir dari laman KompasTekno, terkait keberadaan Q-Star dan surat yang diterima oleh dewan direksi perihal proyek AGI, OpenAI membenarkan hal tersebut namun menolak untuk memberikan komentar lebih jauh.
Diprediksi Melampaui ChatGPT
Q-Star merupakan jenis kecerdasan buatan dengan tipe Artificial General Intelligence (AGI) yang dinilai lebih pintar dari AI generatif seperti ChatGPT, serta dapat melampaui kepintaran manusia. Dikutip dari CNBC Indonesia, Q-Star dinilai mampu memecahkan masalah matematika tertentu serta memiliki sumber daya yang besar.
Pengujian terhadap Q-Star yang dilakukan oleh sejumlah peneliti, meskipun Q-Star hanya memiliki kemampuan matematika tingkat sekolah dasar, mereka tetap optimis bahwa itu akan berhasil.
Pengembangan AGI dinilai berbahaya sebab ia dapat mempelajari berbagai hal yang belum pernah dijumpai sebelumnya dan dapat mengerti proses pemecahan masalah, mirip seperti proses berpikir pada manusia.
Baca juga: Kelebihan dan Kekurangan Artificial Intelligence yang Wajib Kamu Tau!
Berbeda dengan AI generatif seperti ChatGPT yang dilatih menggunakan informasi yang sebelumnya sudah tersedia. Semakin banyak data yang diberikan untuk training, semakin bagus pula jawaban yang diberikan, meskipun ada kemungkinan jawaban yang terkesan melantur. Hal tersebut dapat terjadi karena AI generatif tidak memiliki kemampuan berpikir layaknya manusia.
Pengembangan AI yang super pintar tersebut telah menjadi hal yang disadari oleh Altman, termasuk resiko penyalahgunaan dan ancaman merusak tatanan masyarakat. Pada awal 2023, dalam tulisannya, Altman mengatakan bahwa pengembangan AGI dilakukan dengan membawa misi memberikan manfaat bagi manusia. Menurutnya, pengembangan AGI bukanlah sesuatu yang harus dihentikan atau dikesampingkan.
Baca Berita dan Artikel yang lain di Google News.
(sza)
Tinggalkan Komentar