Teknologi.id - Kecerdasan Buatan (AI) telah menjadi bagian integral dari teknologi modern, tetapi penemuan terbaru oleh tim peneliti dari Apple menunjukkan bahwa tidak semua model bahasa besar (Large Language Models - LLM) dapat diandalkan.
Dalam penelitian yang dipimpin oleh Iman Mirzadeh, Apple menemukan kelemahan AI di mana perubahan kecil dalam susunan pertanyaan dapat menyebabkan penurunan akurasi yang signifikan dalam jawaban yang dihasilkan oleh model-model ini. Temuan ini membuka diskusi mengenai potensi kerentanan dalam sistem AI dan dampaknya pada aplikasi dunia nyata.
Penelitian dan Metodologi
Tim peneliti Apple menguji beberapa model bahasa besar
terkemuka, termasuk milik OpenAI dan Meta, untuk mengevaluasi kemampuan mereka
dalam menangani tugas penalaran matematika. Mereka menggunakan alat pengujian
baru bernama GSM-Symbolic untuk mengevaluasi bagaimana variasi dalam pertanyaan
dapat mempengaruhi hasil. Salah satu fokus utama penelitian ini adalah
bagaimana detail yang tampaknya tidak penting, seperti ukuran objek, dapat
mengubah jawaban yang dihasilkan oleh model.
Contoh yang diambil dari penelitian adalah pertanyaan sederhana tentang jumlah buah kiwi yang dikumpulkan seseorang. Peneliti menemukan bahwa ketika informasi tambahan mengenai ukuran kiwi ditambahkan ke dalam pertanyaan, beberapa model bahasa besar, termasuk model dari OpenAI dan Llama dari Meta, memberikan jawaban yang salah. Hal ini menunjukkan bahwa meskipun model ini dilatih dengan dataset yang luas, mereka tidak selalu dapat menangani variasi dalam konteks pertanyaan dengan cara yang logis.
Baca juga: iBOX atau Digimap? Kenali Perbedaan Reseller Resmi Apple di Indonesia!
Kelemahan dan Ketidakpastian dalam Penalaran
Kelemahan ini mengindikasikan bahwa model bahasa besar tidak
menggunakan logika formal untuk menyelesaikan masalah. Sebaliknya, mereka
tampaknya mengandalkan pengenalan pola yang kompleks, yang bisa menjadi tidak
stabil ketika dihadapkan dengan perubahan kecil dalam pertanyaan. Penelitian
menyatakan, "Kami tidak menemukan bukti penalaran formal dalam LLM.
Perilaku mereka lebih baik dijelaskan oleh pencocokan pola yang canggih."
Perubahan sekecil apa pun dalam pertanyaan dapat menyebabkan
variasi yang signifikan dalam jawaban, menunjukkan bahwa model-model ini
mungkin tidak seandal yang diharapkan dalam situasi yang membutuhkan
konsistensi logis. Hal ini berpotensi menciptakan risiko dalam penggunaan AI
untuk aplikasi yang memerlukan pemahaman dan penalaran yang mendalam.
Dampak pada Aplikasi AI
Dari hasil penelitian, para peneliti di Apple menyimpulkan
bahwa model bahasa besar perlu meningkatkan kemampuan logika mereka untuk dapat
digunakan dalam aplikasi yang lebih kritis. Misalnya, dalam sektor kesehatan,
ketidakakuratan dalam penalaran AI dapat memiliki konsekuensi serius. Tim
peneliti menyarankan bahwa kombinasi antara jaringan saraf dengan penalaran
berbasis simbol, atau neurosymbolic AI, bisa menjadi solusi untuk meningkatkan
akurasi dan keandalan model AI.
Penalaran berbasis simbol, yang melibatkan representasi pengetahuan menggunakan simbol seperti variabel dan aturan logis, dapat membantu model AI untuk melakukan deduksi yang lebih tepat dan relevan. Ini adalah langkah penting untuk memastikan bahwa kecerdasan buatan tidak hanya berfungsi sebagai alat pengenalan pola tetapi juga sebagai sistem yang mampu memahami dan memecahkan masalah dengan cara yang lebih manusiawi.
Baca juga: Mark Zuckerberg Prediksi Smartphone Akan Tergantikan dengan Benda Ini
Kesimpulan dan Harapan ke Depan
Ditemukannya kelemahan dalam kecerdasan buatan oleh tim
Apple menciptakan momen refleksi bagi industri teknologi. Meskipun LLM telah
merevolusi cara kita berinteraksi dengan komputer, penelitian ini menunjukkan
bahwa masih ada banyak pekerjaan yang perlu dilakukan untuk membuat AI lebih
dapat diandalkan, terutama dalam aplikasi yang memerlukan penalaran yang
kompleks.
Sebagai pengguna teknologi, penting untuk memahami bahwa
kecerdasan buatan tidak selalu infallible. Ketergantungan pada AI untuk
keputusan yang memerlukan penalaran mendalam dapat berisiko, dan pendekatan
yang lebih hati-hati perlu diadopsi oleh pengguna dan pengembang.
Melihat ke depan, kombinasi teknik baru dalam pengembangan
AI, seperti integrasi antara pendekatan berbasis pola dan berbasis simbol,
dapat membuka jalan bagi penciptaan model-model yang lebih robust. Dengan cara
ini, AI tidak hanya dapat meningkatkan efisiensi tetapi juga memberikan nilai
yang lebih besar dalam konteks dunia nyata.
Dalam rangka untuk menciptakan AI yang lebih baik dan lebih
kuat, kolaborasi antara para peneliti, pengembang, dan industri sangat
diperlukan. Dengan usaha bersama, kita dapat berharap untuk melihat kecerdasan
buatan yang tidak hanya efisien tetapi juga cerdas dan dapat diandalkan.
Baca Berita dan Artikel yang lain di Google
News
(emh)
Tinggalkan Komentar