Apple Ungkap Kelemahan AI: Perubahan Kecil Bisa Pengaruhi Akurasi Model Bahasa

Elysa Magrisia Herdiani . October 23, 2024

Kelemahan AI

Teknologi.id - Kecerdasan Buatan (AI) telah menjadi bagian integral dari teknologi modern, tetapi penemuan terbaru oleh tim peneliti dari Apple menunjukkan bahwa tidak semua model bahasa besar (Large Language Models - LLM) dapat diandalkan.

Dalam penelitian yang dipimpin oleh Iman Mirzadeh, Apple menemukan kelemahan AI di mana perubahan kecil dalam susunan pertanyaan dapat menyebabkan penurunan akurasi yang signifikan dalam jawaban yang dihasilkan oleh model-model ini. Temuan ini membuka diskusi mengenai potensi kerentanan dalam sistem AI dan dampaknya pada aplikasi dunia nyata.

Penelitian dan Metodologi

Tim peneliti Apple menguji beberapa model bahasa besar terkemuka, termasuk milik OpenAI dan Meta, untuk mengevaluasi kemampuan mereka dalam menangani tugas penalaran matematika. Mereka menggunakan alat pengujian baru bernama GSM-Symbolic untuk mengevaluasi bagaimana variasi dalam pertanyaan dapat mempengaruhi hasil. Salah satu fokus utama penelitian ini adalah bagaimana detail yang tampaknya tidak penting, seperti ukuran objek, dapat mengubah jawaban yang dihasilkan oleh model.

Contoh yang diambil dari penelitian adalah pertanyaan sederhana tentang jumlah buah kiwi yang dikumpulkan seseorang. Peneliti menemukan bahwa ketika informasi tambahan mengenai ukuran kiwi ditambahkan ke dalam pertanyaan, beberapa model bahasa besar, termasuk model dari OpenAI dan Llama dari Meta, memberikan jawaban yang salah. Hal ini menunjukkan bahwa meskipun model ini dilatih dengan dataset yang luas, mereka tidak selalu dapat menangani variasi dalam konteks pertanyaan dengan cara yang logis.

Baca juga: iBOX atau Digimap? Kenali Perbedaan Reseller Resmi Apple di Indonesia!

Kelemahan dan Ketidakpastian dalam Penalaran

Kelemahan ini mengindikasikan bahwa model bahasa besar tidak menggunakan logika formal untuk menyelesaikan masalah. Sebaliknya, mereka tampaknya mengandalkan pengenalan pola yang kompleks, yang bisa menjadi tidak stabil ketika dihadapkan dengan perubahan kecil dalam pertanyaan. Penelitian menyatakan, "Kami tidak menemukan bukti penalaran formal dalam LLM. Perilaku mereka lebih baik dijelaskan oleh pencocokan pola yang canggih."

Perubahan sekecil apa pun dalam pertanyaan dapat menyebabkan variasi yang signifikan dalam jawaban, menunjukkan bahwa model-model ini mungkin tidak seandal yang diharapkan dalam situasi yang membutuhkan konsistensi logis. Hal ini berpotensi menciptakan risiko dalam penggunaan AI untuk aplikasi yang memerlukan pemahaman dan penalaran yang mendalam.

Dampak pada Aplikasi AI

Dari hasil penelitian, para peneliti di Apple menyimpulkan bahwa model bahasa besar perlu meningkatkan kemampuan logika mereka untuk dapat digunakan dalam aplikasi yang lebih kritis. Misalnya, dalam sektor kesehatan, ketidakakuratan dalam penalaran AI dapat memiliki konsekuensi serius. Tim peneliti menyarankan bahwa kombinasi antara jaringan saraf dengan penalaran berbasis simbol, atau neurosymbolic AI, bisa menjadi solusi untuk meningkatkan akurasi dan keandalan model AI.

Penalaran berbasis simbol, yang melibatkan representasi pengetahuan menggunakan simbol seperti variabel dan aturan logis, dapat membantu model AI untuk melakukan deduksi yang lebih tepat dan relevan. Ini adalah langkah penting untuk memastikan bahwa kecerdasan buatan tidak hanya berfungsi sebagai alat pengenalan pola tetapi juga sebagai sistem yang mampu memahami dan memecahkan masalah dengan cara yang lebih manusiawi.

Baca juga: Mark Zuckerberg Prediksi Smartphone Akan Tergantikan dengan Benda Ini

Kesimpulan dan Harapan ke Depan

Ditemukannya kelemahan dalam kecerdasan buatan oleh tim Apple menciptakan momen refleksi bagi industri teknologi. Meskipun LLM telah merevolusi cara kita berinteraksi dengan komputer, penelitian ini menunjukkan bahwa masih ada banyak pekerjaan yang perlu dilakukan untuk membuat AI lebih dapat diandalkan, terutama dalam aplikasi yang memerlukan penalaran yang kompleks.

Sebagai pengguna teknologi, penting untuk memahami bahwa kecerdasan buatan tidak selalu infallible. Ketergantungan pada AI untuk keputusan yang memerlukan penalaran mendalam dapat berisiko, dan pendekatan yang lebih hati-hati perlu diadopsi oleh pengguna dan pengembang.

Melihat ke depan, kombinasi teknik baru dalam pengembangan AI, seperti integrasi antara pendekatan berbasis pola dan berbasis simbol, dapat membuka jalan bagi penciptaan model-model yang lebih robust. Dengan cara ini, AI tidak hanya dapat meningkatkan efisiensi tetapi juga memberikan nilai yang lebih besar dalam konteks dunia nyata.

Dalam rangka untuk menciptakan AI yang lebih baik dan lebih kuat, kolaborasi antara para peneliti, pengembang, dan industri sangat diperlukan. Dengan usaha bersama, kita dapat berharap untuk melihat kecerdasan buatan yang tidak hanya efisien tetapi juga cerdas dan dapat diandalkan.

Baca Berita dan Artikel yang lain di Google News

(emh)


Share :