Skakmat! Soal Matematika Profesor Ini Bikin AI Terpintar Tak Berkutik

Wildan Nur Alif Kurniawan . February 11, 2026


Foto: Medium

Teknologi.id – Selama bertahun-tahun, matematika adalah "tembok terakhir" yang sulit ditembus oleh kecerdasan buatan (AI). Sebuah chatbot mungkin bisa menulis puisi romantis atau membuat gambar surealis dalam hitungan detik, namun sering kali tergelincir saat diminta menyelesaikan soal logika matematika yang membutuhkan penalaran bertingkat. AI sering "berhalusinasi" angka atau gagal memahami konteks abstrak.

Tantangan Sang Profesor: Jebakan Logika

Kecemasan akan dominasi mesin ini sempat menghantui seorang siswa SMA yang mengirimkan email penuh kekhawatiran kepada Sir Martin Hairer. Hairer bukan orang sembarangan; ia adalah pemenang Fields Medal 2014, penghargaan yang setara dengan Nobel di dunia matematika. Dalam suratnya, siswa tersebut bertanya dengan nada putus asa: "Apakah masih ada gunanya saya belajar matematika jika AI masa depan bisa mengerjakan semuanya?"

Untuk menjawab keraguan generasi muda ini, Hairer tidak sekadar memberikan kata-kata motivasi. Ia bersama tim peneliti elit dari Universitas Harvard, Stanford, dan lembaga MathSci.ai melakukan sebuah eksperimen pembuktian bertajuk "First Proof".

Mereka mengadu model AI tercanggih yang ada di tahun 2026—termasuk ChatGPT-5.2 Pro dan Google Gemini 3.0 Deep Think—melawan soal-soal riset matematika orisinal. Hasil akhirnya? Mengecewakan bagi mesin, namun menjadi kabar paling melegakan bagi manusia.

Hasil Eksperimen: "Seperti Mahasiswa S1 yang Kurang Pintar


Foto: Wallpoper

Martin Hairer memberikan penilaian yang sangat jujur dan menohok mengenai kinerja model-model AI "terpintar" tersebut. Ia menyamakan kemampuan penalaran mereka dengan "mahasiswa S1 yang kurang pintar" (not very bright undergraduate).

Mengapa demikian? Berdasarkan laporan tersebut, berikut adalah pola kegagalan AI yang ditemukan:

  1. Jago di Kulit, Kosong di Isi: Model AI (Large Language Models/LLM) terbukti sangat fasih dan "cerewet" ketika menjelaskan bagian-bagian soal yang mudah atau standar. Mereka bisa memuntahkan definisi dan rumus dasar dengan detail yang bertele-tele. Namun, ketika masuk ke inti argumen yang membutuhkan lompatan logika baru atau pemahaman mendalam, jawaban mereka menjadi kabur (hand-waving). Mereka mencoba menutupi ketidaktahuan mereka dengan bahasa yang rumit namun kosong, berharap pembaca (sang profesor) tidak menyadarinya.

  2. Tidak Ada Orisinalitas: Hairer menegaskan, "Saya belum melihat contoh yang masuk akal di mana LLM menghasilkan ide atau konsep baru yang benar-benar orisinal." AI terbukti hanya jago memprediksi kata berdasarkan data pelatihan yang ada di internet. Jika soal tersebut adalah soal latihan standar yang kuncinya sudah tersebar di web, AI bisa menjawabnya. Tapi saat diberi soal riset baru yang belum pernah ada jawabannya di internet, AI mati kutu. Ia tidak bisa "berpikir"; ia hanya "mengingat".

Baca juga: Bos Crypto.com Beli AI.com Rp1,17 Triliun, Jadi Domain Termahal Dunia

Kelemahan Fatal: Terjebak dalam "Lingkaran Setan"

Fenomena ini juga didukung oleh temuan Lauren Williams, seorang profesor matematika dari Harvard yang terlibat langsung dalam riset tersebut. Ia mengungkapkan adanya fenomena unik yang disebut Infinite Loop atau 'lingkaran setan' pada logika AI.

Dalam eksperimen tersebut, ketika AI menyadari ada yang salah dengan jawabannya, ia akan mencoba melakukan koreksi diri (self-correction).

  • Langkah 1: AI memberi jawaban A.

  • Langkah 2: AI sadar A salah, lalu berkata "Maaf, ada kesalahan," dan memberi jawaban B.

  • Langkah 3: AI sadar B juga salah, lalu kembali ke logika yang mirip dengan A.

Siklus ini berulang terus-menerus tanpa pernah sampai pada solusi final yang benar. Mesin tersebut tersesat dalam labirin logika yang ia buat sendiri karena tidak memiliki intuisi—sesuatu yang dimiliki oleh matematikawan manusia secara alami.

Masalah "Yes Man" dan Bahaya bagi Sains

Selain ketidakmampuan teknis, Tamara Kolda dari MathSci.ai menyoroti aspek psikologis dari AI yang justru berbahaya bagi kemajuan sains. AI diprogram untuk menjadi asisten yang patuh dan menyenangkan pengguna (pleasing the user).

Dalam dunia sains, kemajuan terjadi melalui perdebatan dan bantahan. Rekan kerja manusia yang baik adalah mereka yang berani berkata, "Ide kamu salah, coba lihat dari sudut pandang ini." Sebaliknya, AI cenderung menjadi "Yes Man". Ia akan menyetujui premis yang salah dari penggunanya atau mencoba membenarkan argumen yang keliru hanya agar terlihat membantu. Jika ilmuwan masa depan hanya mengandalkan AI, proses peer-review dan kritik ilmiah bisa mati, yang pada akhirnya memperlambat penemuan baru.

Kelemahan Visual dan Memori Pendek

Secara teknis, eksperimen ini juga membongkar dua kelemahan fundamental AI tahun 2026:

  • Buta Visual: AI sangat buruk dalam visual reasoning. Soal matematika yang membutuhkan imajinasi ruang atau geometri abstrak hampir selalu gagal dijawab dengan benar.

  • Kapasitas Memori Terbatas: Untuk pembuktian matematika yang panjang (lebih dari 5 halaman), kualitas jawaban AI menurun drastis. Ia "lupa" dengan asumsi yang ia buat di halaman pertama, sehingga kesimpulan di halaman terakhir sering kali bertentangan (ngawur).

Baca juga: Hati-hati! Jutaan Aplikasi AI Bocorkan 730 TB Data Google Akibat Praktik Hardcoding

Kesimpulan: Manusia Masih Tak Tergantikan

Artikel ini menutup dengan sebuah kesimpulan yang menenangkan. Jawaban Martin Hairer kepada siswa SMA tersebut kini memiliki bukti empiris yang kuat.

Matematika, dan bidang-bidang lain yang membutuhkan kreativitas orisinal serta penalaran tingkat tinggi, masih aman dari otomatisasi. AI hanyalah alat bantu hitung yang canggih, bukan pengganti pemikir.

Hasil eksperimen "First Proof" ini menegaskan bahwa meskipun mesin bisa menghitung lebih cepat dari cahaya, ia tidak memiliki "jiwa" untuk memahami keindahan sebuah teorema baru. Jadi, bagi para pelajar yang mencintai matematika: Teruslah belajar. Tempat kalian di masa depan masih tersedia, dan belum ada mesin yang bisa merebutnya.

Baca Berita dan Artikel lainnya di Google News.


(WN/ZA)

author0
teknologi id bookmark icon

Tinggalkan Komentar

0 Komentar