Matematika. DOK Freepik
Matematika. DOK Freepik

Kenapa AI Canggih Tapi Gagal Mengerjakan Perkalian Siswa SD? Begini Penjelasan Ilmiahnya

Renatha Swasty • 07 Januari 2026 14:32
Jakarta: Banyak orang menganggap Artificial Intelligence (AI) saat ini sudah sangat pintar dan canggih. Padahal, teknologi ini masih memiliki kelemahan mendasar yang mengejutkan lho.
 
Penelitian menemukan AI bisa menulis kode program rumit dan melakukan penalaran kompleks, tapi gagal mengerjakan perkalian empat digit yang diajarkan di SD. Misalnya, kalau kamu pernah heran kenapa AI sering salah hitung perkalian besar, ternyata ada alasan ilmiahnya.
 
Fenomena ini disebut sebagai jagged frontier, istilah yang muncul dari penelitian tim University of Chicago. Jagged frontier adalah kemampuan AI yang bisa unggul dalam tugas rumit, namun tersandung pada tugas yang tampak sederhana seperti perkalian multi-digit.

Lantas, bagaimana bisa AI canggih namun gagal di perkalian sederhana? Simak ulasan lengkapnya dikutip dari laman University of Chicago News:
 
Perkalian angka besar pada dasarnya memerlukan kemampuan menyimpan angka sementara dan menjumlahkannya untuk mendapat hasil akhir. Proses yang membutuhkan penyimpanan informasi untuk digunakan nanti ini disebut long-range dependencies atau ketergantungan jarak panjang.
 
Model AI standar bekerja dengan mengenali pola dari data yang dipelajari. Namun semakin kompleks masalah, semakin kecil juga kemungkinan model pernah melihat contoh spesifik tersebut. Akibatnya, model kesulitan belajar proses perhitungan, bukan sekadar menghafal jawaban.
 
Dalam penelitian yang berjudul Why Can’t Transformers Learn Multiplication? Reverse-Engineering Reveals Longrange Dependency Pitfalls yang diterbitkan di jurnal arXiv, 30 September 2025, dijelaskan para peneliti menguji model dengan 2 lapisan hingga 12 lapisan.
 
Hasil penelitian menunjukkan semua model mencapai akurasi kurang dari 1 persen saat mengalikan dua angka empat digit. Ternyata, model terjebak pada "local optimum" atau solusi terbaik dalam dataset mereka, tanpa bisa berkembang lebih jauh meski dilatih lebih lama atau diperbesar skalanya.
 
Penelitian yang dipimpin oleh Xiaoyan Bai ini kemudian menemukan metode berbeda bernama Implicit Chain of Thought (ICoT). Metode standar hanya mencapai 1 persen akurasi, tapi ICoT berhasil 100 persen. Perbedaannya, ICoT mengajarkan model melacak informasi yang dikumpulkan bertahap, seperti sistem arsip teratur yang menyimpan dan mengambil data tepat saat dibutuhkan.
 
Saat peneliti memeriksa pola perhatian model tersebut, mereka menemukan model telah mempelajari mekanisme mirip IcoT yaitu struktur yang menyimpan dan mengambil hasil perkalian parsial sesuai kebutuhan. Model bahkan mengembangkan strategi tambahan, termasuk cara melacak beberapa pasang digit secara bersamaan.
 
Meskipun perkalian tampak seperti tugas spesifik, temuan ini menerangi aspek penting terkait bagaimana model bahasa besar belajar dan berpikir. Menurut salah satu anggota tim peneliti, Chenhao Tan, masalah ketergantungan jarak jauh tidak hanya muncul di aritmatika, tapi juga di pemodelan bahasa dan tugas sekuensial lainnya.
 
"Karena AI semakin terintegrasi dalam pengambilan keputusan kritis, sangat penting memahami cara unik AI belajar dan berpikir. Riset kami mencoba memetakan medan tersebut," ujar Tan dikutip Rabu, 7 Januari 2026
 
Kontribusi utama penelitian ini memberikan wawasan arsitektural dan teknik pelatihan bisa mengatasi hambatan yang tidak bisa diatasi hanya dengan memperbesar skala. Panduan bawaan yang tepat bukan sekadar lebih banyak parameter atau data, tetapi menjadi kunci mendorong kemampuan AI maju. (Bramcov Stivens Situmeang)

 
Cek Berita dan Artikel yang lain di
Google News
(REN)




TERKAIT

BERITA LAINNYA

social
FOLLOW US

Ikuti media sosial medcom.id dan dapatkan berbagai keuntungan