Biaya Berpikir AI: Model Penalaran Meniru Cara Kerja Otak Manusia

Ilustrasi digital yang menunjukkan grafik data kompleks saling terhubung, melambangkan pemrosesan informasi AI dan otak manusia yang berpikir.

Key Points:

  • Model bahasa besar (LLM) generasi baru, yang disebut model penalaran, menunjukkan kemampuan memecahkan masalah kompleks yang lebih baik.
  • Penelitian di MIT menemukan bahwa "biaya berpikir" bagi model penalaran AI sangat mirip dengan biaya yang dikeluarkan manusia.
  • Model-model ini membutuhkan waktu untuk memproses masalah kompleks secara bertahap, mirip dengan cara kerja kognitif manusia.
  • Meskipun tidak dirancang untuk meniru manusia, konvergensi ini menunjukkan pendekatan berpikir AI yang semakin humanis.
  • Pemahaman tentang proses berpikir AI ini penting untuk pengembangan teknologi di Indonesia.

Evolusi AI: Dari Instan hingga Berpikir Mendalam

Dalam beberapa tahun terakhir, model bahasa besar (LLM) seperti ChatGPT telah merevolusi cara kita berinteraksi dengan teknologi. Kemampuan mereka untuk menyusun esai, merencanakan menu, atau bahkan menulis kode dalam sekejap mata sungguh menakjubkan. Namun, ada satu batasan yang cukup jelas: masalah matematika dan penalaran kompleks sering kali membuat mereka "stuck". LLM generasi awal, yang sangat bergantung pada pola bahasa, kerap kesulitan dalam tugas-tugas yang membutuhkan pemikiran logis dan langkah demi langkah.

Kini, lanskap ini mulai berubah. Hadirnya generasi baru LLM, yang kita sebut sebagai model penalaran, menunjukkan peningkatan signifikan dalam menangani masalah-masalah kompleks. Mereka tidak lagi sekadar mencari pola, melainkan belajar untuk "berpikir" secara lebih mendalam. Fenomena ini sangat relevan bagi Indonesia, di mana adopsi teknologi AI semakin meluas di berbagai sektor. Pemahaman tentang bagaimana AI ini berpikir menjadi krusial untuk pemanfaatan yang optimal.

Menyingkap "Biaya Berpikir" AI dan Manusia

Yang menarik, para ilmuwan di McGovern Institute for Brain Research MIT menemukan kesamaan mencolok antara cara model penalaran ini berpikir dengan cara kerja otak manusia. Mereka menyimpulkan bahwa jenis masalah yang membutuhkan pemrosesan paling intensif dari model penalaran ternyata sama dengan jenis masalah yang juga membutuhkan waktu lebih bagi manusia untuk menyelesaikannya. Dengan kata lain, "biaya berpikir" bagi model penalaran sangat mirip dengan biaya berpikir bagi kita sebagai manusia.

Penelitian yang diterbitkan dalam jurnal PNAS ini dipimpin oleh Evelina Fedorenko, seorang profesor di bidang ilmu otak dan kognitif. Temuan ini menggarisbawahi bahwa, setidaknya dalam satu aspek penting, model penalaran AI telah mengadopsi pendekatan berpikir yang mirip manusia. Fedorenko menekankan bahwa konvergensi ini bukanlah disengaja. Para pengembang model hanya berfokus pada menciptakan sistem yang robust dan akurat, bukan untuk meniru manusia. "Fakta bahwa ada kesamaan tertentu sungguh mencolok," ujarnya.

Mengenal Lebih Dekat Model Penalaran

Sama seperti kebanyakan bentuk kecerdasan buatan, model penalaran merupakan jaringan saraf buatan. Ini adalah perangkat komputasi yang belajar memproses informasi melalui data dan masalah yang diberikan. Jaringan saraf buatan telah terbukti sangat berhasil dalam banyak tugas yang juga dilakukan oleh jaringan saraf otak manusia. Bahkan, para ilmuwan saraf telah menemukan bahwa model AI yang berkinerja terbaik memiliki kemiripan tertentu dalam aspek pemrosesan informasi dengan otak.

Sebelumnya, banyak ilmuwan skeptis bahwa AI bisa menangani aspek kecerdasan manusia yang lebih canggih. "Sampai saat ini, saya termasuk orang yang mengatakan, 'Model-model ini sangat bagus dalam hal seperti persepsi dan bahasa, tetapi masih jauh untuk memiliki model jaringan saraf yang bisa melakukan penalaran'," kata Fedorenko. "Kemudian muncul model penalaran besar ini dan mereka tampaknya jauh lebih baik dalam banyak tugas berpikir, seperti memecahkan masalah matematika dan menulis potongan kode komputer."

Bagaimana Model Penalaran Bekerja?

Andrea Gregor de Varda, seorang peneliti di lab Fedorenko, menjelaskan bahwa model penalaran memecahkan masalah langkah demi langkah. "Pada suatu titik, orang menyadari bahwa model perlu memiliki lebih banyak ruang untuk melakukan komputasi aktual yang diperlukan untuk memecahkan masalah kompleks," jelasnya. "Performa mulai menjadi jauh, jauh lebih kuat jika Anda membiarkan model memecah masalah menjadi bagian-bagian."

Untuk mendorong model bekerja melalui masalah kompleks secara bertahap menuju solusi yang benar, para insinyur menggunakan pembelajaran penguatan (reinforcement learning). Selama pelatihan, model diberi penghargaan untuk jawaban yang benar dan dihukum untuk yang salah. "Model-model tersebut mengeksplorasi ruang masalah itu sendiri," kata de Varda. "Tindakan yang mengarah pada penghargaan positif diperkuat, sehingga mereka lebih sering menghasilkan solusi yang benar."

Model yang dilatih dengan cara ini jauh lebih mungkin daripada pendahulunya untuk menghasilkan jawaban yang sama dengan manusia ketika diberi tugas penalaran. Proses pemecahan masalah bertahap ini memang berarti model penalaran membutuhkan waktu sedikit lebih lama untuk menemukan jawaban daripada LLM sebelumnya. Namun, karena mereka mendapatkan jawaban yang benar di mana model sebelumnya akan gagal, respons mereka sepadan dengan waktu tunggu.

Waktu Manusia versus Token AI: Sebuah Perbandingan Unik

Kebutuhan model untuk meluangkan waktu dalam memecahkan masalah kompleks sudah mengisyaratkan paralel dengan pemikiran manusia: jika Anda meminta seseorang memecahkan masalah sulit secara instan, kemungkinan besar mereka juga akan gagal. De Varda ingin memeriksa hubungan ini secara lebih sistematis. Ia memberikan serangkaian masalah yang sama kepada model penalaran dan sukarelawan manusia, dan melacak tidak hanya apakah mereka mendapatkan jawaban yang benar, tetapi juga berapa banyak waktu atau upaya yang dibutuhkan untuk mencapainya.

Mengukur Upaya Berpikir

Bagi manusia, ini berarti mengukur berapa lama waktu yang dibutuhkan untuk merespons setiap pertanyaan, hingga milidetik. Untuk model, Varda menggunakan metrik yang berbeda. Mengukur waktu pemrosesan tidak masuk akal, karena ini lebih bergantung pada perangkat keras komputer daripada upaya yang dilakukan model untuk memecahkan masalah. Jadi, sebagai gantinya, ia melacak "token", yang merupakan bagian dari rantai pemikiran internal model. "Mereka menghasilkan token yang tidak dimaksudkan untuk dilihat atau digunakan oleh pengguna, tetapi hanya untuk melacak komputasi internal yang mereka lakukan," jelas de Varda. "Seolah-olah mereka berbicara pada diri sendiri."

Baik manusia maupun model penalaran diminta untuk memecahkan tujuh jenis masalah yang berbeda, seperti aritmatika numerik dan penalaran intuitif. Untuk setiap kelas masalah, mereka diberikan banyak soal. Semakin sulit suatu masalah, semakin lama waktu yang dibutuhkan manusia untuk menyelesaikannya. Dan semakin lama waktu yang dibutuhkan manusia, semakin banyak token yang dihasilkan oleh model penalaran saat ia menemukan solusinya sendiri.

Demikian pula, kelas masalah yang paling lama dipecahkan oleh manusia adalah kelas masalah yang sama yang membutuhkan token paling banyak untuk model: masalah aritmatika adalah yang paling tidak menuntut, sedangkan sekelompok masalah yang disebut "tantangan ARC" (di mana pasangan grid berwarna mewakili transformasi yang harus disimpulkan dan kemudian diterapkan pada objek baru) adalah yang paling "mahal" untuk manusia maupun model.

Implikasi dan Arah Penelitian Masa Depan di Indonesia

De Varda dan Fedorenko mengatakan kecocokan mencolok dalam "biaya berpikir" ini menunjukkan satu cara di mana model penalaran berpikir seperti manusia. Namun, ini tidak berarti model tersebut mereplikasi kecerdasan manusia sepenuhnya. Para peneliti masih ingin mengetahui apakah model menggunakan representasi informasi yang serupa dengan otak manusia, dan bagaimana representasi tersebut diubah menjadi solusi masalah.

Mereka juga ingin tahu apakah model akan mampu menangani masalah yang membutuhkan pengetahuan dunia nyata yang tidak dijelaskan dalam teks yang digunakan untuk pelatihan model. Ini menjadi relevan di Indonesia, di mana konteks budaya dan pengetahuan lokal seringkali unik dan tidak selalu tersedia dalam data pelatihan global. Pengembangan AI yang mampu memahami nuansa ini akan sangat bermanfaat.

Para peneliti menunjukkan bahwa meskipun model penalaran menghasilkan monolog internal saat mereka memecahkan masalah, mereka tidak serta merta menggunakan bahasa untuk berpikir. "Jika Anda melihat keluaran yang dihasilkan model-model ini saat bernalar, seringkali mengandung kesalahan atau bit yang tidak masuk akal, bahkan jika model pada akhirnya mencapai jawaban yang benar. Jadi komputasi internal aktual kemungkinan terjadi dalam ruang representasi abstrak, non-linguistik, mirip dengan bagaimana manusia tidak menggunakan bahasa untuk berpikir," katanya.

Dengan terus mengembangkan model penalaran ini, masa depan AI di Indonesia dan dunia akan semakin cerah, memungkinkan kita untuk memecahkan masalah yang lebih kompleks dengan efisiensi dan akurasi yang lebih tinggi.

Next Post Previous Post
No Comment
Add Comment
comment url
sr7themes.eu.org