Saya memperhatikan, bagaimana selama setahun terakhir semua semakin keras menyatakan bahwa kita sudah mencapai kecerdasan buatan umum. Puncaknya di Nature, tentu saja, menambah minyak ke dalam api. Tapi ada satu masalah mendasar yang banyak orang abaikan.



Inilah intinya: orang-orang salah paham tentang dua hal yang sama sekali berbeda. Di satu sisi, kita memiliki model bahasa yang menunjukkan hasil mengesankan dalam tes dan mampu menangani berbagai tugas. Di sisi lain — ini sama sekali tidak berarti bahwa kita telah menciptakan kecerdasan umum yang sesungguhnya. Ini seperti mencampurkan pengenalan pola yang semakin kompleks dengan kecerdasan itu sendiri.

Jika melihat definisi AGI secara historis, selalu ditekankan hal-hal lain: keandalan dalam berbagai konteks, kemampuan untuk menggeneralisasi saat menghadapi hal baru, fleksibilitas. Bukan hanya skor tinggi dalam tes di kondisi buatan.

Yang menarik adalah. Penelitian terbaru menunjukkan bahwa sistem yang secara gemilang menyelesaikan tugas-tugas tes sering kali gagal saat kondisi sedikit saja diubah. Model medis, misalnya, memberikan jawaban yang benar bahkan saat data kunci kurang lengkap, tetapi menjadi tidak stabil saat distribusi bergeser sedikit. Ini bukan kecerdasan, ini pelatihan khusus untuk skenario tertentu.

Pada tingkat ekonomi, gambarnya bahkan lebih mencolok. Bahkan sistem paling canggih pun hanya dapat secara andal menyelesaikan sebagian kecil dari tugas kerja nyata, meskipun menunjukkan hasil tinggi dalam kondisi tes. Data terbaru menunjukkan bahwa sebagian besar perusahaan belum melihat manfaat signifikan dari penerapan AI. Ini tidak terlihat seperti kecerdasan umum.

Ada satu poin lagi yang sering diabaikan. Ketika model bahasa dan manusia memberikan jawaban yang sama, ini tidak berarti mereka berpikir sama. Saya pernah melihat contoh di mana model memberikan kesimpulan yakin dalam situasi ketidakpastian, sementara manusia ahli menahan diri dari berkomentar karena kekurangan informasi. Kesamaan permukaan menyembunyikan perbedaan mendalam dalam prosesnya.

Sistem saat ini tetap rapuh. Mereka bergantung pada formulasi permintaan, tidak memiliki tujuan yang konsisten, dan tidak mampu berpikir secara andal dalam jangka panjang. Bahkan cerita tentang bagaimana model menyelesaikan masalah matematika terbuka — ini sebagian besar kombinasi dan pencarian metode yang sudah ada, bukan penciptaan strategi baru.

Masalahnya bukan hanya dalam terminologi. Ketika sistem ini mulai diterapkan dalam proses pengambilan keputusan nyata di bidang ilmu pengetahuan dan struktur pemerintahan, penilaian ulang terhadap kemampuan mereka bisa menyebabkan kesalahan serius dalam distribusi kepercayaan dan tanggung jawab. Jadi, mencampurkan statistik canggih yang mendekati kebenaran dengan kecerdasan umum — ini bukan hanya kesalahan konseptual, tetapi juga risiko praktis.

Model yang kita miliki — alat yang kuat, ya. Tapi mereka tetap alat, bukan agen dengan kompetensi fleksibel yang sesungguhnya. Perbedaan ini penting.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan