Digitalisasi Dunia
Ilya Sutskever: AGI Mungkin Tidak Datang Secepat Itu
24 Feb 2026
Dalam percakapan publik tentang AI saat ini, istilah AGI (Artificial General Intelligence) sering muncul seperti puncak dari segala pencapaian AI. Banyak orang membicarakannya seperti sebuah target "garis finish". “Suatu hari AI akan setara atau bahkan melampaui kecerdasan manusia di segala bidang.” Ini menjadi narasi dominan yang bukan hanya terjadi di konferensi teknologi, tetapi juga menjadi bayangan ideal bagi para investor, perusahaan besar, dan bahkan konsumen.

Apa AGI Sebenarnya, dan Apa Bedanya dengan AI Sekarang
Banyak orang mencampuradukkan AGI dengan AI yang kita gunakan sehari-hari. Padahal perbedaannya signifikan.
AI yang ada hari ini — dari chatbot, image generator, sampai sistem rekomendasi — dikategorikan sebagai narrow AI. Ia sangat pintar melakukan tugas yang memiliki basis pola dan data untuk latihan. Namun, ia tidak benar-benar “memahami” dunia seperti manusia. Ia tidak bisa membuat sesuatu ketika bahannya tidak ada.
Misalnya, ketika AI diminta untuk membuat silsilah sebuah keluarga yang datanya tidak ada di internet, maka AI tidak akan bisa melakukannya karena datanya tidak ada.
AGI berbeda. AGI berarti sistem yang bisa belajar hal baru secara mandiri, memahami konteks lintas domain, beradaptasi pada situasi yang benar-benar baru, dan mentransfer pengetahuan seperti manusia. Bukan sekadar tahu banyak, tapi bisa belajar apa saja. Perbedaannya bukan kuantitas kecerdasan, tapi jenis kecerdasannya.
Saking dianggap hebatnya AGI, bahkan dalam struktur awal kerja sama OpenAI–Microsoft, ada konsep bahwa hak komersial tertentu hanya berlaku sampai titik AGI tercapai. Ini menunjukkan bahwa bahkan pelaku industri pun memandang AGI sebagai kategori yang berbeda secara fundamental.
Namun belakangan, banyak pemikir di balik teknologi itu sendiri mulai melihat kembali ide ini dengan lebih realistis dan berhati-hati. Mereka melihat bahwa AGI bukan sekadar masalah besar vs kecil, atau lebih banyak data vs lebih banyak parameter — melainkan sebuah tantangan fundamental yang mungkin tidak sesederhana yang tampak.

Ilya Sutskever dan Pendapatnya Soal AGI
Salah satu orang yang sering muncul dalam diskusi ini adalah Ilya Sutskever. Ia bukan sekadar peneliti AI biasa. Sutskever adalah ilmuwan komputer kelahiran 1986 yang menjadi salah satu co-founder dan mantan Chief Scientist OpenAI, organisasi yang berada di balik ChatGPT. Sebelum itu, ia terlibat dalam sejumlah penelitian penting di Google Brain dan kontribusinya muncul dalam banyak algoritma dasar yang menjadi pondasi pembelajaran mendalam.
Setelah keluar dari OpenAI, Sutskever mendirikan Safe Superintelligence Inc. (SSI), sebuah perusahaan yang fokus pada pengembangan kecerdasan buatan tingkat lanjut dengan penekanan kuat pada aspek keselamatan dan keamanan superintelligence — sebuah arah yang konsisten dengan pandangannya bahwa jika AGI dikejar, itu harus dilakukan secara bertanggung jawab.
Argumen Sutskever: Scaling Saja Tidak Cukup
Selama satu dekade terakhir, strategi utama di AI adalah scaling: model diperbesar, data diperbanyak, komputasi ditingkatkan. Pendekatan ini memang menghasilkan lompatan besar.
Namun menurut Sutskever, pendekatan “lebih besar = lebih pintar” mulai menunjukkan tanda-tanda batas. Ia menyebut bahwa era scaling laws sebagai jalur utama menuju AGI mungkin sudah mendekati diminishing returns.
Model yang lebih besar memang lebih fasih, lebih akurat, dan lebih impresif. Tapi itu tidak otomatis berarti lebih memahami dunia.
Dengan kata lain: kita bisa membuat AI yang semakin bagus menjawab, tapi belum tentu semakin dekat ke kecerdasan umum.
Ini pergeseran penting. AGI bukan sekadar model raksasa. Ia kemungkinan membutuhkan terobosan arsitektur dan cara belajar yang berbeda.
Dari “General Knower” ke “General Learner”
Salah satu analogi Sutskever yang menarik adalah membandingkan model saat ini dengan murid yang menghafal sangat banyak. Ia tahu banyak hal, tapi bisa rapuh ketika konteks berubah.
Model hari ini adalah general knower — tahu banyak pola. Sementara AGI harus menjadi general learner — bisa belajar apa saja.
AGI, dalam pandangan Sutskever, harus mampu belajar dari pengalaman terbatas, membangun model dunia sendiri, memahami sebab-akibat, dan terus belajar secara otonom. Ini lebih mirip cara anak kecil belajar daripada cara mesin menghafal data. Dan inilah lompatan yang menurut Sutskever belum dapat tercapai dalam waktu dekat. Artinya, AGI harus bisa bertindak di dunia nyata, membuat keputusan, dan memperbarui pemahamannya secara dinamis — bukan sekadar memprediksi kata berikutnya.
Value Function dan Alignment adalah Pondasi
Sutskever juga menekankan bahwa kecerdasan tanpa arah bisa berbahaya. Karena itu, ia banyak bicara tentang pentingnya value function — semacam kompas nilai yang membimbing bagaimana AI belajar dan bertindak.
Dalam pandangannya, keamanan dan keselarasan seharusnya bukan sekadar tambahan di atas model yang sudah canggih. Sebaliknya, keduanya harus dibangun ke dalam tujuan pembelajaran dari AI itu sendiri. Karena bagi Sutskever, AGI yang tidak memiliki kerangka nilai yang solid berisiko menimbulkan perilaku yang tidak diinginkan — terutama jika dapat bertindak secara otonom di dunia.
Oleh karena itu, lompatan selanjutnya dalam AI bukan hanya tentang penalaran dan pembelajaran, tetapi juga tentang arsitektur motivasi yang mengarahkan pembelajaran dengan aman dan andal.
Timeline: Paling Cepat 5 tahun, tapi Bisa 20 Tahun Lagi
Dari berbagai wawancara dan interpretasi pandangannya, Sutskever cenderung menempatkan AGI pada horizon 5–20 tahun sebagai estimasi yang realistis.
Artinya, AGI bukan sesuatu yang otomatis muncul dari dua atau tiga generasi model berikutnya. Ia membutuhkan lompatan konseptual.
Ini penting untuk meredakan ekspektasi publik yang sering terlalu cepat.
Apakah AGI adalah "Garis Finish"?
AGI mungkin suatu hari akan datang. Tapi ia bukan garis finish dekat yang tinggal ditunggu. Ia adalah tantangan ilmiah besar yang masih mencari bentuk. Sementara itu, transformasi akibat AI sudah berlangsung — tanpa perlu menunggu kecerdasan setara manusia.
AI yang ada hari ini sudah meningkatkan produktivitas, mempercepat analisis, membantu pengambilan keputusan, hingga mengotomasi banyak proses. Artinya, nilai ekonomi AI tidak menunggu AGI harus tercapai terlebih dahulu.
Dan mungkin pelajaran terpentingnya sederhana:
masa depan AI tidak ditentukan oleh seberapa dekat kita ke AGI, tapi seberapa cerdas kita memanfaatkan AI yang sudah ada hari ini.
Sering kali, teknologi yang paling berdampak bukan yang paling spektakuler, tapi yang paling bisa diterapkan.
Internet mengubah dunia bukan karena satu momen revolusioner, tapi karena adopsi bertahap di banyak sektor.
Karena pada akhirnya, nilai teknologi tidak diukur dari potensinya, tapi dari dampak nyatanya. Dan AI kemungkinan besar mengikuti pola yang sama.


