Menilai Keandalan Deep Research OpenAI dalam Dunia Penelitian
Catatan: Artikel ini adalah opini pribadi penulis dan tidak mencerminkan pandangan Redaksi PANGKEP NEWS.
Di era digital saat ini, beragam penawaran penggunaan artificial intelligence (AI) untuk keperluan akademis sering muncul di media sosial. Penggunaan ini berkisar dari aplikasi praktis seperti belajar bahasa asing, statistik, serta analisis data penelitian hingga produksi pengetahuan konseptual, misalnya penulisan buku dan penelitian mendalam.
Janji-janji yang ditawarkan cukup menggoda: hasil yang cepat, proses yang mudah, dan biaya yang rendah. AI semakin diandalkan sebagai asisten akademik. Namun, ini bisa menjadi kabar yang menggelisahkan bagi bidang yang bertugas mengembangkan kecerdasan manusia.
Baru-baru ini, OpenAI yang terkenal dengan ChatGPT-nya, memperkenalkan Deep Research, sebuah alat yang mereka sebut sebagai agen yang dapat mensintesis informasi daring dalam jumlah besar dan menyelesaikan tugas penelitian multi-langkah untuk Anda. Saat ini tersedia untuk pengguna Pro, dan akan segera diperluas ke pengguna Plus dan Tim.
Menariknya, alat ini disebut sebagai agen, yang dalam konsep sosiologis mengacu pada kemampuan individu untuk bertindak mandiri, dengan pilihan yang mempengaruhi nasib mereka sendiri dalam struktur sosial yang mereka huni.
Deep Research bertindak seolah-olah seperti anggota masyarakat dalam struktur sosial. Artinya, semua hasil pengembangan perangkat berbasis AI ini diharapkan dapat mengambil alih profesi peneliti yang selama ini dilakukan oleh manusia. Seberapa andal kah alat ini?
Menurut laporan dari The Economist edisi 3 Februari 2025, artikel berjudul “The Danger of Relying on OpenAI’s Deep Research” menyuguhkan berbagai pandangan akademisi yang telah menguji perangkat ini. Ada yang menyambutnya dengan antusias, namun ada pula yang skeptis.
Ethan Mollick dari University of Pennsylvania merasa senang dengan Deep Research yang dapat menghasilkan makalah tentang topik apa pun dalam hitungan menit. Banyak akademisi lain sependapat dengannya: sangat bermanfaat.
Hanya dengan mengajukan pertanyaan tentang topik yang sedang diteliti, makalah dapat diperoleh dengan cepat. Kevin Bryan dari University of Toronto menambahkan bahwa Deep Research dapat diandalkan untuk menghasilkan jurnal tingkat B hanya dalam satu hari pengerjaan.
Tyler Cowen, ekonom dari George Mason University, juga menyampaikan kepuasan. Cowen menyebut kualitas perangkat AI ini setara dengan memiliki asisten penelitian bergelar PhD, yang dapat menghasilkan penelitian berkualitas dalam satu hingga dua minggu.
Namun, pujian tersebut tidak menghilangkan rasa skeptis di kalangan peneliti. Termasuk Cowen yang mencoba meneliti keandalan alat baru ini. Dalam deskripsinya, Deep Research tidak dapat menjalankan penelitian primer atau mengatur jajak pendapat, dan juga tidak dapat merasakan bahasa tubuh CEO yang memimpin perusahaan baru.
Masalah lain yang muncul adalah tiga isu utama: kreativitas data, tirani mayoritas, dan jalan pintas intelektual. Dua masalah pertama melekat pada perangkat AI ini, sedangkan yang ketiga lebih mempengaruhi peneliti sebagai pengguna.
Pertama, ketika Deep Research mendapatkan pertanyaan seperti “angka pengangguran di negara tertentu pada tahun tertentu”, jawabannya cepat dan memuaskan. Namun, jika pertanyaan lebih kompleks, seperti “jumlah pengeluaran untuk transportasi dari keluarga berusia 25-35 tahun di Amerika”, perangkat ini tidak memberikan jawaban yang memadai. Kreativitas data menjadi penghalang bagi Deep Research untuk memberikan jawaban yang diharapkan.
Kedua, tirani mayoritas terjadi ketika Deep Research cenderung menggunakan data dari sumber yang paling sering diakses publik, seperti media populer dan diskusi di media digital. Informasi yang disediakan berasal dari ide-ide yang umum, bukan yang terbaik, sehingga kualitas penelitian bisa terancam.
Ketiga, jalan pintas intelektual terjadi ketika Deep Research dapat menyusun penelitian berdasarkan prompt dari peneliti hingga selesai dalam bentuk laporan. Ini mengurangi beban kerja peneliti, namun ada risiko bahwa intelektualitas mereka tidak berkembang.
Proses merancang, meneliti, dan menulis laporan adalah bentuk berpikir. Peneliti yang berhenti melakukan aktivitas tersebut mengundang kebodohannya sendiri. Kepekaan terhadap gejala, kemampuan membedakan nuansa, dan intuisi dalam menganalisis data tidak lagi terasah, mengakibatkan stagnasi intelektual.
Hal lain yang perlu dipikirkan adalah fenomena ‘kolam keruh’ yang terjadi ketika AI semakin dominan dalam penelitian. Bayangkan kolam yang diisi oleh material terstruktur seperti ikan dan tumbuhan yang bermanfaat, serta material tak terstruktur seperti lumpur dan virus. Keduanya tidak sepenuhnya bisa dipisahkan.
Dalam ekosistem yang seimbang, ikan dan tumbuhan berkembang sesuai harapan. Namun, tanpa adanya materi baru, siklus ini hanya menghasilkan kekeruhan. Demikian pula, kecerdasan AI bersumber dari data terstruktur dan tak terstruktur. Data ini diolah melalui machine learning dan deep learning menjadi produk kecerdasan.
Prediksi, rekomendasi, dan agen kecerdasan ini dimanfaatkan pengguna untuk mendapatkan hasil penelitian berkualitas. Laporan penelitian kemudian dipublikasikan dan menjadi data bagi AI lainnya, termasuk Deep Research, yang kemudian dianalisis dan diolah kembali.
Contohnya, penelitian mengenai dampak media sosial pada kelompok usia muda yang menyimpulkan bahwa mereka yang terpapar unggahan media sosial secara intensif rentan mengalami depresi. Riset ini dipublikasikan dan menjadi data bagi AI untuk diolah menjadi pengetahuan.
Penelitian sejenis yang menggunakan Deep Research mungkin akan mendapatkan jawaban serupa: media sosial mempengaruhi depresi pada kelompok muda. Namun, data tak terstruktur yang menyertai hasil penelitian ini dapat mengantar pada kesalahan yang tidak disadari.
Ini menimbulkan siklus: (ambil data(A)-publikasi data(A))- (ambil data(A’) dari Deep Research1- publikasi(A’))- (ambil data (A”) dari Deep Research2-publikasi (A”)), dan seterusnya. Pengambilan data dari tempat yang sama menghasilkan hasil serupa dan akumulasi kesalahan yang tidak disadari, karena tidak ada input data baru.
Jika penelitian dan kehidupan makro semakin didominasi AI, sumber data dan pengetahuan berada dalam siklus tanpa pembaruan. Material yang dihasilkan masuk kembali menjadi material produksi, hanya menghasilkan kecerdasan yang semakin keruh.
Akankah kekeruhan ini menjadi masa depan kita bersama AI? Ataukah kita harus memutus siklus ini dengan produksi data baru, yang berarti pengetahuan baru hasil pemikiran alamiah manusia?