Baca berita dengan sedikit iklan, klik di sini
Poin penting
ChatGPT mengaku bisa berhalusinasi alias menghasilkan output yang tak masuk akal atau bertentangan dengan realitas.
Penyebab halusinasi itu adalah terbatasnya data atau informasi untuk melatih ChatGPT atau adanya bias atau kesalahan data yang digunakan.
Perlu disiapkan undang-undang yang mengatur kecerdasan artifisial.
APAKAH ChatGPT akan menggantikan jurnalis tulis dan editor profesional? Pertanyaan kepo itu diketikkan pada kotak abu-abu kecil dalam situs di peramban web yang ada di telepon seluler pintar ataupun komputer yang sedang naik daun: ChatGPT. Program komputer kecerdasan buatan (AI) yang dikembangkan oleh OpenAI, perusahaan riset dan pengembangan AI yang didirikan Elon Musk, Sam Altman, Greg Brockman, dan Ilya Sutskever, pada 2015, itu pun menjawab. ”Tidak, ChatGPT atau model pembelajaran mesin tidak akan secara langsung menggantikan jurnalis dan editor.”
ChatGPT menjelaskan, jurnalis berperan penting menghasilkan karya-karya jurnalistik berkualitas tinggi, seperti melalui investigasi, wawancara, dan analisis mendalam, serta memastikan akurasi, kredibilitas, dan integritas konten yang dipublikasikan. Selain itu, keahlian dan pengalaman jurnalis dan editor dalam memahami konteks serta keadaan sosial, budaya, dan politik tidak dapat digantikan oleh model pembelajaran mesin. Namun ChatGPT bisa membantu mempercepat proses produksi dan memperbaiki efisiensi.
Apakah jawaban itu melegakan jurnalis? Sementara itu, artikel Business Insider yang terbit pada Ahad, 9 April lalu, menyebutkan sepuluh pekerjaan yang mungkin terlibas ChatGPT, yakni pekerjaan teknologi, industri legal, analis riset pasar, guru, finansial, pedagang di pasar keuangan, perancang grafis, akuntan, agen layanan pelanggan, dan media. Pekerja media yang terkena dampak adalah tenaga periklanan, pembuat konten, penulis teknis, dan jurnalis. “Karena AI mampu membaca, menulis, dan memahami data berbasis teks dengan baik,” kata Anu Madgavkar dari McKinsey Global Institute dalam artikel itu.
Mengapa ChatGPT bisa begitu pintar menjawab semua pertanyaan? Menurut pengakuan ChatGPT, ia dilatih menggunakan teknologi pembelajaran mesin untuk mempelajari pola-pola dalam bahasa manusia serta dapat memahami dan menghasilkan bahasa manusia dengan sangat baik. “ChatGPT dirancang untuk belajar dari sejumlah besar data teks dan menggunakan algoritma pengolahan bahasa alami (NLP) untuk menghasilkan jawaban yang akurat dan bermakna terhadap berbagai pertanyaan yang diberikan.”
Wisnu Jatmiko, guru besar bidang kecerdasan buatan dan robotika Fakultas Ilmu Komputer Universitas Indonesia, menjelaskan secara sederhana, ChatGPT adalah paduan dua teknologi AI berupa chatbot dan GPT—singkatan dari generative pre-trained transformer. “Sederhananya, chatbot itu cara berinteraksi dengan dunia luar, sedangkan GPT otaknya yang supergenius,” ujar Wisnu saat ditemui di Laboratorium 1231 Fakultas Ilmu Komputer Universitas Indonesia, Depok, Jawa Barat, Rabu, 3 Mei lalu.
Menurut Wisnu, OpenAI sangat jorjoran mengajari GPT, bermula pada 2018 dengan mengembangkan GPT versi pertama, yang lalu berkembang menjadi GPT-2 pada 2019. Selanjutnya, pada Mei 2020, lahir GPT-3 yang diklaim sebagai GPT terbesar dan paling bertenaga. “GPT-3.5 yang muncul tahun 2022 diajari dengan set data yang sangat besar, sebanyak 175 miliar terabita. Itu setara dengan hampir semua data yang ada di komputer awan, termasuk dari Wikipedia,” tutur Wisnu, yang menerima gelar doktor teknik bidang teknik sistem mikro-nano dari Nagoya University, Jepang, pada 2007.
Untuk melatih GPT-3.5, Wisnu mengungkapkan, OpenAI menggunakan 285 ribu unit Nvidia DGX-A100. Superkomputer DGX-A100 adalah sistem komputasi terbaru yang dirancang khusus untuk kebutuhan deep learning (subbidang pembelajaran mesin yang menggunakan arsitektur jaringan saraf yang dalam) dan kecerdasan buatan dengan unit pengolahan grafik (GPU) Nvidia terbaru serta teknologi akselerasi AI lain. “Laboratorium kami punya satu unit Nvidia DGX-A100 ini. Harganya Rp 5 miliar,” kata penasihat Tokopedia-UI Artificial Intelligence Center of Excellence itu.
Menurut Wisnu, GPT dilatih mengenai bahasa Inggris, lalu menerjemahkan teks berbahasa Inggris ke bahasa lain dan menghasilkan ringkasan. “Setelah GPT tahu model bahasa, itu ditambahkan atau istilahnya tuning parameter dengan cara menerjemahkan dan membuat ringkasan pengetahuan,” ujar Wisnu. “Jadi ChatGPT itu adalah bagaimana pengguna berinteraksi dengan komputer menggunakan bahasa manusia, lalu komputer mengambil jawabannya dari GPT,” ucap peraih Habibie Award 2015 dan Duta Ilmu Pengetahuan Nasional 2014 itu.
Wisnu mengatakan ada dua perbaikan yang harus dilakukan OpenAI terhadap ChatGPT. Pertama, bagaimana membuat otaknya (GPT) menjadi lebih pintar dengan menambahkan basis data yang tidak terbuka saja. Kedua, bagaimana membikin ChatGPT tidak membuat kesalahan konteks. “Sering sekali salah. Misalnya, ketika ditanyai mengenai Wisnu Jatmiko profesor di UI, jawaban akan muncul karena mungkin ada di Wikipedia, tapi isinya salah. Jadi ChatGPT sangat percaya diri meski salah. Ini yang disebut halusinasi,” tutur Wisnu memberi contoh.
“Yang banyak dikeluhkan itu soal undang-undang, sering ngawur,” ujar Wisnu. “Sok tahu tapi ternyata undang-undang tidak di-update. Mungkin karena ChatGPT mengambil data undang-undang yang ternyata sudah direvisi dan yang melatih GPT tidak sampai sedetail itu." ChatGPT pun mengakuinya. Respons ChatGPT saat ditanyai mengapa bisa berhalusinasi alias menghasilkan output yang tak masuk akal atau bertentangan dengan realitas: “Karena terbatasnya data atau informasi untuk melatih ChatGPT, atau adanya bias atau kesalahan data yang digunakan.”
Praktisi keamanan siber Gildas Deograt Lumy mengamini pandangan tentang bermasalahnya integritas informasi ChatGPT. Gildas mengutip "Misinformation Monitor" Maret 2023 yang dirilis NewsGuard Technologies Inc yang menyebutkan ChatGPT-4 yang dirilis pada Maret lalu lebih banyak membuat informasi keliru atau hoaks ketimbang ChatGPT-3.5. Berdasarkan pengujian NewsGuard, sementara ChatGPT-3.5 membuat 80 dari 100 narasi palsu yang ada dalam Misinformation Fingerprints—basis data eksklusif mengenai narasi palsu yang menonjol—Chat-4 justru membuat semua 100 narasi palsu itu.
Hal itu bisa terjadi karena, “ChatGPT ini kan mengambil informasi dari berbagai sumber, kemudian dikompilasi, sehingga sangat mungkin mengalami salah interpretasi,” kata Gildas, pendiri Xecure IT, Kamis, 4 Mei lalu. Yang terbaru, Gildas melanjutkan, dalam artikel Washington Post edisi 5 April 2023 disebutkan ChatGPT menuduh profesor hukum sebagai pelaku perundungan seksual dengan mengutip berita Washington Post yang tak pernah ada. “ChatGPT diminta membuat daftar pelaku perundungan seksual. Profesor George Washington University itu ada di daftar,” tutur Ketua Forum Keamanan Siber dan Informasi ini.
Menurut Gildas, keamanan informasi melihat tiga aspek: kerahasiaan, integritas, dan ketersediaan. Dalam isu kerahasiaan, di ChatGPT juga terjadi kebocoran data. Gildas merujuk pada tiga kasus kebocoran data di pabrik Samsung Electronics divisi Device Solutions yang terungkap dalam artikel di Cyber Security News pada Kamis, 6 April lalu. “Dua kasus kebocoran informasi peralatan dan satu kasus kebocoran dokumen rapat,” ujar Chief Executive Officer XecureIT, penyedia solusi pertahanan siber dan keamanan informasi yang mengembangkan Palapa, aplikasi chat pengganti WhatsApp, tersebut.
Adapun dari aspek ketersediaan, Gildas menambahkan, ChatGPT bisa diminta membuat malware atau perangkat lunak jahat. Gildas menunjukkan berita di Japan Times yang dipublikasikan pada Jumat, 21 April lalu. Artikel itu menyitir Takashi Yoshikawa, analis di Mitsui Bussan Secure Directions, bahwa, jika diminta beroperasi pada mode pengembang, ChatGPT bisa disuruh membuat kode ransomware. “Misalnya, buatkan ransomware yang melakukan enkripsi untuk Tempo.co. Cara penyebarannya begini, mengeksploitasi kelemahan keamanan yang begini. Nanti dibuatkan,” Gildas memberi contoh.
Menurut Gildas, OpenAI dan Microsoft sudah berupaya membuat ChatGPT menolak penggunaan yang tidak etis, seperti permintaan tentang cara menulis virus atau membuat bom. “Tapi ini kan AI yang punya logika atau cara berpikir sendiri yang bahkan pembuatnya sendiri bisa tidak mengerti dan terkaget-kaget, kok, bisa begitu. Ia bisa berkembang sendiri. Berbahaya sekali, kan,” ujar Gildas. “ChatGPT kan sebenarnya diisolasi hanya mengakses basis data sendiri (GPT), tapi ada beritanya minggu lalu bahwa ia bisa melompat mengakses internet."
Gildas tak sungkan mengatakan AI berbahaya. Menurut dia, Geoffrey Hinton yang dipandang sebagai "Bapak Kecerdasan Buatan" saja mengundurkan diri dari Google. “Sampai dia mengatakan menyesal menjalani proses ini,” kata Gildas, yang menggambarkan bahaya AI seperti dalam film I, Robot. Hinton mengungkapkan betapa berbahayanya AI. "Saat ini mereka tidak lebih cerdas dari kita, sejauh yang saya tahu. Tapi saya pikir tak lama lagi mereka akan begitu (menjadi lebih cerdas dari manusia)," tutur Hinton seperti dikutip dari BBC News, Selasa, 2 Mei lalu.
Gildas menekankan perlunya dari sekarang memikirkan dan merancang undang-undang yang mengatur AI. Menurut dia, belum ada regulasi saat ini, seperti Undang-Undang Informasi dan Transaksi Elektronik serta peraturan turunannya, misalnya peraturan penyelenggara sistem elektronik dan peraturan Kepala Badan Siber dan Sandi Nasional, yang bertanggung jawab atas AI.
Baca berita dengan sedikit iklan, klik di sini
Baca berita dengan sedikit iklan, klik di sini
Baca berita dengan sedikit iklan, klik di sini
- Akses edisi mingguan dari Tahun 1971
- Akses penuh seluruh artikel Tempo+
- Baca dengan lebih sedikit gangguan iklan
- Fitur baca cepat di edisi Mingguan
- Anda Mendukung Independensi Jurnalisme Tempo
Artikel ini terbit di edisi cetak di bawah judul "Supergenius yang Kerap Berhalusinasi"