Baca berita dengan sedikit iklan, klik di sini

newsletter

CekFakta #279 Mengenal "Halusinasi" AI Generatif

Mengenal "Halusinasi" AI Generatif, Ketika Kecerdasan Buatan 'Gagal Paham'

27 September 2024 | 19.34 WIB

Image of Tempo
Perbesar

Baca berita dengan sedikit iklan, klik di sini

Halo, pembaca nawala Cek Fakta Tempo!

Baca berita dengan sedikit iklan, klik di sini

Anda mungkin sudah familiar dengan mesin percakapan AI generatif untuk memudahkan pekerjaan. Tapi, pernahkah Anda mencoba menanyakan nama sendiri dan mengecek hasil jawabannya?

Baca berita dengan sedikit iklan, klik di sini

Seorang jurnalis di Jerman bernama Martin Bernklau, pernah mengetikkan namanya dan kota liputannya ke dalam Copilot buatan Microsoft. Ia penasaran bagaimana karya-karya jurnalistiknya disedot oleh chatbot. Namun hasilnya ia malah disebut sebagai pelarian dari institusi psikiatri, pelaku pelecehan anak yang telah dihukum, dan seorang penipu yang memangsa janda. Kok bisa?

Apakah Anda menerima nawala ini dari teman dan bukan dari e-mail Tempo? Daftarkan surel di sini untuk berlangganan.

Bagian ini ditulis oleh Artika Rachmi Farmita dari Tim Cek Fakta Tempo

Mengenal “Halusinasi” AI Generatif, Ketika Kecerdasan Buatan ‘Gagal Paham’

Selama bertahun-tahun, Martin Bernklau bertugas sebagai jurnalis pos pengadilan. Chatbot AI Copilot buatan Microsoft, ternyata ‘gagal paham’ alias keliru mengkaitkan dirinya dengan kasus-kasus kejahatan yang persidangannya pernah ia liput.

Apa yang menimpa Bernklau adalah contoh dari “halusinasi” AI generatif. Halusinasi ini adalah respons yang tidak akurat atau tidak masuk akal terhadap perintah yang diberikan oleh pengguna, dan ini kerap terjadi. Siapa pun yang mencoba menggunakan AI harus selalu berhati-hati, karena informasi dari sistem seperti ini memerlukan validasi dan verifikasi oleh manusia sebelum kita mempercayainya.

Mengapa ini bisa sering terjadi? Menurut IBM, halusinasi AI adalah fenomena di mana model bahasa besar (Large Language Model/LLM)—sering kali chatbot AI generatif atau alat visi komputer—melihat pola atau objek yang tidak ada atau tidak terlihat oleh pengamat manusia, sehingga menghasilkan output yang tidak masuk akal atau sama sekali tidak akurat. 

Umumnya, kita sebagai pengguna ingin output atau jawaban yang sesuai dengan permintaan dari alat AI generatif. Namun, terkadang algoritma AI menghasilkan output yang tidak berdasarkan data pelatihan, salah diinterpretasi oleh transformer, atau tidak mengikuti pola yang dapat dikenali. Dengan kata lain, AI “berhalusinasi” dalam merespons.

Istilah “halusinasi” mungkin terkesan bertolak belakang, mengingat halusinasi biasanya dikaitkan dengan otak manusia atau hewan, bukan mesin. Akan tetapi dari sudut pandang metaforis, istilah ini secara akurat menggambarkan output tersebut, terutama dalam kasus pengenalan gambar dan pola. “Halusinasi AI” ini mirip seperti manusia yang terkadang seolah-olah sedang melihat sosok di awan atau sebentuk wajah di bulan. 

Kekeliruan akibat “halusinasi AI” bisa berdampak signifikan di dunia nyata. Misalnya, model AI di bidang kesehatan bisa salah mengidentifikasi lesi kulit yang jinak sebagai ganas, yang dapat menyebabkan intervensi medis yang tidak perlu. 

Selain itu, “halusinasi AI” juga dapat memperparah penyebaran misinformasi. Misalnya, jika bot berita yang berhalusinasi menanggapi pertanyaan tentang keadaan darurat yang sedang terjadi dengan informasi yang belum diverifikasi. Jawaban “halusinasi” ini dapat cepat menyebarkan kesalahan yang merusak upaya mitigasi.

Pada tahun 2023, kasus “halusinasi AI” juga pernah dialami pembawa acara radio “Armed American Radio”, Mark Walters, yang mengeksplorasi dan mempromosikan hak kepemilikan senjata di Amerika Serikat. Muasalnya, seorang jurnalis bertanya ke ChatGPT tentang kasus hukum yang melibatkan SAF dan jaksa agung negara bagian Washington. ChatGPT lantas berhalusinasi bahwa Walters digugat oleh Second Amendment Foundation (SAF), sebuah organisasi AS yang mendukung hak senjata, karena melakukan penipuan dan penggelapan dana. 

Walters sebenarnya tidak pernah bekerja untuk SAF dan tidak terlibat dalam kasus antara SAF dan negara bagian Washington. Namun, karena yayasan tersebut memiliki tujuan yang mirip dengan acara Walters, konten teks dalam korpus bahasa membangun korelasi statistik antara Walters dan SAF yang menyebabkan halusinasi tersebut.

Hampir mustahil memperbaiki “halusinasi” ini secara permanen di seluruh korpus bahasa, karena datasetnya amat besar. Setiap artikel, kalimat, dan kata yang termasuk dalam korpus harus diperiksa untuk mengidentifikasi dan menghapus bahasa yang bias. Copilot harus menghapus nama Bernklau sebagai penulis artikel untuk memutuskan hubungan tersebut.

Sistem pemrosesan informasi di balik sistem AI Generatif seperti ChatGPT, Copilot, dan Google Gemini dikenal sebagai jaringan saraf pembelajaran mendalam, yang menggunakan sejumlah besar bahasa manusia untuk “melatih” algoritmanya. Dari data pelatihan tersebut, algoritma ini mempelajari hubungan statistik antara berbagai kata dan seberapa mungkin kata-kata tertentu muncul bersama dalam sebuah teks. 

Data yang digunakan untuk melatih Copilot dan LLM lainnya sangat besar. Meskipun detail ukuran dan komposisi dari korpus Copilot atau ChatGPT tidak diungkapkan secara publik, Copilot menggabungkan seluruh korpus ChatGPT ditambah data tambahan khusus dari Microsoft. Pendahulu ChatGPT 4 — ChatGPT 3 dan 3.5 — diketahui telah menggunakan “ratusan miliar kata.” Copilot didasarkan pada ChatGPT 4, yang menggunakan korpus lebih besar daripada ChatGPT 3 atau 3.5. Meskipun kita tidak tahu persis berapa banyak kata yang digunakan, lompatan antar versi ChatGPT cenderung berlipat ganda. Korpusnya juga mencakup buku, jurnal akademik, dan artikel berita.

Solusinya, Microsoft merancang respons otomatis yang diberikan ketika pengguna menanyakan Copilot tentang kasus Bernklau. Respons tersebut merinci halusinasi tersebut dan mengklarifikasi bahwa Bernklau tidak bersalah atas tuduhan apa pun. Microsoft mengatakan bahwa mereka terus memasukkan umpan balik pengguna dan meluncurkan pembaruan untuk meningkatkan responsnya.

Bagian ini ditulis oleh Inge Klara Safitri dari Tempo Media Lab

Cek Fakta Pilihan

Benarkah Ukraina Dijadikan Alat Ekspansi NATO dan Iran Diperalat Rusia?

Sebuah akun Threads menuliskan klaim bahwa Ukraina dijadikan alat ekspansi oleh Aliansi Negara-negara dari Eropa dan Amerika Utara (NATO). Sedangkan Iran, dijadikan alat pembalasan Rusia. Klaim itu beredar di tengah invasi Rusia ke Ukraina yang masih berlangsung hingga saat ini. 

| Hasil Pemeriksaan Fakta

Tempo membagi klaim menjadi 2 klaim dalam memeriksa konten ini. Pertama, Ukraina Dijadikan Alat Ekspansi NATO. Kedua, Iran Diperalat Rusia.

Waktunya Trivia!

Benarkah Chairul Tanjung Ditangkap?

Sebuah iklan di Instagram membagikan tangkapan layar berita berlogo The Jakarta Post dengan foto Chairul Tanjung ditangkap. Konten itu memuat judul, Chairul Tanjung tidak tahu mikrofon menyala, kami mengucapkan selamat tinggal untuk selamanya. Ini adalah hari yang paling menyedihkan bagi seluruh Indonesia. Foto itu menampakkan Chairul Tanjung memakai rompi tahanan berwarna oranye dengan tangan diborgol dan dikawal oleh petugas kepolisian. 

Ada Apa Pekan Ini?

Dalam sepekan terakhir, klaim yang beredar di media sosial memiliki beragam isu. Buka tautannya ke kanal Cek Fakta Tempo.co untuk membaca hasil periksa fakta berikut:

Kenal seseorang yang tertarik dengan isu disinformasi? Teruskan nawala ini ke surel mereka. Punya kritik, saran, atau sekadar ingin bertukar gagasan? Layangkan ke sini. Ingin mengecek fakta dari informasi atau klaim yang anda terima? Hubungi ChatBot kami.

Ikuti kami di media sosial:

Image of Tempo

Baca berita dengan sedikit iklan, klik di sini

Image of Tempo
Logo Tempo
Unduh aplikasi Tempo
download tempo from appstoredownload tempo from playstore
Ikuti Media Sosial Kami
© 2024 Tempo - Hak Cipta Dilindungi Hukum
Beranda Harian Mingguan Tempo Plus