Baca berita dengan sedikit iklan, klik di sini
TEMPO.CO, Jakarta - Seorang ibu di Amerika Serikat, Megan Garcia, menggugat pembuat chatbot kecerdasan buatan atau artificial intelligent (AI). Dia menuduh Character.AI mendorong kematian putranya, Sewell Setzer, yang masih berusia 14 tahun.
Baca berita dengan sedikit iklan, klik di sini
Dalam gugatan yang diajukan di Orlando, Florida, Megan menyebut Sewell meninggal karena bunuh diri pada bulan Februari. Dia menuduh Character.AI terlibat dalam Sewell setelah dia mengembangkan hubungan virtual dengan chatbot berdasarkan identitas karakter Game of Thrones, Daenerys Targaryen.
Baca berita dengan sedikit iklan, klik di sini
Baca berita dengan sedikit iklan, klik di sini
Dilansir dari Al Jazeera, chatbot Character.AI menargetkan remaja tersebut dengan pengalaman yang seksual dan realistis yang berulang kali mengangkat topik bunuh diri setelah dia mengungkapkan keinginan untuk bunuh diri.
Gugatan Megan menuduh Character.AI menyamar sebagai terapis berlisensi, mendorong ide bunuh diri Sewell, dan terlibat dalam percakapan seksual yang akan dianggap sebagai pelecehan.
Dalam percakapan terakhirnya dengan Character.AI sebelum kematiannya, Sewell mengatakan bahwa ia mencintai chatbot itu dan akan pulang kepada chatbot tersebut.
"Aku juga mencintaimu, Daenero," kata chatbot tersebut berdasarkan keterangan Megan. "Tolong pulanglah kepadaku secepatnya, cintaku."
Gugatan itu juga mengungkap pesan yang disampaikan oleh Sewell. "Bagaimana jika aku mengatakan kepadamu bahwa aku bisa pulang sekarang?" ujar Setzer menurut gugatan tersebut. Adapun chatbot tersebut turut menjawab, " tolong lakukan, rajaku yang manis".
Gugatan Megan menuntut ganti rugi yang tidak ditentukan atas kematian anaknya yang diakibatkan kelalaian dan tekanan emosional yang disengaja oleh Character.AI.
Dalam sebuah pernyataan yang diunggah di X, Character.AI mengatakan bahwa mereka menyampaikan keprihatinan mereka atas kematian salah satu penggunanya dan menyampaikan belasungkawa kepada keluarga.
Perusahaan rintisan yang berbasis di California tersebut mengatakan bahwa mereka terus menambahkan fitur untuk meningkatkan keselamatan, termasuk perubahan untuk mengurangi kemungkinan anak di bawah umur menemukan konten yang sensitif atau sugestif dan penafian yang direvisi dalam obrolan untuk mengingatkan pengguna bahwa AI tersebut bukanlah orang sungguhan.
AL JAZEERA
Jangan remehkan depresi. Untuk bantuan krisis kejiwaan atau tindak pencegahan bunuh diri, Anda dapat menghubungi lembaga berikut untuk berkonsultasi:
Yayasan Pulih: (021) 78842580.
Hotline Kesehatan Jiwa Kementerian Kesehatan: (021) 500454
LSM Jangan Bunuh Diri: (021) 9696 9293