Baca berita dengan sedikit iklan, klik di sini
TEMPO.CO, Jakarta - Apple berencana memeriksa setiap arsip foto dalam iPhone dan iCloud untuk mencegah praktik-praktik eksploitasi atau kekerasan terhadap anak. Sistem baru ini memang dapat membantu penegakan hukum dalam investigasi kriminal, tapi di sisi lain dapat membuka pintu bertambahnya tuntutan hukum dan pemerintah karena 'mengobok-obok' data pribadi pengguna.
Baca berita dengan sedikit iklan, klik di sini
Sistem yang disebut neuralMatch itu pertama kali dilaporkan oleh Financial Times, dan akan secara proaktif memperingatkan tim peninjau kemanusiaan jika diyakini didapati foto-foto yang ilegal. “Kemudian akan menghubungi penegak hukum jika materi dapat diverifikasi," tulis laporan itu, Kamis, 5 Agustus 2021.
Baca berita dengan sedikit iklan, klik di sini
Baca berita dengan sedikit iklan, klik di sini
Sistem neuralMatch dilatih menggunakan 200.000 gambar dari National Center for Missing & Exploited Children, dan akan diluncurkan pertama kali di Amerika Serikat. Foto akan dibandingkan dengan database gambar pelecehan seksual anak yang diketahui tersebut.
Menurut orang-orang yang diberi pengarahan tentang rencana tersebut, setiap foto yang diunggah ke iCloud di Amerika Serikat akan diberikan voucher keamanan. “Begitu sejumlah foto ditandai sebagai tersangka, Apple akan mengaktifkan semua foto yang dicurigai untuk dideskripsi dan, jika tampaknya ilegal, diteruskan ke otoritas terkait."
Profesor dan kriptografer Johns Hopkins University, Matthew Green, menyuarakan keprihatinan tentang sistem tersebut di Twitter pada Rabu malam, 4 Agustus 2021. Menurutnya, alat semacam itu bisa menjadi keuntungan untuk menemukan pornografi anak di ponsel pengguna.
“Tapi bayangkan apa yang bisa dilakukannya di tangan pemerintah yang otoriter?” ujar Green mempertanyakan.
Bahkan, Green menambahkan, jika pengguna yakin Apple tidak akan membiarkan alat ini disalahgunakan, masih banyak yang harus dikhawatirkan. “Sistem ini mengandalkan basisdata media bermasalah yang tidak dapat Anda tinjau sebagai konsumen,” katanya lagi.
Apple sudah memeriksa file iCloud terhadap gambar-gambar pelecehan anak yang diketahui, seperti setiap penyedia cloud utama lainnya. Tetapi sistem yang dijelaskan di sini akan melangkah lebih jauh, memungkinkan akses pusat ke penyimpanan lokal.
Ini juga akan menjadi hal yang sepele untuk memperluas sistem kejahatan selain pelecehan anak. “Perusahaan memberitahu beberapa akademisi Amerika tentang hal itu pekan ini, dan Apple mungkin berbagi lebih banyak tentang sistem secepatnya dalam pekan ini juga,” tutur peneliti yang tidak disebutkan namanya dan sudah diberi pengarahan tentang pertemuan Apple sebelumnya.
Apple sebelumnya telah menggembar-gemborkan perlindungan privasi yang dibangun ke dalam perangkatnya. Apple juga pernah menentang FBI ketika agensi tersebut ingin Apple membangun pintu belakang ke iOS untuk mengakses iPhone yang digunakan oleh salah satu penembak dalam serangan 2015 di San Bernardino. Namun, perusahaan tidak menanggapi permintaan komentar atas laporan Financial Times yang terbaru sekarang ini.
THE VERGE | FINANCIAL TIMES