Teknologi

Duet Monash University dan Polisi Hasilkan AI Penangkal Deepfake

Monash University dan Kepolisian Federal Australia (AFP) berkolaborasi mengembangkan alat AI 'Silverer' untuk menangkal deepfake dan CSAM melalui teknik data poisoning.

Jakarta · Friday, 14 November 2025 06:00 WITA · Dibaca: 38
Duet Monash University dan Polisi Hasilkan AI Penangkal Deepfake

JAKARTA, JClarity – Kolaborasi strategis antara dunia akademis dan penegak hukum di Australia telah membuahkan hasil berupa sistem Kecerdasan Buatan (AI) canggih yang dirancang untuk secara aktif menangkal dan mengganggu produksi konten *deepfake* yang berbahaya. Monash University dan Kepolisian Federal Australia (AFP) meluncurkan sebuah alat prototipe bernama 'Silverer', yang menggunakan teknik 'peracunan data' (*data poisoning*) untuk membalikkan keadaan dalam perang melawan kejahatan yang dihasilkan oleh AI, khususnya materi pelecehan seksual anak (CSAM) yang dibuat secara digital.

Pengembangan ini, yang dilakukan di bawah payung AI for Law Enforcement and Community Safety (AiLECS) Lab, merupakan respons langsung terhadap peningkatan pesat kemampuan kriminal dalam menciptakan gambar dan video *deepfake* yang semakin realistis dan merugikan menggunakan perangkat sumber terbuka (*open source*). Silverer dirancang untuk menyabotase teknologi AI di balik konten berbahaya tersebut dengan menjadikannya lebih sulit untuk menghasilkan, memanipulasi, atau menyalahgunakan citra digital.

Silverer bekerja dengan memberikan 'dosis racun digital' pada tingkat piksel yang sangat halus sebelum gambar diunggah ke internet atau media sosial. Modifikasi kecil ini bertujuan untuk mengelabui model AI generatif yang mencoba menggunakan gambar tersebut untuk pelatihan. Alih-alih menghasilkan citra yang akurat dari korban, model AI tersebut justru akan mereproduksi pola yang terdistorsi, miring, atau benar-benar tidak dapat dikenali dan berkualitas sangat rendah.

Elizabeth Perry, kandidat PhD Monash dan Pimpinan Proyek Silverer, menjelaskan bahwa alat ini dirancang agar mudah digunakan oleh masyarakat umum yang ingin melindungi data pribadi mereka dari penyalahgunaan AI. Menurutnya, tujuan dari peracunan data adalah untuk melindungi gambar agar tidak diubah menjadi konten jahat.

Pihak AFP menyambut baik prototipe ini, yang telah dikembangkan selama 12 bulan terakhir dan sedang diuji untuk potensi penggunaan internal. Komandan AFP, Rob Nelson, menyatakan bahwa teknologi seperti Silverer memiliki potensi besar dalam memerangi penyalahgunaan AI untuk tujuan jahat, serta dapat membantu penyelidik dengan mengurangi volume materi palsu yang harus mereka tinjau. Fokus utama AiLECS Lab, yang didanai melalui Federal Government Confiscated Assets Account milik AFP, adalah untuk melawan eksploitasi anak daring, sekaligus melindungi pengguna dari penipuan identitas dan *scam* investasi berbasis *deepfake* yang merajalela.

Login IG