Pakar Ungkap Sisi Gelap AI, Bikin Ransomware Cuma 15 Menit
Pakar keamanan siber mengungkapkan AI generatif memungkinkan pembuatan ransomware canggih hanya dalam 15-25 menit, 100x lebih cepat dari metode lama.
JAKARTA, JClarity – Teknologi kecerdasan buatan (AI) yang digadang-gadang sebagai penggerak produktivitas global kini menghadapi sisi gelap yang mengkhawatirkan. Para pakar keamanan siber mengungkapkan bahwa alat AI generatif telah menurunkan "batas masuk" bagi para pelaku kejahatan siber, memungkinkan pembuatan *ransomware* canggih dalam waktu yang sangat singkat, bahkan diperkirakan bisa diselesaikan dalam rentang waktu sekecil 15 hingga 25 menit.
Temuan ini menjadi sorotan utama dalam komunitas keamanan siber global, yang menunjukkan pergeseran drastis dalam lanskap ancaman digital. Berdasarkan simulasi yang dilakukan oleh tim riset Unit 42 dari Palo Alto Networks, AI mampu melakukan serangan *ransomware* penuh hanya dalam 25 menit, sebuah kecepatan yang diklaim 100 kali lebih cepat dibandingkan metode tradisional yang membutuhkan waktu berminggu-minggu atau bahkan berbulan-bulan. Ancaman kecepatan ini sejalan dengan peringatan lain, di mana perusahaan keamanan siber SlashNext dalam laporannya di konferensi Black Hat USA 2025 merinci bagaimana peretas menggunakan AI untuk menciptakan *ransomware* yang sangat efektif dalam menghindari deteksi oleh sebagian besar program antivirus utama.
Zeki Turedi, Field CTO untuk Eropa di CrowdStrike, juga menegaskan bahwa para pelaku kejahatan siber telah memanfaatkan *Large Language Models* (LLM) untuk mengembangkan *malware* dan *ransomware* dalam skala cepat. Kehadiran AI ini memampukan individu dengan sedikit atau tanpa pengalaman *coding* untuk mencoba tangan mereka dalam membangun *malware* yang kompleks.
Salah satu bukti nyata dari ancaman ini adalah penemuan *ransomware* berbasis AI pertama yang diketahui, yang dijuluki **PromptLock** oleh peneliti ESET. *Malware* jenis *proof-of-concept* (PoC) ini menggunakan model bahasa terbuka (open-weight language model) dari OpenAI secara lokal untuk menghasilkan skrip berbahaya secara real-time. Hal ini sangat mengkhawatirkan karena skrip yang dihasilkan bisa bervariasi setiap kali dieksekusi, yang menciptakan tantangan besar bagi sistem keamanan tradisional dalam mengidentifikasi dan memblokir ancaman.
Sementara itu, perusahaan keamanan siber Kaspersky telah berulang kali mengingatkan akan bahaya dari apa yang mereka sebut sebagai **Dark AI**, merujuk pada kecerdasan buatan yang dirancang khusus untuk tujuan kriminal. Contoh-contoh seperti Black Hat GPT, WormGPT, dan FraudGPT menunjukkan bagaimana AI jahat ini dapat memfasilitasi penipuan, peretasan, dan operasi siber otomatis lainnya. Para pakar menekankan bahwa AI berfungsi layaknya pedang bermata dua; membantu pertahanan siber di satu sisi, namun menjadi senjata mematikan bila disalahgunakan oleh kelompok kriminal terorganisir di sisi lain.
Menyikapi perkembangan ini, para ahli mendesak organisasi dan perusahaan untuk segera memperkuat fondasi infrastruktur IT internal mereka dan memajukan strategi pertahanan siber. Pertahanan tidak lagi cukup hanya dengan mengandalkan alat antivirus tradisional; strategi harus bergeser untuk menghadapi *malware* yang mampu beradaptasi dan berubah. Kesadaran akan keamanan siber, pencadangan data secara teratur, dan higienitas digital yang lebih kuat menjadi sangat penting untuk melindungi diri dari gelombang serangan siber berbasis AI di masa depan.