Teknologi

AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

AI kini mampu membantu perancangan virus baru, menimbulkan ancaman biosekuriti serius. Simak analisis bahaya, risiko dual-use, dan langkah mitigasi global.

Jakarta · Saturday, 22 November 2025 07:00 WITA · Dibaca: 36
AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

Jakarta, JClarity – Perkembangan pesat dalam bidang Kecerdasan Buatan (AI) telah membuka era baru inovasi, namun bersamaan dengan itu, memunculkan ancaman serius terhadap biosekuriti global. Para ahli kini memperingatkan bahwa model-model AI generatif yang canggih mulai menunjukkan kemampuan untuk mempercepat dan mempermudah perancangan patogen atau virus baru yang berpotensi mematikan. Hal ini memicu perdebatan sengit tentang regulasi dan batas etika penggunaan teknologi mutakhir ini.

Kemampuan AI dalam merancang material biologis baru berakar pada kapasitasnya untuk memproses data genomik dalam jumlah besar, memprediksi struktur protein, dan mengoptimalkan fungsi biologis. Dalam konteks penelitian obat, kemampuan ini krusial untuk menemukan vaksin atau terapi baru. Namun, dengan logika yang sama, algoritma dapat digunakan untuk tujuan sebaliknya: merancang urutan genetik patogen yang lebih virulen, resisten terhadap obat yang ada, atau bahkan menargetkan inang tertentu.

Bahaya terbesar terletak pada aspek 'demokratisasi senjata biologis'. Sebelumnya, merancang patogen memerlukan pengetahuan biologi dan akses laboratorium tingkat tinggi. Kini, AI berpotensi menurunkan 'batas masuk' tersebut, memungkinkan individu atau kelompok dengan niat jahat dan keahlian biologis minimal untuk mengembangkan ancaman biologis yang kompleks. Sebuah laporan dari National Academies of Sciences, Engineering, and Medicine (NASEM) di Amerika Serikat menggarisbawahi risiko dual-use ini, mendesak adanya pengawasan ketat terhadap Large Language Models (LLM) yang dapat memberikan 'resep' untuk sintesis material berbahaya.

Menanggapi ancaman ini, komunitas riset dan pemerintah di seluruh dunia mulai mengambil langkah protektif. Sejumlah pengembang AI terkemuka telah memasang 'pagar pembatas' (guardrails) pada model-model mereka, melarang kueri atau instruksi yang berkaitan dengan pembuatan senjata biologis. Di tingkat internasional, muncul desakan agar Organisasi Kesehatan Dunia (WHO) dan badan-badan keamanan global bekerja sama untuk menetapkan protokol biosekuriti AI yang seragam. Langkah-langkah ini termasuk audit rutin terhadap model AI berkapasitas tinggi dan memperkuat sistem deteksi dini wabah yang tidak wajar.

Di Indonesia sendiri, kesadaran akan risiko ini mendesak pemerintah dan lembaga penelitian untuk memperkuat infrastruktur biosekuriti nasional dan meningkatkan kolaborasi antar disiplin ilmu, khususnya antara pakar AI, biologi, dan keamanan siber. Tantangan ke depan adalah menyeimbangkan inovasi AI yang bermanfaat bagi kesehatan masyarakat dengan kebutuhan mendesak untuk mencegah penyalahgunaannya sebagai alat perancang virus baru. Kehati-hatian dan regulasi adaptif menjadi kunci untuk memastikan bahwa AI tetap menjadi alat penyelamat, bukan ancaman global baru.

Login IG