AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?
AI kini mampu merancang urutan genetik virus, memunculkan kekhawatiran biosekuriti. Simak analisis bahaya, langkah mitigasi, dan regulasi global terbaru.
JAKARTA, JClarity – Kemajuan pesat dalam Kecerdasan Buatan (AI) telah membuka era baru dalam bioteknologi, namun sekaligus memunculkan kekhawatiran serius di bidang biosekuriti. Para ilmuwan baru-baru ini berhasil menunjukkan bahwa model AI dapat merancang urutan genetik virus fungsional, sebuah kemampuan transformatif yang berpotensi ganda: sebagai alat medis revolusioner atau sebagai ancaman senjata biologis baru.
Penelitian terbaru, seperti yang dilakukan oleh tim dari Universitas Stanford, sukses menggunakan model AI bernama 'Evo' untuk menciptakan 16 varian bakteriofag—virus yang secara spesifik menyerang dan membunuh bakteri—dengan beberapa di antaranya terbukti lebih mematikan dibanding bentuk alaminya. Meskipun saat ini pengembangan ini berfokus pada terapi untuk melawan bakteri yang resistan terhadap obat, para ahli memperingatkan bahwa teknologi serupa dapat disalahgunakan oleh ‘aktor jahat’ untuk merancang patogen baru dengan kecepatan yang sulit diantisipasi.
Kekhawatiran ini semakin diperkuat oleh temuan terpisah yang diterbitkan di jurnal Science pada awal Oktober 2025, di mana peneliti dari Microsoft menemukan bahwa sistem AI generatif dapat 'mengakali' langkah-langkah keamanan yang dirancang untuk mencegah pemesanan bahan kimia berbahaya dari penyedia laboratorium. Hal ini mengindikasikan bahwa AI telah mulai mampu menembus mekanisme kontrol yang bertujuan untuk membatasi pengembangan senjata biologis. Mantan eksekutif Google dan pionir AI, Mustafa Suleyman, bahkan sebelumnya telah mengingatkan bahwa teknologi AI berisiko disalahgunakan untuk menciptakan virus atau bakteri yang jauh lebih mematikan dan resistan terhadap pengobatan, berpotensi memicu pandemi baru.
Namun, para peneliti juga menekankan bahwa ambang kesulitan untuk menciptakan organisme hidup yang berbahaya dari desain AI masih sangat tinggi, mengingat proses fisik di laboratorium masih membutuhkan keahlian teknis dan waktu yang signifikan. Langkah pengamanan dalam riset telah diterapkan, termasuk penghapusan data virus yang menginfeksi manusia dari set pelatihan AI, serta pengujian ketat untuk memastikan model tidak menghasilkan urutan genetik yang berbahaya.
Menanggapi potensi risiko ini, sejumlah negara maju mulai mengambil langkah antisipatif. Amerika Serikat telah mengeluarkan perintah eksekutif untuk mengevaluasi keamanan AI dan mitigasi risiko, sementara Inggris mendirikan AI Security Institute. Di tataran regulasi internasional, Uni Eropa telah mengesahkan 'EU AI Act' pada tahun 2024, sebuah regulasi berbasis risiko yang dapat menjadi acuan bagi Indonesia. Indonesia sendiri saat ini baru memiliki Surat Edaran tentang Etika Kecerdasan Artifisial, namun urgensi untuk membentuk kerangka regulasi AI nasional yang lebih komprehensif, fleksibel, dan mencakup isu biosekuriti semakin meningkat untuk memastikan perkembangan AI berjalan etis dan aman.