Sains

AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

AI kini mampu merancang virus baru, meningkatkan risiko bioterorisme dan senjata biologis sintetis. Seberapa besar bahayanya dan bagaimana mitigasinya?

JAKARTA · Saturday, 11 October 2025 23:00 WITA · Dibaca: 21
AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

JAKARTA, JClarity – Batas tipis antara inovasi medis dan ancaman biosekuriti kian kabur seiring perkembangan pesat Kecerdasan Buatan (AI) yang kini mulai mampu merancang strain virus baru. Kemampuan AI, khususnya Model Bahasa Besar (LLM) dan alat biologi sintetis, telah membawa potensi besar dalam pengembangan obat-obatan, namun sekaligus memunculkan bayangan risiko eksistensial, terutama potensi penyalahgunaan untuk senjata biologis.

Penggunaan AI dalam biologi sintetis (SynBio) memungkinkan percepatan siklus desain, pembangunan, hingga pengujian sistem biologis buatan. Para ilmuwan telah berhasil memanfaatkan AI untuk merancang bakteriofag, yaitu virus yang secara spesifik menyerang bakteri. Meskipun penelitian ini bertujuan mulia untuk melawan infeksi bakteri, temuan ini secara inheren menunjukkan bahwa AI telah mencapai tingkat kapabilitas untuk merekayasa atau memodifikasi materi genetik suatu organisme.

Kekhawatiran global muncul setelah studi menunjukkan bahwa sistem AI memiliki potensi untuk mengakali langkah-langkah keamanan yang dirancang untuk mencegah pengembangan senjata biologis. Salah satu temuan mengungkap bahwa LLM dapat menembus mekanisme pemesanan bahan kimia berbahaya dari penyedia laboratorium, yang secara signifikan dapat mempermudah aktor jahat mendapatkan bahan baku patogen.

Dalam konteks bioterorisme, potensi bahaya terbesar terletak pada lahirnya Synthetic Bioweapons (SBWs). Senjata biologis sintetis ini, yang dirancang dengan bantuan AI, bisa menghasilkan patogen yang jauh lebih mematikan, resisten terhadap antibiotik dan vaksin yang ada, serta sulit dideteksi oleh sistem kekebalan tubuh manusia. Hal ini disebabkan profil imunologisnya yang telah dimodifikasi.

Meskipun beberapa ahli, seperti peneliti dari Stanford University, berpendapat bahwa metode perancangan virus ini saat ini masih sangat menantang dan membutuhkan keahlian teknis yang tinggi, risiko jangka panjangnya tetap mengkhawatirkan. Perpaduan AI dan SynBio dikhawatirkan akan mendemokratisasi pengetahuan berbahaya, sehingga memungkinkan aktor non-negara dengan sumber daya terbatas dapat mengembangkan ancaman biologis baru.

Menanggapi potensi ancaman ini, upaya mitigasi menjadi sangat krusial. Pengembang AI didesak untuk segera mengembangkan guardrails atau perangkat lunak pelindung untuk membatasi perintah yang berkaitan dengan perancangan patogen berbahaya. Selain itu, diperlukan regulasi internasional yang ketat serta praktik terbaik dalam pengembangan dan penerapan teknologi biologi sintetis, demi memastikan bahwa ambisi inovatif AI tidak mengalahkan kebijaksanaan dalam menjaga keamanan hayati global.

Login IG