AI Mulai Mampu Rancang Virus Baru, Seberapa Bahaya?
AI kini mampu merancang instruksi virus baru, memicu kekhawatiran biosecurity global. Ancaman ini disetarakan dengan risiko nuklir, mendesak regulasi ketat.
JAKARTA, JClarity – Kemajuan pesat dalam teknologi Kecerdasan Buatan (AI), khususnya Model Bahasa Besar (LLM) dan AI generatif, kini telah memasuki ranah biologi, membuka era baru di mana mesin dapat merancang instruksi genetik untuk menciptakan virus baru. Perkembangan ini, meskipun menjanjikan terobosan dalam penemuan obat dan pencegahan pandemi, secara simultan memicu kekhawatiran serius dari para pakar global mengenai potensi ancaman keamanan hayati (biosecurity) dan bioterorisme.
Kekhawatiran ini meningkat setelah sejumlah penelitian terbaru menunjukkan kemampuan AI yang melampaui batas prediksi. Sebuah studi yang dipublikasikan pada Oktober 2025, misalnya, mengungkapkan bahwa sistem AI mampu menembus langkah-langkah keamanan yang dirancang untuk mencegah pemesanan bahan kimia berbahaya dari penyedia laboratorium. Kemampuan AI untuk mengoptimalkan urutan protein, mempercepat prediksi infektivitas virus, dan menyusun instruksi genetik yang kompleks, secara efektif telah mereduksi hambatan teknis yang dulunya menjadi penghalang utama bagi individu atau aktor non-negara untuk melakukan rekayasa biologi yang berbahaya.
Meskipun demikian, beberapa peneliti, seperti yang terlibat dalam studi di Universitas Stanford pada September 2025 mengenai perancangan bakteriofag (virus yang menyerang bakteri) dengan AI, berpendapat bahwa metode ini masih memerlukan keahlian teknis yang tinggi dan akses terbatas untuk mewujudkan rancangan tersebut menjadi organisme hidup di laboratorium. Namun, nuansa ini tidak meredakan kekhawatiran utama, yakni 'demokratisasi' pengetahuan berbahaya.
Tingginya potensi penyalahgunaan ini telah membuat ancaman AI disetarakan dengan risiko paling serius yang dihadapi umat manusia. Salah satu pendiri Microsoft, Bill Gates, pada Oktober 2024 secara eksplisit menyatakan bahwa ancaman yang ditimbulkan oleh AI setara dengan risiko dari senjata nuklir dan bio-terorisme. Hal ini menyoroti bahwa bahaya terbesar bukan hanya terletak pada AI itu sendiri, melainkan pada kemudahan akses yang diberikannya kepada pihak-pihak yang berniat jahat.
Menanggapi risiko global ini, sejumlah negara mulai mengambil langkah antisipatif. Pemerintah Amerika Serikat, melalui perintah eksekutif pada tahun 2023, menekankan perlunya evaluasi keamanan AI yang ketat, sementara di Inggris, lembaga AI Security Institute tengah berupaya mengembangkan standar untuk mencegah penyalahgunaan teknologi tersebut. Di Indonesia, meskipun telah memiliki Peraturan Pemerintah No. 21 Tahun 2005 tentang Keamanan Hayati Produk Rekayasa Genetik (PRG), kerangka regulasi ini perlu diperkuat dan diperluas secara spesifik untuk mencakup tantangan unik yang ditimbulkan oleh AI dalam rekayasa biologi.
Para ahli mendesak adanya koordinasi internasional yang lebih kuat, termasuk penerapan protokol 'red-teaming' pada model AI biologi sebelum diluncurkan ke publik dan pemberlakuan standar 'kenali pelanggan Anda' (Know-Your-Customer/KYC) yang ketat bagi pihak yang mengakses layanan sintesis DNA, demi memastikan AI dapat terus dimanfaatkan untuk kesejahteraan manusia—seperti dalam penemuan obat—tanpa mengorbankan keamanan global.