Teknologi

AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

AI generatif yang awalnya untuk obat, kini dikhawatirkan mampu merancang cetak biru virus baru. Simak risiko biosekuriti global, bahayanya, dan upaya mitigasinya.

JAKARTA · Wednesday, 29 October 2025 09:00 WITA · Dibaca: 48
AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

JAKARTA, JClarity – Kecerdasan Buatan (AI), teknologi yang digadang-gadang sebagai penyelamat dalam penemuan obat dan pandemi, kini menimbulkan dilema etika dan ancaman biosekuriti yang serius. Kekhawatiran terbaru yang mendominasi diskusi global adalah kemampuan AI, khususnya model generatif canggih, untuk merancang cetak biru (blueprint) virus, bakteri, dan patogen baru yang berpotensi mematikan. Kemampuan AI untuk berpindah dari mengidentifikasi obat menjadi merancang senjata biologis menuntut perhatian dan regulasi segera dari seluruh dunia.

Inti dari kemampuan yang mengkhawatirkan ini terletak pada model Machine Learning yang awalnya dilatih untuk mengidentifikasi, memprediksi struktur, dan mengoptimalkan molekul untuk tujuan medis. Model yang sama—yang mempercepat pengembangan vaksin dan obat—dapat digunakan secara terbalik (dual-use) untuk menghasilkan urutan DNA atau protein yang mengarah pada patogen yang lebih menular, lebih mematikan (virulen), atau resisten terhadap pengobatan yang sudah ada. Para peneliti biosekuriti telah menunjukkan secara hipotetis bagaimana AI dapat mempersingkat proses desain senjata biologis dari hitungan tahun menjadi hitungan hari atau bahkan jam.

Lalu, seberapa bahaya ancaman ini? Pakar biosekuriti global sepakat bahwa risiko utama AI adalah sebagai 'akselerator ancaman'. Meskipun AI belum dapat menciptakan virus secara fisik—proses itu masih membutuhkan sintesis DNA dan kerja laboratorium—kontribusi AI dalam menyediakan 'resep' yang optimal secara cepat menurunkan ambang batas (barrier to entry) bagi aktor jahat. Bukan hanya negara dengan program senjata biologis yang canggih, tetapi juga kelompok teroris atau individu tunggal yang terampil, kini berpotiko memiliki alat untuk merancang patogen yang kompleks tanpa perlu keahlian biologi yang mendalam.

Kekhawatiran semakin meningkat dengan munculnya Large Language Models (LLM) yang sangat kuat. LLM dapat diinstruksikan untuk mencari dan menyusun protokol laboratorium yang diperlukan, membuat proses sintesis patogen menjadi lebih mudah diakses oleh non-ahli. Kombinasi AI generatif untuk desain dan LLM untuk panduan teknis menciptakan konvergensi teknologi yang berpotensi memicu krisis biologi buatan manusia jika tidak dikelola dengan hati-hati.

Menanggapi potensi bencana ini, komunitas ilmiah dan pembuat kebijakan mendesak tata kelola AI yang ketat. Langkah-langkah mitigasi yang diusulkan mencakup penerapan 'red-teaming' (pengujian keamanan) pada semua model AI yang berkaitan dengan biologi sebelum dirilis, penguatan penyaringan pesanan pada perusahaan sintesis DNA komersial, dan pembentukan perjanjian internasional yang mengikat untuk memastikan model AI canggih tidak disalahgunakan untuk tujuan biologis berbahaya. Tanpa tindakan tegas, janji kemajuan AI dalam bioteknologi dapat dengan cepat berubah menjadi ancaman eksistensial bagi kemanusiaan.

Login IG