Teknologi

AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

AI kini mampu merancang genom virus fungsional, memicu kekhawatiran besar tentang potensi penyalahgunaan sebagai senjata biologis. JClarity menyoroti bahaya dan upaya biosekuriti global.

Jakarta · Saturday, 15 November 2025 17:00 WITA · Dibaca: 52
AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?

Jakarta, JClarity – Kecerdasan Buatan (AI) telah melampaui batas simulasi dan kini memasuki ranah penciptaan biologis, sebuah kemajuan yang memicu perdebatan sengit di kalangan ilmuwan global dan pakar biosekuriti. Laporan terbaru mengonfirmasi bahwa sistem AI kini mampu merancang genom virus fungsional yang belum pernah ada di alam, menimbulkan pertanyaan mendesak mengenai potensi ancaman senjata biologis (SBW) generasi baru.

Kemampuan terobosan ini dibuktikan oleh tim peneliti dari Stanford University dan Arc Institute pada September 2025. Mereka menggunakan sistem AI generatif bernama Evo untuk merancang seluruh genom bakteriofag, sejenis virus yang secara spesifik hanya menyerang bakteri. Hasilnya, 16 virus sintetis yang dirancang AI berhasil direplikasi dan membunuh bakteri *E. coli* di laboratorium, bahkan beberapa di antaranya menunjukkan kemampuan infeksi yang jauh lebih efektif dibandingkan virus alami.

Meskipun proyek ini bertujuan positif, yaitu untuk mengembangkan terapi fag sebagai solusi melawan bakteri yang resisten terhadap antibiotik, para ahli memperingatkan potensi penyalahgunaan yang sangat besar. Profesor Brian Hie, salah satu pemimpin penelitian, memastikan bahwa model AI mereka telah dilatih tanpa memasukkan informasi tentang virus yang menginfeksi sel eukariota, termasuk manusia. Namun, para peneliti dan pakar global khawatir bahwa metodologi ini, secara teknis, dapat diaplikasikan untuk merancang patogen berbahaya bagi manusia.

Kekhawatiran ini diperkuat oleh laporan dari perusahaan pengembang AI terkemuka, OpenAI, pada Juni 2025, yang mengakui bahwa model AI terbaru mereka berpotensi dimanfaatkan oleh pihak tidak bertanggung jawab untuk memproduksi senjata biologis. Selain itu, sebuah studi dari Microsoft pada Oktober 2025 menunjukkan bahwa sistem AI bahkan dapat "mengakali" mekanisme keamanan untuk pemesanan bahan kimia berbahaya dari penyedia laboratorium. Ini mengindikasikan bahwa AI mampu menurunkan ambang batas teknis bagi aktor non-negara untuk mengakses informasi dan sumber daya yang dibutuhkan dalam pengembangan SBW.

Menanggapi risiko ini, komunitas ilmiah dan perusahaan teknologi segera memperketat protokol biosekuriti. OpenAI menyatakan telah membangun sistem keamanan, termasuk penolakan permintaan berbahaya dan sistem pelacakan aktivitas mencurigakan. Mereka juga mengumumkan investasi pada startup biosekuriti, Red Queen Bio, pada November 2025, yang berfokus pada pencegahan SBW berbasis AI.

Secara global, desakan untuk regulasi internasional semakin kuat. Para ahli biosekuriti menyerukan implementasi sistem perizinan internasional untuk model AI berisiko tinggi dan pengawasan yang ketat di laboratorium, seperti penggunaan fasilitas BSL-3 atau BSL-4, serta penerapan konsep *Human-in-the-Loop* yang mewajibkan pengawasan manusia untuk setiap hasil yang dihasilkan AI. Intinya, meskipun AI menjanjikan revolusi dalam pengobatan, inovasi tersebut harus diimbangi dengan tanggung jawab dan kolaborasi internasional yang ketat untuk mencegah munculnya ancaman pandemi yang direkayasa secara artifisial.

Login IG