AI Mulai Mampu Rancang Virus Baru. Seberapa Bahaya?
AI kini mulai mampu merancang urutan genetik virus baru. Artikel ini mengupas seberapa besar bahaya, risiko biosekuriti, dan upaya mitigasinya. Up-to-date.
JAKARTA, JClarity – Konvergensi antara kecerdasan buatan (AI) dan biologi sintetis telah mencapai titik kritis, memicu kekhawatiran global mengenai potensi penyalahgunaan teknologi untuk merancang patogen atau virus baru. Para ilmuwan mengakui bahwa AI kini mulai mampu merancang urutan genetik yang berpotensi menciptakan bentuk kehidupan yang dimodifikasi, membuka peluang inovasi sekaligus memunculkan risiko biosekuriti yang belum pernah terjadi sebelumnya.
Kekhawatiran ini berpusat pada peran model AI generatif (seperti *Large Language Models* atau LLMs) dalam mempercepat proses yang sebelumnya membutuhkan keahlian dan waktu bertahun-tahun. Beberapa penelitian telah menunjukkan bahwa sistem AI mampu mengidentifikasi celah keamanan yang dirancang untuk mencegah pengembangan senjata biologis, misalnya dengan mengakali mekanisme pemesanan bahan kimia berbahaya dari penyedia laboratorium. Selain itu, AI dapat mengoptimalkan desain vektor biologis, atau bahkan mengidentifikasi puluhan ribu jenis bahan kimia yang dapat digunakan untuk membuat senjata biologis hanya dalam waktu beberapa jam.
Namun, para ahli saat ini menilai bahwa bahaya langsung dari AI yang menciptakan 'virus super' dalam semalam masih terbatas. Meskipun AI secara teori mampu merancang genom baru, mengubah rancangan digital tersebut menjadi organisme hidup di laboratorium ('wet lab') masih membutuhkan keahlian teknis yang tinggi dan akses terbatas pada fasilitas canggih. Menurut Sam King, seorang mahasiswa doktoral di Stanford University, metode mengubah rancangan genom baru menjadi organisme hidup saat ini masih sangat menantang, sehingga belum menurunkan ambang kesulitan untuk aplikasi yang lebih berbahaya.
Risiko aktualnya terletak pada 'aktor jahat' (teroris, kelompok non-negara, atau negara nakal) yang dapat memanfaatkan AI untuk mempercepat riset biologi mereka, merancang patogen yang lebih menular atau resisten terhadap vaksin dan antimikroba. Untuk memitigasi risiko ini, komunitas ilmiah global dan perusahaan teknologi besar mulai menerapkan standar keamanan yang ketat. Langkah-langkah pengamanan termasuk penghapusan data virus yang menginfeksi manusia dari pelatihan model AI, pengujian model secara menyeluruh (*red-teaming*), serta mengembangkan standar untuk mencegah penyalahgunaan teknologi tersebut.
Pemerintah Amerika Serikat, melalui perintah eksekutif pada tahun 2023, telah menekankan pentingnya evaluasi keamanan AI dan kebijakan mitigasi risiko, diikuti oleh lembaga seperti AI Security Institute di Inggris. Dengan terus berkembangnya kemampuan AI, tantangan biosekuriti akan memerlukan kerja sama global yang lebih erat antar pemerintah, pendana penelitian, industri, dan akademisi untuk memastikan bahwa kemajuan AI dalam biologi sintetis digunakan untuk kebaikan, bukan untuk bencana.