OpenAI Peringatkan Bahaya AI, Tapi Tetap Genjot Pengembangan Superintelligence
OpenAI mengeluarkan peringatan keras tentang risiko "bencana" dari superintelligence yang akan datang, meskipun perusahaan tetap ngebut dalam pengembangannya.
JAKARTA, JClarity – Raksasa teknologi kecerdasan buatan (AI) OpenAI mengeluarkan peringatan publik terkerasnya mengenai risiko eksistensial dari sistem superintelligence, sebuah langkah yang ironis mengingat perusahaan tersebut secara bersamaan terus mengakselerasi pengembangan teknologi yang sama. Peringatan ini menyoroti ketidakseimbangan antara kemajuan teknologi yang cepat dan kesiapan masyarakat serta mekanisme keamanan global.
Dalam sebuah unggahan blog yang diterbitkan pada awal November, OpenAI menyatakan bahwa kemajuan AI bergerak jauh lebih cepat daripada yang disadari oleh sebagian besar masyarakat. Perusahaan yang didukung Microsoft ini memperkirakan bahwa sistem AI akan mampu membuat penemuan ilmiah "sangat kecil" pada tahun 2026, dan "penemuan yang lebih signifikan" pada tahun 2028 dan seterusnya. CEO OpenAI, Sam Altman, sendiri telah mengungkapkan keyakinannya untuk berfokus pada superintelligence, sistem AI yang akan jauh melebihi kecerdasan manusia paling cerdas, yang ia yakini bisa terwujud dalam dekade ini.
Inti dari peringatan OpenAI adalah potensi risiko "bencana" (potentially catastrophic) yang mungkin ditimbulkan oleh superintelligence jika sistem tersebut diterapkan tanpa metode yang terbukti untuk memastikan keselarasan (alignment) dan kontrol yang kuat. Perusahaan tersebut menekankan bahwa AI saat ini telah menunjukkan kemampuan kognitif yang menyaingi pikiran manusia top dalam tugas-tugas penalaran tingkat lanjut.
Namun, di tengah retorika tentang keselamatan, sorotan tertuju pada restrukturisasi internal OpenAI. Pada Mei 2024, perusahaan membubarkan tim 'Superalignment' yang dibentuk pada Juli 2023. Tim ini didedikasikan untuk memecahkan tantangan penyelarasan superintelligence dalam waktu empat tahun. Pembubaran ini terjadi tak lama setelah salah satu pendiri OpenAI, Ilya Sutskever, dan Jan Leike, yang memimpin tim tersebut, mengundurkan diri. Langkah tersebut memicu kritik bahwa OpenAI mungkin mengorbankan keamanan demi ambisi komersial dan kecepatan pengembangan.
OpenAI menyerukan agar industri dan regulator bertindak. Rekomendasi yang diajukan termasuk penetapan standar keamanan bersama di antara laboratorium AI terdepan, pengawasan dan akuntabilitas publik, dan pembentukan "ekosistem ketahanan AI" global. Mereka bahkan menyarankan agar seluruh industri AI "memperlambat pengembangan" untuk mempelajari sistem yang mampu melakukan peningkatan diri secara rekursif (recursive self-improvement) dengan lebih hati-hati. Peringatan ini juga muncul di tengah persaingan sengit, di mana raksasa teknologi lain seperti Microsoft juga telah membentuk unit khusus untuk mengejar "humanist superintelligence".