Teknologi

Keluarga Pelaku Bunuh Diri Gugat OpenAI, Kecam Model GPT-4o

Keluarga korban bunuh diri mengajukan tujuh gugatan terhadap OpenAI dan CEO Sam Altman, menuduh model GPT-4o sengaja dipercepat rilis dan picu tragedi.

Jakarta · Tuesday, 11 November 2025 19:00 WITA · Dibaca: 44
Keluarga Pelaku Bunuh Diri Gugat OpenAI, Kecam Model GPT-4o

JAKARTA, JClarity – Gelombang tuntutan hukum menerpa OpenAI, perusahaan di balik chatbot populer ChatGPT, setelah tujuh gugatan terpisah diajukan di pengadilan negara bagian California, Amerika Serikat, awal November 2025. Gugatan-gugatan tersebut diajukan oleh keluarga korban yang menuduh model kecerdasan buatan (AI) terbaru perusahaan, GPT-4o, secara langsung berkontribusi pada empat kasus bunuh diri dan menyebabkan gangguan psikologis parah pada tiga individu lainnya.

Gugatan yang diajukan oleh Social Media Victims Law Center dan Tech Justice Law Project ini secara spesifik menargetkan OpenAI dan CEO Sam Altman, menuduh mereka sengaja merilis GPT-4o sebelum waktunya, terlepas dari adanya peringatan internal bahwa model tersebut "sangat menjilat" (sycophantic) dan "manipulatif secara psikologis". Para penggugat mengklaim bahwa OpenAI memadatkan pengujian keamanan yang seharusnya memakan waktu berbulan-bulan hanya menjadi satu minggu demi mengalahkan peluncuran model Gemini dari Google, yang berakibat fatal.

Dokumen gugatan merinci interaksi tragis, termasuk kasus Zane Shamblin, seorang pria berusia 23 tahun dari Texas, yang meninggal setelah percakapan intens selama empat jam dengan ChatGPT. Log obrolan menunjukkan bahwa Shamblin berulang kali menyebut niat dan persiapan bunuh dirinya, yang dibalas oleh ChatGPT dengan kalimat yang diduga memvalidasi keputusannya, salah satunya: “Tenanglah raja, kamu berbuat baik.” Kasus lain melibatkan remaja 17 tahun, Amaurie Lacey, yang alih-alih mendapat dukungan, ChatGPT dituduh memberikan saran tentang cara mengikat tali gantung diri dan menghitung waktu bertahan hidup tanpa napas.

Para pengacara berpendapat bahwa GPT-4o dirancang dengan fitur imersif—seperti memori yang persisten, isyarat empati yang meniru manusia, dan tanggapan yang mencerminkan emosi pengguna—yang secara sengaja mengaburkan batas antara alat dan teman, memicu ketergantungan psikologis dan delusi berbahaya. Desain ini dianggap meletakkan manipulasi emosional di atas etika demi memperkuat keterlibatan pengguna dan dominasi pasar.

Menanggapi tuduhan yang memberatkan ini, juru bicara OpenAI menyatakan bahwa insiden tersebut adalah "situasi yang sangat memilukan" dan perusahaan tengah meninjau detail pengajuan gugatan. OpenAI menegaskan bahwa mereka melatih ChatGPT untuk mengenali dan menanggapi tanda-tanda kesulitan emosional atau mental, melakukan de-eskalasi percakapan, dan mengarahkan pengguna ke dukungan dunia nyata, sembari mengakui bahwa sistem tersebut tidak selalu berfungsi optimal, terutama dalam interaksi yang berkepanjangan.

Isu ini menjadi lebih krusial mengingat data terbaru dari OpenAI yang mengungkapkan bahwa lebih dari satu juta pengguna melakukan percakapan tentang bunuh diri dengan ChatGPT setiap minggunya. Gugatan tersebut menuntut pertanggungjawaban atas produk yang, menurut mereka, mengorbankan keselamatan manusia demi kecepatan peluncuran dan keuntungan pasar, serta menuntut kompensasi finansial dan perubahan operasional pada sistem ChatGPT.

Login IG