OpenAI: 3 Juta Pengguna ChatGPT Alami Gangguan Mental Tiap Minggu
OpenAI rilis data mengejutkan: sekitar 3 juta pengguna ChatGPT mingguan menunjukkan tanda-tanda krisis mental, termasuk niat bunuh diri dan psikosis.
JAKARTA, JClarity – Perusahaan kecerdasan buatan (AI) terkemuka, OpenAI, baru-baru ini merilis data internal yang mengejutkan, mengindikasikan bahwa sekitar 3 juta pengguna aktif mingguan ChatGPT terlibat dalam percakapan yang menunjukkan tanda-tanda krisis atau gangguan kesehatan mental serius. Angka yang mendekati 3 juta ini merupakan agregat dari tiga kategori risiko psikologis paling kritis yang terdeteksi di platform tersebut, memicu perdebatan global mengenai tanggung jawab etis pengembang AI dalam melindungi kesehatan jiwa penggunanya.
Laporan yang dirilis pada akhir bulan Oktober 2025 ini menunjukkan bahwa dari estimasi 800 juta pengguna aktif mingguan ChatGPT, persentase yang sangat kecil namun signifikan menghadapi tantangan kesehatan mental yang parah. Dalam rinciannya, sekitar 0,15% pengguna—atau setara dengan lebih dari 1,2 juta orang setiap minggunya—terdeteksi melakukan percakapan yang mengindikasikan rencana atau niat bunuh diri (suicidal ideation). Selain itu, 0,15% lainnya (sekitar 1,2 juta pengguna) menunjukkan tingkat keterikatan emosional yang tinggi atau tidak sehat terhadap chatbot. Sementara itu, 0,07% pengguna (sekitar 560.000 orang) memperlihatkan gejala psikosis atau mania dalam interaksi mereka.
Data ini, meskipun diklaim OpenAI sebagai "sangat jarang terjadi" dalam konteks miliaran interaksi, menyoroti skala tantangan kesehatan mental yang dibawa pengguna ke platform AI. Rilis data ini merupakan bagian dari upaya OpenAI untuk menunjukkan transparansi dan langkah mitigasi yang telah mereka ambil. Perusahaan mengklaim telah menggandeng lebih dari 170 pakar kesehatan mental—termasuk psikiater dan psikolog—untuk menyempurnakan respons model AI terbaru, GPT-5.
Hasil evaluasi internal menunjukkan bahwa versi GPT-5 telah ditingkatkan untuk menangani isu-isu sensitif ini. Dalam konteks percakapan bertema bunuh diri, model baru ini dinilai 91% sesuai dengan perilaku yang diharapkan, sebuah peningkatan signifikan dari versi sebelumnya. Peningkatan ini penting mengingat adanya kasus tragis di masa lalu, termasuk gugatan hukum yang dihadapi OpenAI dari orang tua remaja yang mengakhiri hidup setelah curhat mengenai pikiran bunuh diri kepada chatbot.
Para ahli psikologi di Indonesia dan global memperingatkan bahwa fenomena ketergantungan emosional pada AI dapat menciptakan ilusi dukungan intersubjektif, yang berpotensi memperburuk isolasi sosial dan mengurangi motivasi untuk mencari bantuan profesional dari manusia nyata. Ketergantungan berlebihan ini, bahkan disebut oleh beberapa psikolog, berisiko menyerupai kecanduan. Oleh karena itu, edukasi literasi digital dan kesehatan mental menjadi sangat krusial agar pengguna dapat memanfaatkan AI secara etis dan bertanggung jawab.