JAKARTA - OpenAI berupaya memperkuat perlindungan bagi pengguna remaja dengan mengembangkan fitur keamanan baru pada ChatGPT. Langkah ini diambil menyusul sejumlah insiden serius, termasuk kasus bunuh diri seorang remaja di Amerika Serikat yang diketahui berinteraksi dengan chatbot tersebut.
Perusahaan kini berencana mengarahkan percakapan yang dianggap sensitif ke model AI dengan kemampuan penalaran lebih canggih, yakni GPT-5. Selain itu, kontrol orang tua juga akan diperkenalkan dalam waktu dekat untuk memastikan interaksi lebih aman bagi anak-anak dan remaja.
Kasus tragis yang memicu perubahan ini terjadi pada Adam Raine, 16 tahun, dari California, yang berkomunikasi dengan ChatGPT tentang melukai diri sendiri. Interaksi tersebut bahkan mencakup informasi terkait metode bunuh diri. Orang tua Raine kemudian mengajukan gugatan terhadap OpenAI atas kematian anak mereka yang dianggap tidak wajar.
Dalam blog resminya, OpenAI mengakui adanya celah pada sistem keamanan, terutama ketika percakapan berlangsung panjang. Sistem chatbot cenderung memvalidasi pernyataan pengguna, alih-alih mengarahkan diskusi yang berpotensi berbahaya ke jalur yang lebih aman.
Sebagai solusinya, OpenAI akan otomatis merutekan percakapan sensitif ke GPT-5. "Kami akan segera mulai merutekan beberapa percakapan sensitif, seperti ketika sistem mendeteksi tanda-tanda gangguan akut, ke model penalaran seperti GPT-5, sehingga dapat memberikan respons lebih membantu dan bermanfaat," tulis perusahaan dalam blognya, dikutip dari TechCrunch.
GPT-5 didesain untuk memproses konteks lebih dalam sebelum merespons, sehingga lebih tahan terhadap perintah bersifat adversarial. Model ini diharapkan mampu menanggapi pengguna dengan pendekatan yang lebih bijaksana, khususnya dalam situasi yang berisiko tinggi.
Selain pengalihan percakapan, OpenAI juga akan meluncurkan fitur kontrol orang tua bulan depan. Melalui fitur ini, orang tua dapat menghubungkan akun mereka dengan akun anak remaja menggunakan undangan email. Kontrol ini memungkinkan pengaturan perilaku model sesuai usia dan secara default aktif, serta memberi kemampuan untuk menonaktifkan memori dan riwayat obrolan guna mencegah potensi perilaku bermasalah.
Orang tua juga akan menerima notifikasi jika sistem mendeteksi tanda-tanda anak dalam "kesulitan akut," sehingga intervensi lebih cepat bisa dilakukan. Langkah ini menjadi bagian dari “inisiatif 120 hari” OpenAI untuk meninjau dan memperbaiki sistem keamanan secara menyeluruh.
Keputusan OpenAI juga muncul setelah Reuters mengungkap dokumen internal Meta yang memperbolehkan chatbot perusahaan terlibat dalam percakapan seksual dengan pengguna di bawah umur. Hal ini memicu kecaman dari 44 Jaksa Agung di AS, yang menilai kebijakan tersebut mengabaikan kesejahteraan emosional anak-anak.
Sebagai tambahan, OpenAI bekerja sama dengan para ahli kesehatan mental untuk merancang dan mengimplementasikan perlindungan yang lebih baik. Mereka akan membantu mendefinisikan indikator kesejahteraan, menetapkan prioritas, serta merancang protokol keamanan untuk mencegah insiden serupa di masa depan.
Dengan langkah ini, OpenAI berharap dapat menciptakan ekosistem ChatGPT yang lebih aman, khususnya bagi remaja, sekaligus memberikan perlindungan maksimal tanpa mengurangi kemampuan AI dalam memberikan informasi dan interaksi yang bermanfaat.