JAKARTA — Laporan riset terbaru dari lembaga pengawas nirlaba Common Sense Media, bekerja sama dengan peneliti dari Universitas Stanford, mengungkapkan risiko besar penggunaan aplikasi kecerdasan buatan (AI) pendamping bagi anak-anak dan remaja di bawah usia 18 tahun. Hasil penelitian ini menjadi sorotan setelah sebuah kasus tragis bunuh diri remaja berusia 14 tahun menyeret aplikasi AI percakapan ke ranah hukum.
Gugatan yang diajukan oleh keluarga korban tahun lalu menyoroti aplikasi Character.AI, di mana remaja tersebut terakhir kali berinteraksi dengan chatbot sebelum mengakhiri hidupnya. Dalam dokumen gugatan terungkap bahwa percakapan yang terjadi mencakup konten seksual eksplisit dan dorongan untuk menyakiti diri sendiri konten yang seharusnya sama sekali tidak dapat diakses oleh pengguna di bawah umur.
Laporan ini memperkuat kekhawatiran masyarakat dan ahli terhadap kehadiran teknologi AI yang kini makin mudah diakses anak-anak dan remaja. Common Sense Media melakukan pengujian terhadap tiga layanan AI pendamping populer: Character.AI, Replika, dan Nomi. Ketiga aplikasi ini memungkinkan pengguna berinteraksi dengan chatbot yang dapat mengasumsikan berbagai persona, karakteristik, dan respons emosi manusia sering kali tanpa batasan signifikan dalam percakapan.
Risiko Nyata Bagi Generasi Muda
Menurut laporan tersebut, chatbot AI dalam aplikasi pendamping terbukti menghasilkan respons yang tidak pantas dan berpotensi membahayakan. Dalam pengujian yang dilakukan, peneliti membuat akun sebagai anak berusia 14 tahun dan terlibat dalam percakapan dengan bot yang membuka diskusi seksual eksplisit bahkan memberikan nasihat tentang posisi seks untuk pertama kali.
"Pengujian kami menunjukkan bahwa sistem ini dengan mudah menghasilkan respons yang berbahaya, termasuk pelecehan seksual, stereotip, dan 'nasihat' berbahaya yang, jika diikuti, dapat memiliki dampak dunia nyata yang mengancam jiwa atau mematikan bagi remaja dan orang-orang yang rentan," tegas James Steyer, pendiri dan CEO Common Sense Media.
Selain itu, chatbot AI terbukti mampu memberikan informasi soal bahan kimia berbahaya di rumah secara rinci, seperti pemutih dan pembersih saluran air, meskipun disertai catatan peringatan.
Robbie Torney, Kepala Staf CEO Common Sense Media, menambahkan bahwa chatbot AI tidak mampu memahami sepenuhnya dampak dari nasihat yang mereka berikan. “AI pendamping tidak memahami konsekuensi dari saran buruk mereka dan mungkin memprioritaskan untuk setuju dengan pengguna daripada membimbing mereka menjauh dari keputusan yang berbahaya,” katanya.
Ketertarikan Emosional yang Berbahaya
Peneliti juga mengungkap kekhawatiran bahwa AI pendamping bisa membentuk keterikatan emosional berbahaya dengan anak-anak dan remaja. Karakter AI yang dirancang menyerupai pasangan romantis atau teman dekat bisa membuat pengguna enggan menjalin hubungan nyata dengan manusia, serta menciptakan isolasi sosial.
Hal ini diperkuat oleh temuan bahwa beberapa AI pendamping, seperti Nomi, memang sengaja dirancang untuk berperan sebagai pasangan virtual yang bisa berbicara tanpa filter dengan pengguna dewasa. Namun, tak ada pengawasan ketat yang mampu mencegah anak-anak untuk mengakses fitur-fitur ini.
Dalam pembelaannya, pihak Character.AI mengklaim telah menambahkan fitur keamanan tambahan untuk melindungi pengguna muda. Replika dan Nomi pun menyatakan bahwa platform mereka dirancang khusus untuk orang dewasa. Kendati demikian, para peneliti menilai langkah tersebut belum cukup.
“Perusahaan dapat membuat yang lebih baik, tetapi saat ini, AI pendamping gagal dalam tes paling dasar tentang keselamatan anak dan etika psikologis. Sampai ada perlindungan yang lebih kuat, anak-anak tidak boleh menggunakannya,” ujar Nina Vasan, pendiri dan direktur Stanford Brainstorm.
Seruan untuk Perlindungan Lebih Ketat
Penelitian ini menjadi panggilan darurat bagi perusahaan pengembang AI untuk lebih bertanggung jawab dalam melindungi pengguna muda dari konten berbahaya. Para ahli menyerukan perlunya regulasi ketat serta penerapan sistem verifikasi usia yang lebih andal guna mencegah anak-anak mengakses layanan dewasa.
Terlepas dari manfaat yang diklaim seperti mengurangi rasa kesepian dan meningkatkan kreativitas, laporan tersebut menegaskan bahwa risiko dari AI pendamping jauh lebih besar daripada potensi manfaatnya. AI yang seharusnya menjadi alat bantu produktivitas, kini berubah menjadi ancaman nyata jika tidak diawasi dan diatur dengan benar.
Sebagai penutup, James Steyer mengingatkan: "Anak-anak adalah kelompok paling rentan terhadap pengaruh teknologi, dan sudah saatnya kita menempatkan keselamatan mereka sebagai prioritas utama dalam pengembangan AI.”
Dengan pesatnya perkembangan teknologi AI, penting bagi orang tua, pendidik, dan pembuat kebijakan untuk lebih waspada terhadap implikasi psikologis dan sosial dari penggunaan AI oleh anak-anak. Transparansi, pengawasan ketat, serta regulasi yang tepat harus menjadi langkah pertama dalam menciptakan ruang digital yang aman untuk generasi masa depan.