Platform gim daring Roblox belakangan ramai dibicarakan publik. Di balik tampilan penuh warna dan kebebasan berkreasi yang ditawarkan, permainan ini juga menyimpan potensi ancaman bagi anak-anak, mulai dari konten kasar hingga kehadiran predator digital.Dua akademisi Universitas 17 Agustus 1945 (Untag) Surabaya, yakni Supangat PhD ITIL COBIT CLA CISA, serta Dr Rr Amanda Pascarini MSi, menyoroti celah bahaya di balik sistem moderasi yang diklaim berbasis kecerdasan buatan (AI).Supangat menjelaskan bahwa secara sistem, Roblox memang telah menerapkan AI untuk menyaring kata-kata kasar, konten kekerasan, serta perilaku melanggar aturan komunitas. Namun, efektivitasnya masih dipertanyakan."Namun realitanya, kehadiran sistem ini justru mengundang tanda tanya. Benarkah AI mampu mengawal interaksi anak dengan baik, atau justru menutupi lalu lintas predator yang semakin lihai menyamar?," kata Supangat, Rabu (9/7/2025).Supangat menjelaskan, secara sistem, platform Roblox telah mengadopsi AI untuk menyaring kata-kata kasar, konten kekerasan, dan perilaku yang melanggar standar komunitas. Namun tak bisa dipungkiri, AI masih bergantung pada pola bahasa yang eksplisit, padahal tidak semua bentuk ancaman muncul dalam kalimat frontal atau baku."Modus seperti grooming, misalnya, sering kali dibungkus dengan pendekatan emosional yang lembut, mengajak berteman, memberi perhatian, atau pura-pura menjadi teman sebaya. Interaksi seperti ini tidak akan terbaca sebagai ancaman oleh sistem yang hanya mengandalkan logika blokir kata. Pendekatan emosional yang dimaksud lebih bertujuan untuk membuat calon target merasa nyaman, membutuhkan bahkan ketergantungan dengan pelaku," jelasnya.Baca juga: Praktisi Bisnis Soroti Industri Alami Kemunduran Saat Wisuda di Kampus UntagBaginya, kelemahan moderasi terlalu teknis dan tidak mengenali konteks, serta tidak memahami niat. Teknologi bisa menyaring makian, tapi belum tentu bisa menangkap manipulasi halus.Maka, lanjut Supangat, butuh sistem yang lebih adaptif dan kontekstual, bukan sekadar reaktif. Bahkan, dalam konteks hukum, kemampuan deteksi AI belum sepenuhnya sejalan dengan kebutuhan perlindungan anak yang utuh."Karena itu, sekuat apa pun teknologi yang dikembangkan, ia tetap membutuhkan dukungan pendekatan manusia, baik melalui desain sistem yang lebih cerdas maupun integrasi dengan pendampingan sosial yang memadai," beber Dosen Sistem dan Teknologi Informasi (Sistekin) Untag tersebut."Kami tidak sedang menolak kehadiran AI. Justru sebaliknya, kami percaya teknologi bisa menjadi alat bantu luar biasa dalam menciptakan ruang digital yang lebih aman. Tapi sistem secerdas apa pun tidak akan berguna jika digunakan secara tunggal, tanpa sentuhan empati manusia," tambahnya.Sementara Dosen Psikologi Untag Surabaya, Amanda mengatakan, dari perspektif psikologi, terdapat persoalan yang tak kalah berbahaya. Misalnya dengan munculnya rasa aman palsu."Ketika sebuah platform mengklaim aman karena "sudah dimoderasi AI", anak-anak cenderung menurunkan kewaspadaan. Mereka merasa tidak sedang berada dalam situasi yang perlu dicurigai. Dan di situlah risiko terbesar justru bersembunyi. Penurunan kewaspadaan menyebabkan anak cenderung lengah dan mengesampingkan aspek antisipasi," kata Amanda.Menurutnya, salah satu ancaman yang sering luput dari pantauan sistem adalah grooming digital, upaya pelaku untuk mendekati anak secara perlahan, membangun kepercayaan. Lalu menyisipkan ajakan atau percakapan yang menjurus pada pelecehan.Baca juga: Top, Rektor Untag Surabaya Raih Penghargaan Academic Leader 2024
"Pelaku bisa menyamar sebagai teman sebaya, memberi perhatian berlebih, hingga membuat korban merasa istimewa dan tergantung secara emosional. Ini bukan bentuk ancaman yang bisa disaring oleh sistem berbasis kata. Yang terjadi di balik layar adalah proses psikologis yang tidak bisa dibaca oleh mesin.