Instagram Kirim Notifikasi ke Orang Tua jika Remaja Berulang Kali Cari Konten Bunuh Diri

GEOSIAR.CO.ID 12 Maret 2026 Penulis : ph@gseosiar.co.id

JAKARTA, GEOSIAR.CO.ID – Instagram resmi mengumumkan fitur baru yang akan mengirimkan notifikasi kepada orang tua apabila akun remaja mereka berulang kali mencari konten terkait bunuh diri atau self-harm dalam waktu singkat.

Pengumuman itu disampaikan induk perusahaan Meta melalui blog resminya pada Kamis (26/2/2026), bersamaan dengan tengah berlangsungnya dua persidangan besar yang menyeret nama Meta di pengadilan Amerika Serikat. Fitur ini hanya aktif bagi orang tua yang sebelumnya telah mendaftarkan diri ke program parental supervision Instagram.

Notifikasi Dikirim Setelah Beberapa Pencarian Berulang

Dalam blog resminya, Meta menjelaskan notifikasi akan dipicu apabila remaja melakukan beberapa kali pencarian dalam rentang waktu singkat menggunakan kata kunci yang berkaitan langsung dengan bunuh diri atau menyakiti diri sendiri. Pemberitahuan dikirimkan kepada orang tua melalui email, SMS, atau WhatsApp sesuai data kontak yang tersedia, serta notifikasi langsung di aplikasi Instagram. Instagram menyatakan telah terlebih dahulu memblokir hasil pencarian untuk kata kunci sensitif pada akun remaja dan mengarahkan pengguna ke sumber daya kesehatan jiwa, sehingga fitur ini dirancang sebagai lapisan perlindungan tambahan. Fitur mulai diluncurkan bertahap di Amerika Serikat, Inggris, Australia, dan Kanada, dengan negara-negara lain menyusul sepanjang 2026.

Muncul di Tengah Dua Gugatan Besar terhadap Meta

Peluncuran fitur ini bertepatan dengan dua persidangan yang sedang berjalan terhadap Meta, yakni gugatan di Los Angeles yang mempertanyakan apakah Instagram dan YouTube sengaja dirancang membuat pengguna muda kecanduan, serta gugatan di New Mexico yang mempersoalkan dugaan kegagalan Meta melindungi anak-anak dari eksploitasi di platformnya.

TikTok dan Snap sudah mencapai penyelesaian sebelum persidangan Los Angeles dimulai. Direktur Eksekutif lembaga nirlaba Fairplay Josh Golin mengkritik langkah tersebut dengan menyatakan Meta mengalihkan tanggung jawab kepada orang tua alih-alih memperbaiki desain algoritmanya yang dinilai berbahaya. Meta menyatakan berencana mengembangkan notifikasi serupa untuk interaksi remaja dengan fitur kecerdasan buatan miliknya terkait topik bunuh diri dan self-harm.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *