Meta Dikepung Kritik, Kini Larang Remaja Live dan Kirim Konten Sensitif Tanpa Izin Orang Tua: Perlindungan atau Sekadar Strategi?
Tanggal: 10 Apr 2025 20:13 wib.
Meta Platforms Inc., induk perusahaan dari Facebook, Instagram, dan Messenger, kembali mengambil langkah strategis dalam memperkuat perlindungan terhadap pengguna remaja di platform mereka. Langkah ini dilakukan sebagai respons terhadap gelombang kritik yang terus mengarah kepada mereka, terutama terkait tuduhan bahwa media sosial justru membahayakan kesehatan mental dan keselamatan remaja.
Dalam kebijakan terbarunya, Meta mengumumkan bahwa pengguna berusia di bawah 16 tahun kini tidak lagi diizinkan menjadi host siaran langsung (live video) tanpa adanya izin orang tua. Selain itu, para remaja juga akan dicegah untuk membagikan gambar yang mengandung dugaan unsur ketelanjangan melalui fitur pesan langsung. Kebijakan ini mencerminkan sikap tegas Meta dalam memfilter konten yang berisiko tinggi bagi kelompok usia rentan.
Tidak berhenti di situ, Meta juga memperluas penerapan "Akun Remaja" yang sebelumnya hanya berlaku di Instagram sejak September lalu. Kini, fitur ini juga tersedia untuk pengguna Facebook dan Messenger. Dengan pengaturan privasi yang lebih ketat, akun remaja dirancang khusus untuk meminimalkan paparan terhadap konten berbahaya, membatasi interaksi yang tidak diinginkan, serta melindungi data pribadi.
Sebagai bagian dari fitur tersebut, akun remaja secara otomatis mencegah pengguna di bawah usia 18 tahun untuk melihat konten sensitif, menerima pesan langsung dari pengguna tertentu, hingga memiliki akun publik yang mudah ditemukan oleh siapa saja. Walau pengguna berusia 16 dan 17 tahun masih bisa menyesuaikan pengaturannya, Meta secara ketat membatasi akses bagi remaja yang lebih muda. Mereka harus mendapatkan persetujuan orang tua untuk melakukan perubahan tersebut.
Statistik internal Meta menunjukkan bahwa kebijakan ini telah mendapat sambutan positif. Sekitar 97% remaja usia 13–15 tahun dilaporkan telah mengaktifkan pengaturan akun remaja tersebut. Hingga saat ini, tercatat lebih dari 54 juta pengguna aktif yang terdaftar menggunakan Akun Remaja di seluruh dunia.
Langkah pembaruan Meta ini juga mencakup pembatasan terhadap konten ujaran kebencian yang mengandung unsur penghinaan terhadap kelompok rentan seperti transgender dan non-biner. Meski beberapa bentuk ujaran kebencian ini masih diizinkan pada pengaturan akun dewasa dalam kerangka tertentu, pembatasan tersebut tidak berlaku untuk pengguna berusia di bawah 18 tahun. Artinya, anak-anak dan remaja akan terlindungi dari konten yang dapat berdampak negatif terhadap persepsi diri dan identitas mereka.
Di balik penguatan kebijakan ini, terdapat tekanan yang kuat dari berbagai pihak—mulai dari legislator, regulator, orang tua, hingga komunitas pemerhati anak. Meta memang telah lama menjadi sasaran kritik karena dinilai kurang sigap melindungi pengguna muda. Sorotan ini memuncak ketika muncul laporan investigatif bahwa platform Meta bisa memicu gangguan mental, tekanan sosial, dan membuka celah bagi eksploitasi seksual daring terhadap anak-anak.
Puncak tekanan terjadi tahun lalu saat lebih dari 30 negara bagian di Amerika Serikat menggugat Meta. Gugatan itu menuduh perusahaan melakukan eksploitasi terhadap anak muda melalui desain platform yang adiktif dan algoritma yang memicu ketergantungan. Tak hanya itu, CEO Meta, Mark Zuckerberg, bahkan harus hadir di hadapan Kongres AS dalam sidang penting terkait perlindungan anak secara daring. Dalam kesempatan tersebut, Zuckerberg menyampaikan permintaan maaf langsung kepada keluarga korban eksploitasi seksual yang terjadi melalui platform milik perusahaannya.
Meskipun permintaan maaf telah disampaikan dan kebijakan baru diperkenalkan, tidak sedikit yang meragukan motivasi Meta. Banyak pengamat mempertanyakan apakah kebijakan ini murni untuk perlindungan atau sekadar langkah defensif untuk menyelamatkan citra perusahaan yang tengah terpuruk. Namun, dari sisi pengguna, upaya ini tetap menjadi angin segar, terutama bagi orang tua dan penggiat perlindungan anak yang selama ini mendesak agar platform media sosial lebih bertanggung jawab.
Dengan munculnya “Akun Remaja” di berbagai aplikasi milik Meta, perusahaan menunjukkan komitmennya untuk menciptakan lingkungan digital yang lebih aman bagi generasi muda. Walaupun tidak serta-merta menyelesaikan seluruh permasalahan, pembatasan live video dan pengiriman gambar sensitif menjadi salah satu upaya konkret yang patut diapresiasi.
Sebagai perusahaan yang memiliki pengaruh besar dalam kehidupan digital masyarakat global, Meta memang dituntut untuk terus berinovasi sekaligus bertanggung jawab terhadap dampak sosial dari layanannya. Tantangan terbesar ke depan bukan hanya soal teknologi, tetapi juga etika dan perlindungan terhadap kelompok rentan seperti anak-anak dan remaja.
Langkah ini sekaligus membuka diskusi penting mengenai peran perusahaan teknologi dalam menciptakan dunia digital yang lebih sehat. Apakah Meta benar-benar sedang berubah arah, atau hanya sedang meredam kritik sesaat? Yang jelas, kebijakan ini menjadi salah satu momen penting dalam sejarah panjang relasi antara teknologi dan perlindungan anak.