Tampang.com | Peluncuran Meta AI yang terintegrasi langsung ke dalam aplikasi populer seperti Facebook, Instagram, dan WhatsApp memicu kekhawatiran dari para pakar privasi digital. Meskipun Meta mengklaim bahwa kecerdasan buatannya membantu meningkatkan pengalaman pengguna, nyatanya banyak pihak menilai praktik pengumpulan datanya lebih berisiko dibandingkan chatbot AI seperti ChatGPT dari OpenAI.
Tidak seperti ChatGPT yang tidak secara otomatis menggunakan data pribadi pengguna, Meta AI justru mengandalkan konten publik yang diunggah pengguna—termasuk postingan, komentar, hingga informasi di bio—sebagai bahan pelatihan untuk model AI mereka. Hal ini menimbulkan kekhawatiran karena pengguna tidak selalu menyadari bahwa aktivitas mereka di platform Meta berpotensi digunakan untuk memperkuat teknologi AI perusahaan tersebut.
Formulir Opt-Out Dinilai Menyesatkan
Meta memang menyatakan tidak menggunakan pesan pribadi atau konten non-publik dalam proses pelatihan AI. Namun, di wilayah seperti Uni Eropa, Meta menyediakan formulir opt-out bagi pengguna yang tidak ingin datanya digunakan. Sayangnya, akses ke formulir ini tergolong rumit dan mengharuskan pengguna menjelaskan alasan penolakan mereka. Banyak aktivis privasi menilai ini sebagai bentuk "dark pattern"—desain antarmuka yang sengaja dibuat membingungkan agar pengguna kesulitan melindungi privasi mereka.