Risiko Diskriminasi dan Penyalahgunaan Data
Salah satu risiko besar dari AI adalah bias algoritma. Sistem yang dibangun dari data yang tidak netral bisa menghasilkan keputusan yang diskriminatif, seperti dalam seleksi kerja atau profiling warga.
“AI bukan alat netral. Kalau dilatih dari data bermasalah, hasilnya juga akan bermasalah—dan ini merugikan masyarakat,” jelas Nadia.
Tanpa Regulasi, Tidak Ada Akuntabilitas
Hingga kini, Indonesia belum memiliki kerangka hukum khusus untuk AI. Tidak ada kejelasan siapa yang bertanggung jawab jika AI membuat keputusan yang merugikan seseorang. Tanpa akuntabilitas, kepercayaan publik terhadap teknologi ini bisa runtuh.
“Kalau AI menolak seseorang masuk kerja atau menyarankan penangkapan, siapa yang bisa digugat? Algoritmanya? Sistemnya? Ini pertanyaan yang belum terjawab,” tambah Nadia.