Waspada Era Penipuan AI 2025: Deepfake, Kloning Suara, dan Chatbot Cinta Siap Mengincar Dompet Anda
Tanggal: 30 Jun 2025 10:06 wib.
Di tengah pesatnya kemajuan teknologi, masyarakat kini dihadapkan pada kenyataan bahwa kecerdasan buatan (AI) tak hanya memberi manfaat, tetapi juga membuka pintu bagi berbagai modus kejahatan digital yang semakin canggih dan sulit dikenali. Tahun 2025 diprediksi akan menjadi titik kritis bagi maraknya penipuan yang didukung oleh teknologi AI, mulai dari deepfake, kloning suara, hingga phishing pintar yang menyasar individu maupun institusi finansial.
Laporan terbaru dari Forbes menyoroti bagaimana AI mulai dipersenjatai oleh kelompok penjahat siber untuk menciptakan berbagai taktik penipuan yang mampu menembus pertahanan keamanan digital konvensional. Bahkan, sejumlah kasus menunjukkan bahwa para pelaku kejahatan digital kini lebih cepat mengadopsi teknologi baru dibandingkan sebagian besar organisasi.
Berikut ini adalah empat modus utama penipuan berbasis AI yang wajib diwaspadai oleh masyarakat umum, pelaku usaha, hingga lembaga keuangan.
1. Deepfake dan Penipuan Email Bisnis (BEC) Makin Sulit Dideteksi
Modus Business Email Compromise (BEC), yang sebelumnya dilakukan lewat email biasa, kini berevolusi menjadi jauh lebih kompleks dan meyakinkan berkat bantuan AI. Para pelaku tidak hanya menulis email palsu, tetapi juga menggunakan teknologi deepfake video dan audio untuk menyamar sebagai atasan atau rekan kerja.
Salah satu kasus mencengangkan terjadi di Hong Kong, di mana seorang karyawan perusahaan tertipu oleh panggilan Zoom palsu yang menampilkan wajah dan suara CEO-nya. Akibatnya, perusahaan mengalami kerugian hampir Rp480 miliar.
Di Amerika Serikat, 53% profesional di bidang keuangan dan akuntansi mengaku pernah menjadi target BEC. Bahkan, 40% email penipuan dalam modus ini kini dihasilkan sepenuhnya oleh algoritma AI, tanpa campur tangan manusia.
2. Chatbot AI Jadi Penipu Asmara Virtual
Fenomena penipuan cinta atau romance scam kini memasuki babak baru. Jika dulu dilakukan oleh manusia dengan identitas palsu, kini chatbot AI digunakan untuk membangun hubungan emosional dengan korban secara lebih cepat dan efisien.
Dengan kemampuan untuk berinteraksi layaknya manusia, tanpa aksen asing dan dengan gaya bahasa yang sangat halus, chatbot ini membuat banyak korban tidak menyadari bahwa mereka berbicara dengan bot. Salah satu bocoran mengejutkan datang dari pelaku asal Nigeria yang mengunggah video cara mereka menggunakan AI untuk menipu korban secara massal di media sosial.
3. Skema “Pig Butchering” dengan AI dan Deepfake Video
Modus penipuan “pig butchering” — yaitu penipuan investasi yang dibalut dengan hubungan asmara — juga mengalami eskalasi besar-besaran. Dengan memanfaatkan AI, para penipu kini bisa mengelola ribuan target secara simultan, mengirim pesan otomatis lewat platform seperti "Instagram Automatic Fans" untuk mengawali percakapan.
Contohnya, korban akan menerima pesan seperti: “Hai, temanku merekomendasikan kamu. Apa kabar?” yang ditulis dengan AI dan kemudian dilanjutkan oleh chatbot untuk membangun komunikasi yang terasa personal.
Lebih parah lagi, deepfake digunakan untuk membuat panggilan video palsu, dan suara hasil kloning memungkinkan penipu berbicara dalam identitas yang sepenuhnya palsu.
4. Pemerasan Deepfake Menargetkan Eksekutif dan Tokoh Publik
Salah satu modus paling menakutkan dari penipuan AI saat ini adalah pemerasan berbasis deepfake. Penjahat siber menciptakan video palsu yang memperlihatkan pejabat atau eksekutif terlibat dalam tindakan kompromi, lalu mengirimkan video tersebut sebagai bentuk ancaman.
Contoh terbaru datang dari Singapura, di mana pelaku mengancam pejabat pemerintah dengan video palsu dan meminta uang tebusan dalam bentuk kripto. Video itu dibuat dari data visual yang diambil dari platform publik seperti LinkedIn dan YouTube, kemudian dirakit menggunakan teknologi deepfake berkualitas tinggi.
Ancaman seperti ini diprediksi akan semakin meluas, terutama menyasar eksekutif perusahaan besar, pejabat negara, dan figur publik di berbagai sektor.
AI: Pedang Bermata Dua yang Harus Diwaspadai
Tidak bisa dipungkiri bahwa kemajuan AI adalah revolusi teknologi yang luar biasa. Namun, penggunaan teknologi ini secara tidak etis menghadirkan risiko baru yang tidak boleh dianggap sepele. Aksesibilitas terhadap perangkat lunak deepfake, kloning suara, dan chatbot AI kini semakin mudah dan murah, membuat siapa pun bisa menjadi korban berikutnya—baik individu maupun perusahaan besar.
Langkah preventif yang perlu dilakukan mencakup:
Meningkatkan literasi digital
Melakukan pelatihan keamanan siber secara berkala
Menggunakan sistem verifikasi ganda (2FA)
Mengembangkan kebijakan internal perusahaan yang tanggap terhadap tren penipuan digital terbaru
Selain itu, penting bagi semua pihak untuk tidak sembarangan membagikan data pribadi di internet, terutama di media sosial.
Penutup: Ancaman Nyata di Era Digital
Dengan potensi kerusakan yang bisa ditimbulkan, penipuan berbasis AI diprediksi menjadi ancaman keamanan digital nomor satu di tahun-tahun mendatang. Masyarakat, pelaku bisnis, dan regulator harus bergerak cepat menyusun regulasi dan edukasi untuk mencegah penyalahgunaan teknologi ini semakin luas.
Karena satu hal yang pasti: AI tidak akan menunggu kita siap. Maka dari itu, kesadaran dan kewaspadaan adalah kunci utama menghadapi ancaman yang tak terlihat namun sangat nyata