Wanita Ini Gugat Cerai Suaminya Karena “Ramalan” ChatGPT Soal Perselingkuhan
Tanggal: 20 Mei 2025 22:37 wib.
Tampang.com – Sebuah kisah unik sekaligus menggelikan datang dari Yunani, di mana seorang wanita memutuskan menggugat cerai suaminya setelah membaca “ramalan” dari ChatGPT yang menyebut bahwa sang suami diam-diam berselingkuh. Yang menarik, ramalan ini bukan berasal dari paranormal atau peramal sungguhan, melainkan dari kecerdasan buatan—ChatGPT milik OpenAI—yang diminta membaca pola ampas kopi dalam sebuah foto.
Menurut laporan dari Greek City Times, pasangan suami istri tersebut awalnya hanya ingin iseng mencoba kemampuan ChatGPT untuk mempraktikkan tasseografi, seni kuno membaca nasib dari ampas kopi yang tertinggal di dasar cangkir. Namun, siapa sangka hasil “ramalan” AI itu malah memicu keretakan rumah tangga mereka.
Dalam sesi “pembacaan” tersebut, ChatGPT memberikan prediksi yang cukup spesifik. Ia menilai sang suami memiliki fantasi menjalin hubungan dengan perempuan lain, bahkan menyebutkan inisial wanita berinisial “E” yang diduga sebagai selingkuhan. ChatGPT pun memperkuat ramalannya dengan pola ampas kopi dari cangkir si istri, sehingga wanita itu makin yakin bahwa apa yang disampaikan AI adalah kebenaran.
Alih-alih memeriksa atau mempertanyakan langsung sang suami, wanita ini langsung mempercayai ramalan tersebut dan mengambil keputusan drastis: meminta suaminya keluar rumah dan mengumumkan rencana perceraian kepada anak-anak mereka. Tak lama berselang, sang suami menerima surat gugatan cerai dari pengadilan.
Meski kisah ini terdengar mengejutkan, dari sisi hukum kasus ini sulit dijadikan preseden. ChatGPT dan AI sejenis memang tidak dilatih untuk meramal atau membaca ampas kopi secara nyata, melainkan hanya mampu menghubungkan pola gambar dengan data yang tersedia dan membuat narasi yang terdengar meyakinkan. Seni tasseografi sendiri adalah praktik kuno yang tidak bisa disamakan dengan pelatihan AI modern.
Para ahli bahkan menyebut bahwa ChatGPT rentan menghasilkan jawaban “halusinasi”—informasi yang tidak akurat namun disampaikan seolah fakta. OpenAI sendiri mengakui potensi ini dalam model AI mereka, termasuk o3 dan o4-mini, yang bisa menghasilkan informasi palsu dengan meyakinkan.
Kisah ini menjadi peringatan bagi kita semua agar tidak mudah percaya sepenuhnya pada hasil dari kecerdasan buatan, apalagi dalam hal yang sangat personal dan krusial seperti hubungan rumah tangga.