Alih-alih memeriksa atau mempertanyakan langsung sang suami, wanita ini langsung mempercayai ramalan tersebut dan mengambil keputusan drastis: meminta suaminya keluar rumah dan mengumumkan rencana perceraian kepada anak-anak mereka. Tak lama berselang, sang suami menerima surat gugatan cerai dari pengadilan.
Meski kisah ini terdengar mengejutkan, dari sisi hukum kasus ini sulit dijadikan preseden. ChatGPT dan AI sejenis memang tidak dilatih untuk meramal atau membaca ampas kopi secara nyata, melainkan hanya mampu menghubungkan pola gambar dengan data yang tersedia dan membuat narasi yang terdengar meyakinkan. Seni tasseografi sendiri adalah praktik kuno yang tidak bisa disamakan dengan pelatihan AI modern.
Para ahli bahkan menyebut bahwa ChatGPT rentan menghasilkan jawaban “halusinasi”—informasi yang tidak akurat namun disampaikan seolah fakta. OpenAI sendiri mengakui potensi ini dalam model AI mereka, termasuk o3 dan o4-mini, yang bisa menghasilkan informasi palsu dengan meyakinkan.