Kata "Tolong" dan "Terima Kasih" ke GPT, Bikin OpenAI Rugi?
Tanggal: 14 Jul 2025 12:36 wib.
Interaksi dengan kecerdasan buatan, seperti model bahasa besar (LLM) semacam GPT dari OpenAI, kini menjadi bagian tak terpisahkan dari pekerjaan, belajar, hingga sekadar mencari informasi. Banyak dari kita mungkin punya kebiasaan menambahkan kata "tolong" atau "terima kasih" saat memberi perintah. Rasanya wajar saja, layaknya berbicara dengan manusia. Namun, di balik kebiasaan sopan ini, ada pertanyaan menarik: apakah tambahan kata-kata tersebut, yang notabene memperpanjang prompt, sebenarnya bisa membuat penyedia layanan seperti OpenAI merugi secara finansial?
Cara Kerja Model Bahasa Besar dan Biaya Operasionalnya
Untuk memahami potensi dampak finansial ini, kita perlu sedikit mengintip cara kerja LLM. Model seperti GPT beroperasi dengan memproses input (perintah atau prompt) yang diterima, kemudian menghasilkan output (respons). Proses ini melibatkan komputasi yang sangat intensif, terutama saat model tersebut harus "berpikir" dan menghasilkan teks. Biaya utama operasional LLM terletak pada dua hal:
Biaya Inferensi: Ini adalah biaya yang muncul setiap kali model digunakan untuk menghasilkan respons dari prompt. Biaya ini dihitung berdasarkan jumlah token yang diproses. Token bisa berupa kata, bagian dari kata, atau bahkan tanda baca. Semakin panjang prompt dan output yang dihasilkan, semakin banyak token yang dihitung, dan semakin tinggi biaya inferensinya.
Biaya Pelatihan: Ini adalah biaya yang sangat besar untuk melatih model dari awal menggunakan data dalam jumlah raksasa. Namun, biaya ini adalah investasi awal yang tidak berkaitan langsung dengan setiap interaksi pengguna harian.
Jadi, fokus kita ada pada biaya inferensi, yang dihitung per token. Setiap kali sebuah prompt dikirim, model harus memproses setiap token di dalamnya. Dan setiap token yang dihasilkan sebagai jawaban juga dikenakan biaya.
Dampak Kata-Kata Sopan pada Penggunaan Sumber Daya
Ketika kita menambahkan "tolong" atau "terima kasih" pada prompt, kita sebenarnya menambah jumlah token yang harus diproses oleh model. Misalnya, alih-alih "Buatkan ringkasan artikel ini", kita menulis "Tolong buatkan ringkasan artikel ini. Terima kasih." Tambahan "Tolong" dan "Terima kasih" bisa menambah sekitar 2-4 token pada input.
Meskipun dalam satu interaksi, tambahan token ini terlihat sepele, dampaknya bisa menjadi signifikan ketika dikalikan dengan miliaran interaksi yang terjadi setiap hari di seluruh dunia. OpenAI dan penyedia LLM lainnya memproses triliunan token setiap bulan. Bahkan peningkatan kecil dalam jumlah token per prompt dapat berarti peningkatan biaya operasional yang substansial dalam skala agregat.
Setiap token yang diproses oleh LLM membutuhkan daya komputasi dari server dan chip khusus (GPU) yang sangat mahal. Ini juga mengkonsumsi energi listrik yang besar. Jadi, secara teknis, semakin banyak token yang diproses (baik dari input maupun output), semakin besar biaya yang ditanggung OpenAI. Dari perspektif murni efisiensi teknis dan finansial, prompt yang ringkas dan langsung memang lebih "murah" untuk diproses.
Antara Efisiensi dan Interaksi Manusiawi
Namun, penting juga untuk melihat hal ini dari sudut pandang yang berbeda. Apakah OpenAI benar-benar "rugi" karena kebiasaan sopan ini? Mungkin tidak sesederhana itu.
Kualitas Output: Ada argumen bahwa menambahkan kata-kata sopan atau memberikan prompt yang lebih ramah justru dapat menghasilkan output yang lebih baik dari LLM. Beberapa penelitian menunjukkan bahwa prompt yang lebih kontekstual atau "berbicara" dapat membantu model memahami niat pengguna dengan lebih baik dan menghasilkan respons yang lebih relevan dan bernuansa. Jika kualitas output meningkat, nilai yang dirasakan pengguna juga meningkat, yang pada akhirnya dapat mendorong lebih banyak penggunaan dan loyalitas terhadap platform.
Perilaku Pengguna: Desain LLM juga mempertimbangkan perilaku alami manusia. Kita terbiasa berinteraksi dengan kesopanan, dan membangun antarmuka yang terasa manusiawi dapat meningkatkan pengalaman pengguna. Pengalaman yang baik ini penting untuk adopsi jangka panjang dan pertumbuhan basis pengguna. Jika pengguna merasa nyaman dan senang berinteraksi, mereka akan lebih sering menggunakan layanan, yang pada akhirnya juga menguntungkan penyedia.
Skala Ekonomi: Seiring berjalannya waktu, biaya komputasi per token cenderung menurun karena inovasi teknologi. Perusahaan seperti OpenAI juga berinvestasi besar dalam mengoptimalkan model mereka agar lebih efisien dalam memproses token. Potensi "kerugian" dari token ekstra ini mungkin dianggap sebagai biaya yang dapat diterima demi menciptakan pengalaman pengguna yang lebih baik dan mendorong adopsi yang lebih luas.
Singkatnya, secara teknis, menambahkan kata "tolong" dan "terima kasih" memang menambah jumlah token yang diproses oleh model bahasa besar, yang secara mikro akan meningkatkan biaya inferensi. Namun, menyatakan bahwa hal itu "membuat OpenAI rugi" adalah penyederhanaan yang berlebihan. Dampak finansialnya mungkin sangat kecil dibandingkan dengan total biaya operasional dan manfaat jangka panjang dari interaksi pengguna yang lebih alami dan berkualitas.
OpenAI dan pengembang LLM lainnya lebih peduli pada pengembangan model yang kuat, akurat, dan berguna, serta bagaimana pengguna berinteraksi dengannya secara efektif. Jika menambahkan sentuhan manusiawi pada prompt dapat meningkatkan kualitas output atau kepuasan pengguna, potensi biaya token tambahan mungkin dianggap sebagai investasi yang wajar.