Sebagai gambaran, untuk GPT-3.5 Turbo, biaya per 1.000 token input adalah $0,0015 dan untuk output adalah $0,002. Kata-kata sopan ini hanya menambah beberapa token, yang menyebabkan biaya tambahan sangat kecil, yaitu sekitar $0,0000015 hingga $0,000002 per interaksi.
Namun, jika dihitung secara tahunan, perkiraan kasar menunjukkan bahwa biaya tambahan ini bisa mencapai $146.000 per tahun—jumlah yang jauh lebih rendah dari klaim Altman yang mencapai puluhan juta dolar.
Konsumsi Energi yang Tinggi dalam Pelatihan Model AI
Sementara biaya listrik untuk kata-kata sopan relatif kecil, OpenAI memang menghadapi biaya energi yang sangat besar dalam melatih model AI seperti GPT-4. Pelatihan model besar ini membutuhkan energi yang sangat besar, dengan perkiraan konsumsi listrik mencapai 62.000 MWh selama 90 hingga 100 hari pelatihan GPT-4. Ini setara dengan konsumsi energi selama 5 hingga 6 tahun untuk 1.000 rumah tangga di AS.
Perlu dicatat bahwa untuk melatih model GPT-4, OpenAI memanfaatkan 25.000 GPU Nvidia A100 selama proses pelatihan yang memakan waktu beberapa bulan. Selama periode tersebut, konsumsi energi sangat tinggi, mengingat banyaknya perangkat keras yang terlibat dan juga sistem pendingin yang diperlukan untuk menjaga suhu tetap stabil.
OpenAI dan Infrastruktur yang Membutuhkan Listrik Besar
Proses pelatihan model AI seperti GPT-4 memerlukan ratusan hingga ribuan megawatt-hour (MWh) energi listrik, dan ini termasuk kebutuhan untuk menyejukkan perangkat keras yang terlibat. GPU dan chip lainnya menghasilkan panas yang cukup besar, sehingga membutuhkan sistem pendingin yang juga memerlukan listrik.