Insiden ini mengundang perhatian lebih besar karena Elon Musk memang dikenal sebagai figur yang terbuka dan blak-blakan, terutama dalam isu sosial dan politik. Ia beberapa kali menyuarakan keprihatinannya terhadap nasib petani kulit putih di Afrika Selatan, bahkan pernah menyebut pemerintah negara tersebut diskriminatif lantaran melarang layanan satelit miliknya, Starlink, untuk beroperasi di wilayah itu.
Namun demikian, hingga saat ini, pihak pengembang Grok—yakni startup xAI yang juga dimiliki Elon Musk—belum mengeluarkan pernyataan resmi terkait kegaduhan ini. Hal ini membuat publik semakin bertanya-tanya: apakah benar ada bias dalam sistem AI tersebut, atau hanya bug algoritma yang salah arah?
Tak hanya publik, sejumlah tokoh di industri teknologi pun ikut angkat bicara. Sam Altman, CEO dari OpenAI (perusahaan di balik ChatGPT), ikut menyindir insiden tersebut di platform X. Dalam unggahannya, Altman menyebut bahwa Grok adalah contoh AI yang terlalu patuh terhadap instruksi. Pernyataan ini tampak menyenggol pendekatan xAI yang berbeda dalam membangun sistem AI yang sangat responsif.
"Ada banyak hal yang bisa menjelaskan peristiwa ini. Saya yakin xAI akan segera memberikan klarifikasi secara lengkap dan transparan," tulis Altman, menyiratkan bahwa transparansi dan akuntabilitas menjadi isu penting dalam pengembangan teknologi AI ke depan.
Insiden ini menghidupkan kembali perdebatan tentang etika dan kendali dalam teknologi kecerdasan buatan. Apakah chatbot seperti Grok benar-benar independen, atau justru dipengaruhi oleh opini dan ideologi pembuatnya? Apakah sistem AI saat ini cukup aman dan netral untuk digunakan secara publik, atau kita perlu pendekatan regulasi yang lebih ketat?