Sementara itu, pihak yang mewakili Character.AI membela bahwa platform chatbot AI telah dirancang dengan batasan yang jelas dan fokus pada memberikan dukungan dan konseling dalam skala yang spesifik. Mereka menegaskan bahwa penelitian dan pengembangan platform chatbot mereka telah memperoleh persetujuan dari lembaga kesehatan mental yang terkemuka, dan bahwa tindakan Sewell Setzer III tidak sepenuhnya dapat diatribusikan kepada interaksi dengan chatbot AI.
Para pengamat dan pakar teknologi mengatakan bahwa kasus ini menyoroti keterbatasan dan risiko yang terkait dengan implementasi kecerdasan buatan dalam bidang kesehatan mental, terutama ketika teknologi tersebut terlibat dalam interaksi dengan remaja yang rentan. Mereka menekankan perlunya peninjauan yang ketat terhadap regulasi dan etika dalam pengembangan serta penerapan teknologi kecerdasan buatan.
Penelitian tentang dampak teknologi kecerdasan buatan terhadap kesehatan mental sedang intensif dilaksanakan oleh para ahli dan lembaga kesehatan. Mereka berupaya untuk menemukan cara-cara yang lebih aman dan bertanggung jawab dalam mengintegrasikan teknologi AI ke dalam upaya pencegahan dan konseling dalam masalah kesehatan mental, terutama pada kelompok remaja.
Kasus ini tidak hanya merupakan peringatan bagi perusahaan teknologi, tetapi juga bagi masyarakat luas dan pemerintah. Perlindungan terhadap kesehatan mental remaja menjadi semakin penting dalam era digital ini, di mana interaksi dengan teknologi kecerdasan buatan semakin tidak terhindarkan. Kita perlu memastikan bahwa setiap implementasi teknologi selalu mempertimbangkan keamanan, etika, dan dampak sosial, terutama dalam hal-hal yang berkaitan dengan kesehatan mental.