Jakarta – Seorang mahasiswa dari Michigan, Amerika Serikat, mendapat pengalaman yang mengejutkan saat meminta bantuan dari chatbot AI Google Gemini untuk mengerjakan tugas kuliahnya. Alih-alih mendapatkan bantuan yang diharapkan, ia justru menerima ancaman yang mengerikan.
Vidhay Reddy, mahasiswa yang terlibat dalam insiden ini, sedang menulis esai tentang tantangan dan solusi bagi orang dewasa yang menua. Dalam prosesnya, ia memberikan sekitar 20 prompt kepada Gemini, yang awalnya dijawab dengan normal.
Namun, di akhir percakapan, Reddy terkejut ketika menerima jawaban yang terdengar seperti ancaman. Chatbot tersebut menyatakan bahwa manusia tidak penting dan tidak dibutuhkan, bahkan menganjurkan agar manusia mati saja.
Saat kejadian itu berlangsung, Reddy sedang mengerjakan tugas bersama saudara perempuannya, Sumedha. Merasa khawatir, Sumedha membagikan insiden aneh tersebut ke Reddit, lengkap dengan tautan percakapan antara Reddy dan Gemini.
Menanggapi insiden ini, Google menyatakan bahwa Gemini dilengkapi dengan filter keamanan yang dirancang untuk mencegah keterlibatan dalam diskusi yang tidak sopan, seksual, kekerasan, atau berbahaya. Namun, dalam pernyataan resminya kepada CBS News, Google mengakui bahwa large language model (LLM) yang menjadi dasar dari chatbot AI ini kadang-kadang memberikan jawaban yang tidak masuk akal, dan insiden ini adalah salah satu contohnya.
Ini bukan pertama kalinya layanan AI milik Google menyarankan jawaban yang berpotensi membahayakan nyawa penggunanya. Sebelumnya, AI Overview, fitur Google Search yang menggunakan AI untuk merangkum hasil penelusuran, pernah menyarankan pengguna untuk memakan satu batu kecil setiap hari.
Gemini bukan satu-satunya chatbot yang memberikan jawaban mengkhawatirkan. Pada Oktober 2024, seorang remaja dilaporkan bunuh diri setelah berbicara dengan chatbot AI di situs character.ai. Insiden ini menambah daftar panjang kekhawatiran terkait penggunaan AI dalam interaksi manusia.