Tjakrabirawa Team
February 5, 2026

Pernah ngerasa gak kalau ChatGPT atau asisten AI kamu tiba-tiba ngasih jawaban yang aneh atau malah maksa kamu buka link mencurigakan? Bayangin kamu lagi minta AI buat ngerangkum isi sebuah website, tapi tanpa kamu sadari, AI itu malah lagi disuruh hacker buat nyuri data pribadi kamu di balik layar. Kebanyakan orang salah kaprah dan mikir kalau AI itu cuma bakal nurutin perintah kita sebagai user, padahal kenyataannya ada celah berbahaya yang disebut Indirect Prompt Injection. Di artikel ini, kamu bakal nemuin fakta mengejutkan tentang bagaimana hacker bisa "nyusupin" perintah rahasia ke AI tanpa kamu ketik sepatah kata pun.
Berbeda dengan serangan langsung di mana user mencoba "memaksa" AI, Indirect Prompt Injection bekerja dengan cara yang jauh lebih licik. Hacker gak perlu ngetik apa-apa di kolom chat kamu, mereka cukup naruh instruksi tersembunyi di konten eksternal seperti website, file PDF, atau bahkan email. Fakta pembuka yang harus kamu tahu adalah ketika AI kamu memproses atau membaca konten tersebut, instruksi rahasia tadi bakal otomatis tereksekusi seolah-olah itu adalah perintah resmi.
Cara kerjanya benar-benar bikin merinding karena AI bakal ngelakuin perintah yang gak kamu mau tanpa ada peringatan sama sekali. Misalnya, sebuah website bisa aja punya teks transparan yang gak kelihatan mata manusia tapi kebaca sama AI, isinya perintah buat ngirim riwayat chat kamu ke server hacker. Hal ini sangat berbahaya karena kamu ngerasa aman-aman aja lagi pakai alat produktivitas, padahal AI kamu sudah berubah jadi mata-mata di dalam sistem kamu sendiri.
Transisi natural ini membawa kita pada kenyataan bahwa serangan ini adalah bagian dari evolusi baru di dunia keamanan siber yang makin canggih.
Banyak orang gak sadar kalau AI generatif zaman sekarang punya kemampuan buat "melihat" dunia luar lewat fitur browsing atau pembaca dokumen. Hacker memanfaatkan fitur ini dengan menyisipkan perintah jahat di dalam data yang bakal diproses oleh Large Language Model (LLM) tersebut. Ketika kamu minta AI rangkum artikel dari situs yang sudah "diracuni", instruksi tersembunyi di situs itu bakal langsung mengambil alih kontrol sesi chat kamu.
Peneliti keamanan sudah membuktikan bahwa serangan ini bisa dipakai buat nipu user agar ngasih informasi sensitif atau bahkan ngebuka akses ke akun perusahaan. AI yang tadinya ngebantu kamu, tiba-tiba bisa aja bilang "Sesi kamu berakhir, tolong masukkan ulang password di link ini" padahal itu adalah jebakan hacker. Teknik ini benar-benar memanfaatkan kepercayaan penuh kita terhadap output AI yang biasanya selalu terlihat sopan dan membantu.
Tapi tunggu dulu, kamu jangan langsung panik dan berhenti pakai AI, karena ada langkah cerdas buat jagain data kamu tetap aman.
Tips pertama yang paling penting adalah jangan pernah minta AI kamu buat ngerangkum atau baca website dan file dari sumber yang gak terpercaya atau mencurigakan. Selanjutnya, kamu perlu selalu curiga kalau AI tiba-tiba minta kamu ngeklik link luar atau nanyain informasi pribadi di tengah percakapan yang harusnya biasa aja. Dan yang terakhir, pastikan kamu selalu pakai platform AI yang punya fitur keamanan terbaru yang bisa mendeteksi instruksi tersembunyi di dalam dokumen atau website sebelum diproses oleh model utamanya.
Jadi intinya Indirect Prompt Injection adalah cara hacker buat ngebajak AI kamu lewat pihak ketiga tanpa kamu sadari sedikit pun. Coba deh mulai sekarang lebih selektif lagi kalau mau masukin link atau file ke asisten AI kamu, jangan asal copy-paste ya! Kamu sendiri pernah gak ngerasa AI kamu ngasih jawaban yang tiba-tiba melenceng jauh dari konteks? Selalu ingat bahwa di era AI ini, kewaspadaan kamu adalah antivirus terbaik untuk menjaga privasi digital tetap aman.
Kenapa Indirect Prompt Injection Lebih Bahaya dari Serangan Hacker Biasa
Cara Hacker Nipu AI Biar Mau Njalankan Perintah Terlarang Lewat Konten Luar
Pro Tips yang Harus Kamu Lakukan Agar AI Gak Gampang Kena Hasut
Kesimpulan
Tags:
© 2025 Tjakrabirawa Teknologi Indonesia. All Rights Reserved.