Jakarta — Google mengungkap adanya serangan besar terhadap sistem kecerdasan buatan miliknya, Gemini. Serangan dilakukan melalui lebih dari 100.000 permintaan atau prompt yang dikirim secara sistematis oleh pihak tak dikenal.
Aktivitas tersebut diduga sebagai upaya untuk meniru atau mengkloning kemampuan model AI milik Google. Temuan ini sekaligus menyoroti meningkatnya ancaman keamanan di era kecerdasan buatan generatif.
Serangan Dilakukan Lewat Ribuan Prompt
Google menjelaskan bahwa pelaku mengirimkan pertanyaan dalam jumlah besar dengan pola tertentu. Tujuannya adalah mempelajari cara AI merespons berbagai instruksi.
Metode ini dikenal sebagai model extraction attack. Teknik tersebut memungkinkan pelaku mengumpulkan jawaban AI secara bertahap hingga mampu meniru perilaku sistem.
Berbeda dari peretasan biasa, serangan ini tidak membobol server. Pelaku justru memanfaatkan interaksi normal dengan chatbot untuk mengamati pola respons AI.
Sistem Keamanan Berhasil Mendeteksi
Google menyebut aktivitas mencurigakan tersebut terdeteksi melalui sistem pemantauan internal. Sistem keamanan mampu mengenali pola penggunaan yang tidak wajar.
Perusahaan memastikan tidak ada kebocoran teknologi inti maupun data sensitif. Meski demikian, insiden ini menjadi peringatan bahwa model AI juga dapat menjadi target eksploitasi baru.
Ancaman Baru di Dunia Kecerdasan Buatan
Para ahli keamanan menilai serangan berbasis prompt akan semakin sering terjadi. Hal ini karena model AI memiliki nilai ekonomi tinggi dan membutuhkan biaya besar untuk dikembangkan.
Jika berhasil ditiru, pihak lain berpotensi memperoleh teknologi serupa tanpa harus melalui proses pelatihan yang mahal dan panjang.
Google Perkuat Perlindungan AI
Sebagai langkah pencegahan, Google meningkatkan sejumlah sistem keamanan, antara lain:
-
membatasi permintaan berulang yang mencurigakan,
-
meningkatkan deteksi otomatis aktivitas abnormal,
-
serta memperketat pemantauan penggunaan layanan AI.
Google juga mendorong kerja sama antarperusahaan teknologi untuk menghadapi ancaman keamanan baru di sektor AI.
Keamanan AI Jadi Tantangan Masa Depan
Perkembangan kecerdasan buatan yang sangat cepat membawa manfaat besar, tetapi juga risiko baru. Selain penyalahgunaan konten, kini muncul ancaman pencurian kemampuan model melalui analisis respons.
Para pengamat menilai perlindungan model AI akan menjadi fokus utama industri teknologi global dalam beberapa tahun ke depan.
Kesimpulan
Kasus serangan 100.000 prompt terhadap Gemini menunjukkan bahwa keamanan AI kini sama pentingnya dengan keamanan siber tradisional. Meski berhasil ditangani, insiden ini menjadi pengingat bahwa teknologi canggih tetap membutuhkan perlindungan berlapis.









