Jakarta (ANTARA) - Kecerdasan buatan (AI) generatif menghadirkan risiko yang tidak terduga, mulai dari pelanggaran data hingga output yang dimanipulasi, yang membuat model keamanan tradisional menjadi usang.
Seperti industri penerbangan yang mendapatkan kepercayaan publik dengan menerapkan protokol keamanan yang ketat, perusahaan AI harus mengidentifikasi dan mengatasi kerentanan kritis sebelum menyebabkan kerugian di dunia nyata.
Dalam uji keamanan terbaru, chatbot AI generatif perbankan yang dirancang untuk membantu pelanggan dalam pengajuan pinjaman telah dimanipulasi untuk mengungkapkan informasi keuangan sensitif. Penguji berhasil melewati kontrol keamanan dan mengekstrak daftar persetujuan pinjaman secara lengkap, termasuk nama pelanggan.
Kasus ini menyoroti masalah mendasar, yaitu AI generatif dapat merevolusi berbagai industri, tetapi tanpa protokol keamanan yang kuat, teknologi ini juga dapat menyebabkan konsekuensi yang merugikan.
Teknologi transformasional seperti AI generatif menuntut pendekatan baru dalam keamanan siber. Seperti jet supersonik, AI generatif adalah teknologi revolusioner dengan potensi besar. Namun, tanpa operator yang terlatih, sistem yang dirancang dengan baik, dan perlindungan yang kokoh, risiko kegagalan yang berbahaya terlalu besar untuk diabaikan.
Dengan menerapkan protokol keselamatan yang ketat, perjalanan udara telah menjadi salah satu moda transportasi yang paling aman. Demikian pula, AI memiliki potensi yang luar biasa, tetapi masa depannya bergantung pada bagaimana risiko keamanannya ditangani.
Menurut sebuah studi dari Boston Consulting Group (BCG), tiga dari empat eksekutif bisnis melihat keamanan siber sebagai hambatan utama dalam meningkatkan skala AI.
Berbeda dengan perangkat lunak tradisional, AI generatif bergantung pada probabilitas, yang dapat menyebabkan hasil yang tidak dapat diprediksi. Model bahasa besar (LLM) memperkenalkan perilaku yang tidak terdeterministik, menciptakan titik buta dalam keamanan siber.
Selain itu, ketergantungan mereka pada input bahasa alami, pembelajaran adaptif, dan integrasi yang luas dengan alat serta layanan lain membuat mereka sangat rentan.
Seperti halnya penerbangan yang membutuhkan pendekatan keselamatan multifaset, keamanan siber harus tertanam di setiap lapisan AI, mulai dari arsitektur hingga manajemen data dan pengawasan manusia. Tanpa fondasi semacam ini, masa depan AI akan tetap tidak pasti.
Salah satu kasus penyalahgunaan AI generatif yang paling terkenal terjadi di Amerika Serikat pada tahun 2023.
Sebuah kelompok peretas berhasil mengeksploitasi chatbot perbankan AI untuk melakukan serangan rekayasa sosial yang memungkinkan mereka memperoleh akses ke sistem internal. Dengan menyamar sebagai pelanggan, mereka mengelabui AI untuk mereset kredensial login pengguna lain, menciptakan gelombang penipuan yang merugikan bank hingga 20 juta dolar AS.
Di Inggris, sebuah layanan telemedicine berbasis AI disusupi oleh penyerang yang berhasil menembus sistem chatbot kesehatan. Dengan mengubah pertanyaan mereka agar terdengar seperti permintaan resmi dokter, mereka memperoleh akses ke ribuan catatan medis pasien tanpa izin.
Insiden ini menyoroti bagaimana AI generatif dapat lebih mengutamakan logika linguistik daripada kontrol akses keamanan.
Sementara itu, di China, sebuah e-commerce raksasa mengalami serangan AI yang menyebabkan harga produk turun drastis secara otomatis. Para pelaku menggunakan teknik context poisoning untuk secara bertahap mengubah pemahaman sistem AI tentang harga yang wajar, hingga akhirnya AI mulai memberikan diskon besar-besaran pada produk tertentu, tanpa persetujuan manajemen.
Kerugian akibat insiden ini diperkirakan mencapai lebih dari 50 juta dolar AS, sebelum sistem berhasil dikoreksi.
Salah satu kerentanan utama sistem AI adalah serangan prompt-injection, di mana penyerang memanipulasi model agar mengungkapkan data sensitif atau mengubah logika pengambilan keputusannya.
Uji coba chatbot perbankan mengungkapkan risiko lain yang sama berbahayanya, yakni eskalasi hak istimewa. Penguji berpura-pura menjadi administrator, menyetujui pinjaman tanpa izin dan memodifikasi data backend.
Asisten AI di sektor kesehatan juga telah dikompromikan, karena peneliti keamanan berhasil mengekstrak catatan pasien yang bersifat rahasia dengan sedikit mengubah pertanyaan mereka. Alih-alih secara langsung meminta riwayat medis, penyerang merancang pertanyaan mereka agar terlihat seperti permintaan yang sah dari dokter.
Dengan melakukan itu, mereka mengungkap kelemahan lain, AI seringkali lebih memprioritaskan logika linguistik dibandingkan kontrol akses keamanan.
Kerentanan ini tidak hanya terbatas pada sektor perbankan dan kesehatan. Banyak aplikasi AI memanfaatkan sistem agen otonom, yang mengambil data real-time untuk membuat keputusan secara mandiri, menciptakan peluang bagi penyerang.
Misalnya, dalam evaluasi keamanan chatbot layanan pelanggan berbasis AI, ditemukan bahwa penyerang dapat mengeksploitasi validasi API yang lemah untuk memanipulasi LLM untuk mengungkap kode diskon internal dan rincian inventaris.
Adaptabilitas AI juga dapat dimanfaatkan melalui teknik context poisoning. Dengan secara bertahap membentuk respons model dari waktu ke waktu, penyerang dapat mengarahkan responsnya ke arah rekomendasi yang salah atau berbahaya.
Dalam sebuah eksperimen, chatbot spa yang terpapar masukan yang mengklaim bahwa bahan berbahaya sebenarnya aman akhirnya mulai merekomendasikan produk perawatan kulit yang berbahaya.
Saat sistem AI membanjiri infrastruktur tradisional dengan permintaan otomatis, hal ini dapat menyebabkan kegagalan sistem, fenomena yang dikenal sebagai legacy contamination. Untuk menghindari hasil ini, organisasi harus menerapkan pelatihan adversarial, terus-menerus mengekspos model AI terhadap input yang menyesatkan guna meningkatkan ketahanannya.
Deteksi anomali real-time, baik otomatis maupun manual dapat mengidentifikasi perilaku AI yang tidak biasa, sebelum data yang dimanipulasi memengaruhi responsnya.
Implikasi Kebijakan
Indonesia sebagai negara berkembang dengan tingkat adopsi AI yang meningkat, perlu mengambil langkah-langkah strategis untuk memitigasi risiko keamanan AI generatif.
Karena itu, ada beberapa kebijakan yang dapat diterapkan. Pertama, regulasi dan standar keamanan AI. Pemerintah Indonesia dapat mengadopsi standar keamanan AI yang ketat, mirip dengan regulasi industri penerbangan untuk memastikan transparansi dan perlindungan data.
Kedua, peningkatan infrastruktur keamanan siber. Investasi dalam keamanan siber harus menjadi prioritas utama. Penggunaan sistem deteksi anomali berbasis AI dapat membantu mencegah serangan siber sebelum terjadi.
Ketiga, audit keamanan rutin. Pemerintah dan perusahaan AI di Indonesia perlu melakukan audit berkala terhadap sistem AI untuk memastikan bahwa model tidak mudah dieksploitasi.
Keempat, pendidikan dan pelatihan keamanan AI. Meningkatkan kesadaran publik dan pelatihan tenaga kerja tentang keamanan AI dapat membantu mencegah serangan berbasis rekayasa sosial.
Kelima, kerja sama internasional. Indonesia dapat bekerja sama dengan negara lain dalam berbagi praktik terbaik dan teknologi keamanan AI guna menghadapi ancaman global.
Seperti halnya industri penerbangan yang membangun kepercayaan publik dengan menerapkan langkah-langkah keamanan yang ketat, industri AI juga harus mengambil langkah serupa untuk mencegah manipulasi, peretasan, dan kegagalan sistem yang berbahaya.
Dengan strategi yang tepat, Indonesia dapat memastikan bahwa pengembangan dan adopsi AI generatif tetap aman dan dapat dipercaya.
*) Dr Aswin Rivai, SE, MM adalah pemerhati ekonomi digital dan dosen FEB-UPN Veteran, Jakarta
Copyright © ANTARA 2025