Sacramento (ANTARA) - Ketika banyak perusahaan Amerika Serikat (AS) berlomba-lomba mengintegrasikan kecerdasan buatan (artificial intelligence/AI) ke dalam pekerjaan sehari-hari, mereka mulai menyadari adanya biaya tersembunyi, yakni kebocoran data yang lebih besar dan lebih mahal.
Laporan bertajuk "Cost of a Data Breach 2025", yang dipublikasikan oleh IBM pada Rabu (30/7) mengungkapkan bahwa 13 persen dari 600 organisasi yang diteliti mengalami kebocoran data yang melibatkan model atau aplikasi AI mereka sendiri. Yang mengkhawatirkan, kontrol akses dasar hilang dalam 97 persen kasus-kasus tersebut.
Laporan tersebut juga menemukan bahwa para penyerang menggunakan teknologi ini untuk melawan penciptanya, dengan satu dari enam kebocoran data melibatkan penjahat yang memanfaatkan perangkat AI, terutama untuk membuat surel penipuan (phishing) yang meyakinkan dan pemalsuan dalam (deepfake).
Apa yang disebut "AI bayangan" (shadow AI), sistem yang digunakan oleh karyawan tanpa izin resmi, terbukti bahkan lebih mahal. Sebanyak 20 persen responden menyalahkan kebocoran data mereka pada AI yang tidak sah, yang menambah rata-rata kerugian sekitar 670.000 dolar AS (1 dolar AS = Rp16.378). Ketika "AI bayangan" hadir, total biaya kebocoran meningkat menjadi 4,74 juta dolar, dibandingkan dengan 4,07 juta dolar ketika tidak ada.
Beberapa insiden terbaru menggambarkan bagaimana kelalaian kecil dalam keamanan AI dapat berujung bencana. Pada 2023, satu tautan berbagi Azure yang salah konfigurasi di repositori riset AI milik Microsoft mengekspos 38 terabita file internal dan lebih dari 30.000 pesan Teams.
Pada tahun yang sama, Samsung sempat melarang penggunaan perangkat AI generatif setelah para insinyurnya menyalin desain cip rahasia ke dalam ChatGPT, yang berisiko menimbulkan kebocoran sensitif.
Bahkan penyedia AI sendiri pun rentan. Pada Maret 2023, bug di layanan ChatGPT milik OpenAI sempat mengekspos beberapa alamat pembayaran dan sebagian detail kartu milik beberapa pengguna.
Meski sudah ada peringatan semacam itu, 87 persen perusahaan masih belum memiliki kebijakan atau proses tata kelola untuk memitigasi risiko AI, walau kompromi rantai pasokan telah memicu hampir sepertiga dari kebocoran terkait AI.
Untuk mengatasi celah-celah tersebut, para analis menekankan bahwa keamanan dimulai dengan identitas. Organisasi harus menerapkan manajemen kredensial yang ketat untuk staf dan algoritma, merotasi kunci secara berkala, dan mengenkripsi semua data yang digunakan untuk melatih atau memberi perintah pada model AI.
"Pemeriksaan rutin AI" (AI health checks) secara kuartalan yang melibatkan para pemimpin bisnis dan keamanan dapat mengidentifikasi proyek yang tidak sah, sementara platform pendeteksian ancaman otomatis membantu tim keamanan yang kekurangan staf membedakan ancaman nyata dari alarm palsu.
Laporan tersebut menyimpulkan bahwa "AI untuk keamanan dan otomatisasi menurunkan biaya, sementara AI bayangan menaikkannya." Organisasi dengan (sistem) kontrol yang matang berhasil mengurangi biaya kebocoran hingga hampir 40 persen.
Laporan itu menyebutkan bahwa dengan rata-rata kebocoran di AS yang kini menelan biaya 10,22 juta dolar serta regulator dari Brussel hingga Washington yang sedang merancang aturan baru untuk algoritma yang haus data, dewan memiliki motif finansial yang jelas untuk memperlakukan setiap model, catatan, dan antarmuka obrolan sebagai aset penting yang dilindungi oleh autentikasi multifaktor, tautan berbagi terbatas waktu, dan audit berkelanjutan sebelum gelombang mesin pintar berikutnya tiba.
Pewarta: Xinhua
Editor: Benardy Ferdiansyah
Copyright © ANTARA 2025
Dilarang keras mengambil konten, melakukan crawling atau pengindeksan otomatis untuk AI di situs web ini tanpa izin tertulis dari Kantor Berita ANTARA.


















































