Keracunan Data, Modus Baru Menyasar Pelatihan AI

KERACUNAN data atau "data poisoning" adalah fenomena baru yang mengemuka dalam perkembangan Akal Imitasi (Artificial Intelligence) akhir-akhir ini.
Keracunan data adalah serangan siber yang menyasar kualitas dan integritas data pelatihan model AI, dan pembelajaran mesin (ML). Caranya dengan meracuni dalam arti memanipulasi atau merusak data pelatihan AI.
Jika serangan ini terjadi terhadap model AI tertentu seperti keandaraan otonom, maka modus ini dapat membahayakan keselamatan penggunanya.
Meskipun berbagai penelitian telah dilakukan di awal dekade ini, tetapi fenomena keracunan data menjadi topik utama saat ini, ketika AI Generatif secara masif dikembangkan.
Baca juga: Indonesia Memasuki Era WiFi Super Cepat Pendukung Ekonomi Digital
Keracunan data
Morgan Stanley akhir tahun lalu mempublikasikan laporan "AI and Cybersecurity: A New Era” (11/09/2024).
Laporan itu menyatakan, penjahat dunia maya menggunakan AI untuk melakukan berbagai serangan canggih, mulai dari “keracunan data” hingga deepfake.
AI telah berkembang pesat dan memengaruhi banyak aspek kehidupan, termasuk keamanan siber.
AI memiliki potensi besar untuk meningkatkan keamanan. Namun, para peretas juga mulai memanfaatkan AI untuk tujuan kejahatan. Mereka menggunakan AI untuk otomasi serangan yang lebih canggih dan efektif.
Dengan berkembangnya AI, negara perlu membuat regulasi dan individu serta organisasi perlu meninjau dan memperkuat perlindungan keamanan siber internal mereka.
Crowdstrike menurunkan laporan “Data Poisoning: The Exploitation Of Generative Ai” (Bart Lenaerts-Bergmans, 20/03/2024).
Laporan mengulas tentang keracunan data sebagai jenis serangan siber, dilakukan oleh penyerang, yang membahayakan kumpulan data pelatihan AI.
Baca juga: DeepSeek, Dinamika Saling Blokir, dan Pelindungan Data Pribadi
Serangan menyasar data pelatihan yang digunakan oleh model AI, atau pembelajaran mesin (ML). Tujuannya memengaruhi atau memanipulasi operasi model tersebut.
Modusnya dilakukan dengan beberapa cara, menyuntikkan informasi palsu atau menyesatkan ke dalam kumpulan data pelatihan, modifikasi dataset yang ada, atau menghapus sebagian dataset.
Targetnya untuk memengaruhi pengambilan keputusan model atau menghasilkan luaran bias dari platform AI.
Laporan itu menyebut deteksi serangan ini bisa sangat sulit. Terutama jika dilakukan oleh orang dalam yang memiliki akses dan pengetahuan tentang sistem keamanan organisasi.
Terkini Lainnya
- Keracunan Data, Modus Baru Menyasar Pelatihan AI
- Oppo A3i Plus Resmi, HP Rp 3 Jutaan dengan RAM 12 GB
- Broadcom dan TSMC Ingin Pecah Intel Jadi 2 Perusahaan
- WhatsApp Sebar Fitur Tema Chat, Indonesia Sudah Kebagian
- Bocoran Harga Xiaomi 15 Ultra yang Meluncur Sebentar Lagi
- 2,5 Miliar Akun Gmail Terancam AI Hack
- Arti “Fortis Fortuna Adiuvat” yang Sering Muncul di Bio TikTok dan Instagram
- Ditunjuk Jadi "Staff Khusus", Berapa Gaji Elon Musk?
- Meta Bikin Mesin "Pembaca Pikiran" Bertenaga AI, Begini Bentuknya
- Cara Mengaktifkan Kembali M-Banking BCA Terblokir Tanpa Harus ke Bank
- 7 Game PS5 Menarik di Sony State of Play 2025, Ada Game Mirip GTA V
- Samsung Pinjamkan 160 Unit Galaxy S25 di Acara Galaxy Festival 2025
- 15 Masalah yang Sering Ditemui Pengguna HP Android
- Samsung Gelar Galaxy Festival 2025, Unjuk Kebolehan Galaxy S25 Series lewat Konser dan Pameran
- Apa Beda Login dan Sign Up di Media Sosial? Ini Penjelasannya
- Broadcom dan TSMC Ingin Pecah Intel Jadi 2 Perusahaan
- Samsung Pinjamkan 160 Unit Galaxy S25 di Acara Galaxy Festival 2025
- Samsung Gelar Galaxy Festival 2025, Unjuk Kebolehan Galaxy S25 Series lewat Konser dan Pameran
- Oppo A3i Plus Resmi, HP Rp 3 Jutaan dengan RAM 12 GB
- Xiaomi Umumkan Tanggal Rilis HP Baru, Flagship Xiaomi 15 Ultra?