Keracunan Data, Modus Baru Menyasar Pelatihan AI

KERACUNAN data atau "data poisoning" adalah fenomena baru yang mengemuka dalam perkembangan Akal Imitasi (Artificial Intelligence) akhir-akhir ini.
Keracunan data adalah serangan siber yang menyasar kualitas dan integritas data pelatihan model AI, dan pembelajaran mesin (ML). Caranya dengan meracuni dalam arti memanipulasi atau merusak data pelatihan AI.
Jika serangan ini terjadi terhadap model AI tertentu seperti keandaraan otonom, maka modus ini dapat membahayakan keselamatan penggunanya.
Meskipun berbagai penelitian telah dilakukan di awal dekade ini, tetapi fenomena keracunan data menjadi topik utama saat ini, ketika AI Generatif secara masif dikembangkan.
Baca juga: Indonesia Memasuki Era WiFi Super Cepat Pendukung Ekonomi Digital
Keracunan data
Morgan Stanley akhir tahun lalu mempublikasikan laporan "AI and Cybersecurity: A New Era” (11/09/2024).
Laporan itu menyatakan, penjahat dunia maya menggunakan AI untuk melakukan berbagai serangan canggih, mulai dari “keracunan data” hingga deepfake.
AI telah berkembang pesat dan memengaruhi banyak aspek kehidupan, termasuk keamanan siber.
AI memiliki potensi besar untuk meningkatkan keamanan. Namun, para peretas juga mulai memanfaatkan AI untuk tujuan kejahatan. Mereka menggunakan AI untuk otomasi serangan yang lebih canggih dan efektif.
Dengan berkembangnya AI, negara perlu membuat regulasi dan individu serta organisasi perlu meninjau dan memperkuat perlindungan keamanan siber internal mereka.
Crowdstrike menurunkan laporan “Data Poisoning: The Exploitation Of Generative Ai” (Bart Lenaerts-Bergmans, 20/03/2024).
Laporan mengulas tentang keracunan data sebagai jenis serangan siber, dilakukan oleh penyerang, yang membahayakan kumpulan data pelatihan AI.
Baca juga: DeepSeek, Dinamika Saling Blokir, dan Pelindungan Data Pribadi
Serangan menyasar data pelatihan yang digunakan oleh model AI, atau pembelajaran mesin (ML). Tujuannya memengaruhi atau memanipulasi operasi model tersebut.
Modusnya dilakukan dengan beberapa cara, menyuntikkan informasi palsu atau menyesatkan ke dalam kumpulan data pelatihan, modifikasi dataset yang ada, atau menghapus sebagian dataset.
Targetnya untuk memengaruhi pengambilan keputusan model atau menghasilkan luaran bias dari platform AI.
Laporan itu menyebut deteksi serangan ini bisa sangat sulit. Terutama jika dilakukan oleh orang dalam yang memiliki akses dan pengetahuan tentang sistem keamanan organisasi.
Terkini Lainnya
- Qualcomm Rilis Chipset Snapdragon Seri G Baru untuk PC Gaming Handheld
- Steam Spring Sale 2025, Diskon Game hingga 75 Persen
- Gamer PC Lebih Suka Windows 10 daripada Windows 11
- Miliaran Perangkat IoT di Seluruh Dunia Terancam Celah Chip Bluetooth
- Cara Menggunakan Avatar di Zoom Meeting dengan Mudah
- Foto Dummy iPhone 17 Air Beredar, Beneran Tanpa Port?
- Cara Kirim THR Lebaran Pakai GoPay, Cepat dan Praktis
- Siap-siap, Google Assistant Bakal Diganti Gemini
- Honor Resmi Buka First Sale untuk 8 Gadget Premium dengan Promo Menggiurkan di Shopee
- Cara Buat QRIS untuk Transfer THR Lebih Cepat dan Mudah
- Spesifikasi Xiaomi 15 Ultra dan Harganya di Indonesia
- Baidu Rilis Ernie X1 dan Ernie 4.5, Model AI Penantang DeepSeek dan OpenAI
- Sirkuit Balapan AI Semakin Tajam! Apakah Manus AI Segera Gantikan ManusIA? (Bagian II-Habis)
- Spesifikasi dan Harga Oppo A5 Pro 5G di Indonesia, Mulai Rp 4 Jutaan
- Kreator Konten Wajib Tahu, Ini Waktu Terbaik Posting di IG, TikTok, dkk
- Broadcom dan TSMC Ingin Pecah Intel Jadi 2 Perusahaan
- Samsung Pinjamkan 160 Unit Galaxy S25 di Acara Galaxy Festival 2025
- Samsung Gelar Galaxy Festival 2025, Unjuk Kebolehan Galaxy S25 Series lewat Konser dan Pameran
- Oppo A3i Plus Resmi, HP Rp 3 Jutaan dengan RAM 12 GB
- Xiaomi Umumkan Tanggal Rilis HP Baru, Flagship Xiaomi 15 Ultra?