cpu-data.info

Keracunan Data, Modus Baru Menyasar Pelatihan AI

Ilustrasi artificial intelligence (AI), kecerdasan buatan.
Lihat Foto

KERACUNAN data atau "data poisoning" adalah fenomena baru yang mengemuka dalam perkembangan Akal Imitasi (Artificial Intelligence) akhir-akhir ini.

Keracunan data adalah serangan siber yang menyasar kualitas dan integritas data pelatihan model AI, dan pembelajaran mesin (ML). Caranya dengan meracuni dalam arti memanipulasi atau merusak data pelatihan AI.

Jika serangan ini terjadi terhadap model AI tertentu seperti keandaraan otonom, maka modus ini dapat membahayakan keselamatan penggunanya.

Meskipun berbagai penelitian telah dilakukan di awal dekade ini, tetapi fenomena keracunan data menjadi topik utama saat ini, ketika AI Generatif secara masif dikembangkan.

Baca juga: Indonesia Memasuki Era WiFi Super Cepat Pendukung Ekonomi Digital

Keracunan data

Morgan Stanley akhir tahun lalu mempublikasikan laporan "AI and Cybersecurity: A New Era” (11/09/2024).

Laporan itu menyatakan, penjahat dunia maya menggunakan AI untuk melakukan berbagai serangan canggih, mulai dari “keracunan data” hingga deepfake.

AI telah berkembang pesat dan memengaruhi banyak aspek kehidupan, termasuk keamanan siber.

AI memiliki potensi besar untuk meningkatkan keamanan. Namun, para peretas juga mulai memanfaatkan AI untuk tujuan kejahatan. Mereka menggunakan AI untuk otomasi serangan yang lebih canggih dan efektif.

Dengan berkembangnya AI, negara perlu membuat regulasi dan individu serta organisasi perlu meninjau dan memperkuat perlindungan keamanan siber internal mereka.

Crowdstrike menurunkan laporan “Data Poisoning: The Exploitation Of Generative Ai” (Bart Lenaerts-Bergmans, 20/03/2024).

Laporan mengulas tentang keracunan data sebagai jenis serangan siber, dilakukan oleh penyerang, yang membahayakan kumpulan data pelatihan AI.

Baca juga: DeepSeek, Dinamika Saling Blokir, dan Pelindungan Data Pribadi

Serangan menyasar data pelatihan yang digunakan oleh model AI, atau pembelajaran mesin (ML). Tujuannya memengaruhi atau memanipulasi operasi model tersebut.

Modusnya dilakukan dengan beberapa cara, menyuntikkan informasi palsu atau menyesatkan ke dalam kumpulan data pelatihan, modifikasi dataset yang ada, atau menghapus sebagian dataset.

Targetnya untuk memengaruhi pengambilan keputusan model atau menghasilkan luaran bias dari platform AI.

Laporan itu menyebut deteksi serangan ini bisa sangat sulit. Terutama jika dilakukan oleh orang dalam yang memiliki akses dan pengetahuan tentang sistem keamanan organisasi.

Terkini Lainnya

Tautan Sahabat