cpu-data.info

Tiga Bias Berbahaya AI dan Solusinya

Ilustrasi pemanfaatan kecerdasan buatan (artificial intelligence atau AI).
Lihat Foto

PADA tulisan penulis sebelumnya di Kolom berjudul "Berkaca Kasus Indra Kenz dan Reza Paten: Hati-hati, Artificial Intellegence Jadi Ilmu Palsu" (15/11/2022), telah dibahas bahwa Artificial Intelligence (AI) bisa menjadi ilmu palsu.

Tulisan kali akan diawali dengan tiga bias dari AI yang membahayakan kita semua. Pertama, bias sistemik, yakni ketika AI dihasilkan dari prosedur dan praktik institusi tertentu yang beroperasi dengan cara yang mengakibatkan kelompok sosial tertentu diuntungkan atau disukai, serta yang lain diuntungkan atau direndahkan.

Hal ini tidak harus merupakan akibat dari prasangka atau diskriminasi yang disadari, melainkan dari mayoritas yang mengikuti aturan atau norma yang ada. Rasisme institusional dan seksisme adalah contoh paling umum.

Kedua, bias statistik dan komputasi, yakni berasal dari kesalahan AI yang dihasilkan ketika sampel tidak mewakili populasi.

Bias ini muncul dari kesalahan sistematis yang bertentangan dengan kesalahan acak dan dapat terjadi tanpa adanya prasangka, keberpihakan, atau niat diskriminatif.

Ketiga, bias manusia, yakni kesalahan sistematis dalam pemikiran manusia berdasarkan sejumlah prinsip heuristik dan memprediksi nilai untuk operasi penilaian yang lebih sederhana.

Bias ini sering kali tersirat dan cenderung berhubungan dengan bagaimana individu atau kelompok memandang informasi (seperti keluaran AI otomatis) dalam membuat keputusan atau mengisi informasi yang hilang atau tidak diketahui.

Atas tiga bias ini, penulis mengajak semua pihak menerapkan pendekatan standar COBIT 2019 dalam tata kelola AI, baik sebelum implementasi atau simultan pelaksanaan.

Secara prinsip, tata kelola ini diperlukan di berbagai tingkatan serta sangat penting menjadikan pertimbangan etis sebagai faktor signifikan.

Pencarian ini paralel dilakukan dalam kerangka kerja etis otoritatif guna memanfaatkan kerangka tata kelola AI. Sebab, semakin banyak literatur yang menyarankan potensi bias dalam aplikasi AI yang dirilis.

Dengan demikian, empat landasan COBIT 2019 (lihat gambar di bawah) dari model yang dipilih adalah etika (ethics), keselarasan (alligment), akurasi (accuracy), serta dapat dimengerti (understabilty).

Ini dikarenakan integritas informasi sangat penting dalam semua aplikasi ICT serta di sisi lain, harus dapat dimengerti karena banyak dari apa yang terjadi di AI adalah hasil algoritma matematika yang sangat kompleks.

Empat landasan COBIT 2019Dimitri Mahayana Empat landasan COBIT 2019

Empat Elemen COBIT 2019 dan Governance Objectice Model

Elemen pertama adalah penyelarasan (alignment). Dalam konteks pemasaran, penyelarasan pemanfaatan AI dengan strategi bisnis, kebutuhan konsumen, dan kesepakatan kontrak sangat penting dilakukan.

Ini memastikan bahwa transparansi pemangku kepentingan ditegakkan dan penggunaan AI tidak bertentangan dengan rasa saling percaya sehingga mengarah pada hasil efektif.

Untuk memberikan pemahaman lebih baik tentang bagaimana masing-masing dari empat pilar terkait domain COBIT 2019, ada berbagai proses dan aktivitas kontrol di bawah setiap kategori.

Terkini Lainnya

Tautan Sahabat