cpu-data.info

"Responsible AI": Kecerdasan yang Bertanggung Jawab

Ilustrasi artificial intelligence (AI), kecerdasan buatan.
Lihat Foto

SEBELUMNYA, penulis telah menulis artikel yang membahas tentang 'Explainable AI', konsep yang berfokus pada pemahaman bagaimana kecerdasan buatan atau artificial intelligence (AI) membuat keputusan.

Kini, penulis akan membahas lebih lanjut tentang aspek penting lainnya dari AI, yaitu Responsible AI atau AI yang bertanggung jawab.

AI telah menjadi pendorong utama dalam berbagai aspek kehidupan kita, dari sistem otomatisasi di industri hingga rekomendasi musik di aplikasi ponsel. Namun, penggunaan AI juga menghadirkan tantangan etis, hukum, dan sosial yang cukup nyata.

Sebagai contoh, di Mountain View, California, pada Maret 2018, Tesla mendapat sorotan setelah kecelakaan yang melibatkan mobil otonom mereka yang mengakibatkan korban jiwa.

Ini adalah pertanyaan penting tentang "keamanan" dalam penggunaan AI.

Pada tahun yang sama, studi yang dilakukan oleh Joy Buolamwini di MIT menemukan bahwa algoritma pengenalan wajah dari IBM, Microsoft, dan Face++ memiliki tingkat kesalahan yang lebih tinggi pada wajah yang berkulit gelap dan wanita.

Tidak lama setelah itu, di Seattle, Amazon menghadapi kritik ketika sistem rekrutmen AI-nya lebih memilih pelamar pria daripada wanita.

Kasus algoritma pengenalan wajah dan rekruitmen Amazon adalah pelanggaran terhadap prinsip "keadilan" dalam Responsible AI.

Begitu pula, skandal Cambridge Analytica yang terjadi pada 2018, adalah contoh lain. Data dari jutaan pengguna Facebook digunakan tanpa persetujuan untuk memengaruhi pemilihan presiden Amerika Serikat pada 2016.

Ini adalah pelanggaran terhadap prinsip "privasi" dalam Responsible AI.

Tidak lama kemudian, pada tahun 2019 di London, Metropolitan Police Service (MPS) menggunakan teknologi pengenalan wajah secara luas. Hal ini menimbulkan banyak kontroversi dan debat karena kurangnya penjelasan yang memadai kepada publik.

Ini menjadi contoh konkret tentang pelanggaran "transparansi" dalam penggunaan AI.

Yang terbaru, pada tahun 2023, peneliti Stanford harus menutup proyek Alpaca AI mereka karena munculnya 'halusinasi' oleh AI.

Bahkan teknologi yang sedang naik daun saat ini, ChatGPT, juga dilaporkan telah digunakan untuk membuat artikel palsu yang menyesatkan pembaca.

"Keamanan", "keadilan", "privasi", dan "transparansi" adalah empat aspek penting dalam Responsible AI.

Terkini Lainnya

Tautan Sahabat