cpu-data.info

Tanggung Jawab Hukum dan Kiat Menghindari Halusinasi AI

Ilustrasi pemanfaatan kecerdasan buatan (artificial intelligence atau AI).
Lihat Foto

JAGAT teknologi digital memang istimewa. Selain melahirkan beragam invensi dan kekayaan intelektual, mengubah prinsip-prinsip hukum, juga kaya akan istilah baru.

Terminologi itu secara bebas merdeka diserap dari berbagai disiplin ilmu lain, contoh yang tengan trending topic adalah istilah halusinasi AI (AI hallucination).

Gara-gara memiliki konotasi baru yang dikaitkan dengan AI, kata 'halusinasi' sukses dinobatkan sebagai kata terbaik tahun ini “The Cambridge Dictionary World of The Year 2023”.

Halusinasi secara konservatif adalah keadaan saat seseorang mendengar, melihat, mencium, atau merasakan sesuatu yang tampak nyata, tetapi hanya ada dalam pikiran (National Health Service UK, 2022).

Halusinasi tentu bisa terjadi pada manusia, makhluk yang tidak hanya memiliki logika, tapi juga menggunakan panca indera. Namun istilah ini menjadi istimewa, saat dikaitkan dengan "prilaku" AI, sistem teknologi yang tak memiliki emosi dan nir-hati nurani.

Fenomena

Istilah “AI hallucination” dalam praktik terjadi saat luaran AI sangat berbeda dari data yang dilatihkan.

Baca juga: Halusinasi AI dan Pentingnya Regulasi

Informasi yang bisa salah dan menyesatkan itu tersusun dengan bahasa yang runtut, frasa dan kalimat “logis sistematis” dan nyaris sempurna layaknya data berbasis fakta.

Pengguna tentu bisa terkecoh. Apalagi setelah pertanyaan diulangi beberapa kali, platform AI generatif itu, misalnya, tetap pada jawaban sama, kadang pakai "ngotot" pula.

Jan Ulrych dalam tulisannya “Data Lineage Sheds Light on Generative AI’s Hallucination Problem” (18/8/2023), menyatakan bahwa kejadian halusinasi AI generatif, bergantung pada data yang dilatihkan. Karena data ini yang digunakan untuk membangun idenya.

Menurut dia, dibutuhkan data berkualitas tinggi untuk menghasilkan informasi berkualitas tinggi.

Ia mengingatkan, halusinasi terjadi karena pada dasarnya sifat algoritma adalah menghasilkan luaran berdasarkan probabilitas dan statistik, bukan pemahaman sebenarnya tentang konten.

Jika kita cermati fenomena ini juga kemungkinan terkait dengan model dan struktur pertanyaan yang diajukan pengguna. Reaksi AI, seringkali berbeda ketika konten yang sama diajukan dengan model dan struktur frasa yang berbeda.

Rob Waugh, seorang penulis teknologi digital, dalam tulisannya berjudul “Breakthrough offers a new way to stop AI 'hallucinating' and making up facts 14/11/2023”, menyatakan, bahwa sebuah terobosan teknologi, dapat membantu mengatasi masalah halusinasi AI.

Rob menyebut teknik baru, yang disebut Prediction-powered inference (PPI) untuk mengoreksi luaran model. PPI bisa memperbaiki kesalahan yang mungkin terjadi.

Sementara itu, Michael Jordan, profesor teknik elektro dan ilmu komputer dan statistik terkemuka di Universitas California Berkeley, mengatakan bahwa model-model ini dapat menjawab banyak pertanyaan.

Terkini Lainnya

Tautan Sahabat