cpu-data.info

Saat AI Memberi Nasihat Sesat, Regulasi Kian Mendesak

Ilustrasi artificial intelligence (AI) atau kecerdasan buatan, pekerjaan di bidang AI.
Lihat Foto

PROFESOR Tomas Weber membagikan cerita pilu. Awal tahun ini, di Belgia, seorang ayah muda dari dua anak, mengakhiri hidupnya setelah percakapan dengan chatbot bertenaga AI.

Rupanya, dia telah bercakap intens dengan model AI tersebut secara rutin, dan menjadi bergantung secara emosional padanya, ungkap Weber dalam artikelnya “Artificial Intelligence and the Law, Legal Scholars on the Potential for Innovation and Upheaval” Stanford Law School, (5/12/2023).

Ketika sistem mendorongnya untuk bunuh diri, dia pun melakukannya. Weber mengutip pernyataan istri mendiang kepada surat kabar Brussels: “Tanpa percakapan dengan chatbot ini, suami saya akan tetap ada di sini.” Miris!

Waspada dan bijak

Waspada, bijak, dan cerdas menggunakan AI generatif (GenAI) sebagai bentuk AI terbaru non tradisional, adalah keniscayaan bagi siapapun. Karena kita tahu, di samping memiliki seabreg fungsi positif, AI juga bisa berdampak menyesatkan.

Baca juga: Tanggung Jawab Hukum dan Kiat Menghindari Halusinasi AI

Sangat berbahaya, ketika seseorang yang tengah tak fokus, atau terlilit masalah, bercakap-cakap dengan Chatbot GenAI, dan kemudian seolah mendapat jalan keluar yang tak tersaring kontennya, yang kemudian diikuti tanpa filtrasi.

Mark Lemley, Professor hukum Stanford Law School dan Direktur Stanford Program in Law, Science and Technology, menyatakan kekhawatirannya.

Jika dirangkum, Ia mengemukakan bahwa AI bisa memberikan nasihat destruktif, konten berbahaya seperti minum racun, atau disinformasi yang dapat merusak reputasi, bahkan memicu kekerasan.

AI memiliki kelemahan karena berbeda dengan manusia, yang setiap saat bisa menerima informasi terbaru, mencerna, dan kemudian mengolahnya menjadi buah pikiran, pendapat, atau hasil analitik.

AI tidak memiliki kemampuan seperti itu, dan sangat bergantung pada asupan data pelatihan yang terpola dan terikat pada waktu dan sistemnya. Maka jangan heran, luaran (output) jawaban AI sangat tergantung pada data yang dilatihkan kepadanya.

Jawaban yang salah bisa terjadi karena kesenjangan dan ketimpangan data hasil pelatihan yang sudah out of date, dengan data dan fakta terbaru, atau kondisi yang dihadapi saat ini.

Sebagai contoh, misalnya, ChatGPT 3.5 hanya update sampai data Januari 2022, maka akan sangat tak update terhadap data dan fakta setelahnya.

Ketergantungan pada data yang telah dipelajari, dan kesenjangan dengan data dan fakta mutakhir, dapat berdampak jawaban tak akurat. Data berkualitas tinggi sebagai materi pelatihan AI sangatlah penting, karena akan menghasilkan luaran optimal.

Salah satu kelemahan AI adalah jika informasi terkini tidak termasuk dalam data pelatihan. Atau jika ada perubahan keadaan secara signifikan sejak pelatihan dan data terakhir diperbarui.

Kondisi ini tentu akan berisiko tinggi jika terkait data untuk proses hukum di pengadilan misalnya, yang hanya memberi toleransi data dan fakta akurat, benar dan bukan fiktif atau rekayasa.

Baca juga: Polemik AI dan Hak Cipta

Oleh karena itu, melakukan verifikasi dengan data faktual, informasi terkini, termasuk update regulasi terbaru sangat penting.

Terkini Lainnya

Tautan Sahabat