cpu-data.info

AI RMF 1.0 Pedoman Kecerdasan Buatan di AS dan Kalibrasi Hukum

Ilustrasi AI dalam situasi kerja
Lihat Foto

"Pendekatan sosio-teknis diperlukan untuk mengkalibrasi unsur teknologi dan humaniora. Pendekatan regulasi dan kebijakan AI seharusnya dilakukan dengan menimbang secara kalibratif atas fakta, ekosistem dan kondisi sosial dan budaya".

PEMERINTAH Amerika Serikat melalui National Institute of Standards and Technology (NIST), institusi di bawah US Department of Commerce, pada 26 Januari 2023, telah meluncurkan Artificial Intelligence Risk Management Framework (AI RMF 1.0).

AI RMF 1.0 adalah panduan dalam merancang, mengembangkan, menerapkan, atau menggunakan sistem AI, sekaligus mengelola risiko teknologi ini.

Pedoman ini untuk memaksimalkan manfaat teknologi AI dengan mengurangi kemungkinan dampak negatif terhadap individu, kelompok, komunitas, organisasi, dan masyarakat.

Tujuan lainnya adalah menumbuhkan kepercayaan masyarakat , agar teknologi AI diterima secara luas.

AI RMF 1.0

AI RMF 1.0 diproyeksikan akan menjadi rujukan yang diikuti secara internasional. Proses pembentukannya yang melibatkan Pemerintah dan swata, termasuk para tokoh, pioner, pengembang, praktisi, dan perusahaan pengembang AI, menjadikan Framework ini berpotensi menjadi sebuah Lex Informatica. Sebagai hukum kebiasaan internasional digital yang berlaku universal.

Dalam konteks Cyberlaw, di lingkungan jaringan digital, hukum dan peraturan bukan satu-satunya sumber regulasi.

Standar teknis, konfigurasi perangkat lunak, arsitektur perangkat keras, dan artikulasi praktik terbaik industri, juga memengaruhi bagaimana arus informasi diizinkan atau dilarang (Berkeley Law, University of California Berkeley 2021).

Pakar Cyberlaw Joel Reidenberg berpendapat, pada intinya seperangkat aturan arus informasi yang dipaksakan oleh teknologi dan jaringan komunikasi akan membentuk “Lex Informatica” sebagai suatu hal yang harus dipahami, disadari, dan didorong oleh pembuat kebijakan (1997).

Kerangka kerja yang dibuat NIST dimaksudkan untuk mengelola risiko dengan lebih baik, bagi individu, organisasi, dan masyarakat terkait dengan AI. Mengingat yang ditetapkan adalah “pedoman”, maka pelaksanaannya pun menjadi sukarela.

Produk NIST ini menjadi hal penting, dan bisa menjadi pedoman tidak hanya di AS. Kerangka kerja ini bisa menjadi rujukan dalam melakukan pertimbangan kelayakan desain, pengembangan, penggunaan, dan evaluasi produk, layanan, dan sistem AI di berbagai negara termasuk Indonesia.

AS sebagai negara di mana para pakar, tokoh, pengusaha dan pengembang dan pioner AI berada, Pemerintahnya tampak sangat hati-hati.

Pedoman yang telah dirilis ini, dikembangkan melalui proses konsensus, terbuka, dan transparan. Hal Ini dimaksudkan untuk membangun, menyelaraskan, dan mendukung upaya manajemen risiko AI, dengan pelibatan berbagai pihak.

Sebagaimana dirilis dari laman resmi NIST dengan judul “Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence (26/1/2023), Pedoman AI RMF 1.0 dibagi menjadi dua bagian.

Bagian pertama membahas bagaimana organisasi dapat menghadapi risiko yang terkait dengan AI dan menguraikan karakteristik sistem AI yang dapat dipercaya.

Terkini Lainnya

Tautan Sahabat