Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

AI RMF 1.0 Pedoman Kecerdasan Buatan di AS dan Kalibrasi Hukum

Kompas.com - 21/05/2023, 08:00 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

"Pendekatan sosio-teknis diperlukan untuk mengkalibrasi unsur teknologi dan humaniora. Pendekatan regulasi dan kebijakan AI seharusnya dilakukan dengan menimbang secara kalibratif atas fakta, ekosistem dan kondisi sosial dan budaya".

PEMERINTAH Amerika Serikat melalui National Institute of Standards and Technology (NIST), institusi di bawah US Department of Commerce, pada 26 Januari 2023, telah meluncurkan Artificial Intelligence Risk Management Framework (AI RMF 1.0).

AI RMF 1.0 adalah panduan dalam merancang, mengembangkan, menerapkan, atau menggunakan sistem AI, sekaligus mengelola risiko teknologi ini.

Pedoman ini untuk memaksimalkan manfaat teknologi AI dengan mengurangi kemungkinan dampak negatif terhadap individu, kelompok, komunitas, organisasi, dan masyarakat.

Tujuan lainnya adalah menumbuhkan kepercayaan masyarakat , agar teknologi AI diterima secara luas.

AI RMF 1.0

AI RMF 1.0 diproyeksikan akan menjadi rujukan yang diikuti secara internasional. Proses pembentukannya yang melibatkan Pemerintah dan swata, termasuk para tokoh, pioner, pengembang, praktisi, dan perusahaan pengembang AI, menjadikan Framework ini berpotensi menjadi sebuah Lex Informatica. Sebagai hukum kebiasaan internasional digital yang berlaku universal.

Dalam konteks Cyberlaw, di lingkungan jaringan digital, hukum dan peraturan bukan satu-satunya sumber regulasi.

Standar teknis, konfigurasi perangkat lunak, arsitektur perangkat keras, dan artikulasi praktik terbaik industri, juga memengaruhi bagaimana arus informasi diizinkan atau dilarang (Berkeley Law, University of California Berkeley 2021).

Pakar Cyberlaw Joel Reidenberg berpendapat, pada intinya seperangkat aturan arus informasi yang dipaksakan oleh teknologi dan jaringan komunikasi akan membentuk “Lex Informatica” sebagai suatu hal yang harus dipahami, disadari, dan didorong oleh pembuat kebijakan (1997).

Kerangka kerja yang dibuat NIST dimaksudkan untuk mengelola risiko dengan lebih baik, bagi individu, organisasi, dan masyarakat terkait dengan AI. Mengingat yang ditetapkan adalah “pedoman”, maka pelaksanaannya pun menjadi sukarela.

Produk NIST ini menjadi hal penting, dan bisa menjadi pedoman tidak hanya di AS. Kerangka kerja ini bisa menjadi rujukan dalam melakukan pertimbangan kelayakan desain, pengembangan, penggunaan, dan evaluasi produk, layanan, dan sistem AI di berbagai negara termasuk Indonesia.

AS sebagai negara di mana para pakar, tokoh, pengusaha dan pengembang dan pioner AI berada, Pemerintahnya tampak sangat hati-hati.

Pedoman yang telah dirilis ini, dikembangkan melalui proses konsensus, terbuka, dan transparan. Hal Ini dimaksudkan untuk membangun, menyelaraskan, dan mendukung upaya manajemen risiko AI, dengan pelibatan berbagai pihak.

Sebagaimana dirilis dari laman resmi NIST dengan judul “Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence (26/1/2023), Pedoman AI RMF 1.0 dibagi menjadi dua bagian.

Bagian pertama membahas bagaimana organisasi dapat menghadapi risiko yang terkait dengan AI dan menguraikan karakteristik sistem AI yang dapat dipercaya.

Bagian kedua, membahas inti kerangka kerja, menjelaskan empat fungsi spesifik yang meliputi, mengatur, memetakan, mengukur, dan mengelola AI.

Berdasarkan naskah lengkap yang dipublikasikan laman resmi NIST dan juga publikasi bertajuk Artificial Intelligence Risk Management Framework AI RMF 1.0 (Elham Tabassi, 26/1/ 2023), ruang lingkup pedoman kerangka kerja ini meliputi:

Pertama, organisasi harus memupuk budaya manajemen risiko, termasuk struktur, kebijakan, dan proses yang sesuai.

Manajemen risiko harus menjadi prioritas dalam kepemimpinan. Juga terkait budaya organisasi, dan manajemen yang menyelaraskan aspek teknis manajemen risiko AI, dengan kebijakan organisasi. Peran pimpinan institusi dalam manajemen dan mitigasi risiko tampak menjadi fokus pedoman ini.

Kedua, Organisasi harus memahami dan menimbang manfaat, dan risiko sistem AI yang ingin mereka terapkan dibandingkan dengan status quo. Termasuk informasi kontekstual seperti kemampuan sistem, risiko, manfaat, dan dampak potensial.

Ketiga, dengan menggunakan metode penilaian risiko kuantitatif, kualitatif, atau campuran, serta masukan dari pakar independen, sistem AI harus dianalisis agar karakteristiknya dapat dipercaya, dampak sosial, dan faktor konfigurasi manusia dan AI itu sendiri.

Keempat, risiko yang teridentifikasi harus dikelola, dengan memprioritaskan sistem AI yang berisiko lebih tinggi.

Pemantauan risiko harus diterapkan dari waktu ke waktu. Karena konteks risiko, kebutuhan, atau harapan baru dan tak terduga, dapat muncul kapan saja.

AI RMF 1.0 juga mendorong penggunaan “profil” untuk mengilustrasikan bagaimana risiko dan hal lain terkait siklus hidup AI atau dalam aplikasi tertentu menggunakan contoh kehidupan nyata.

Pedoman ini dimaksudkan untuk adaptasi, saat teknologi terus berkembang, dan digunakan oleh organisasi dalam berbagai tingkat dan kapasitas. Dengan demikian, masyarakat dapat memperoleh dua hal, pertama, manfaat teknologi AI, dan kedua terlindungi dari potensi bahayanya.

Sosio-teknis dan data yang berubah

Harus disadari bahwa sistem AI juga memiliki unsur "sosio-teknis". AI dipengaruhi oleh dinamika masyarakat dan perilaku manusia.

Sosio-teknis dalam pengembangan AI begitu penting diantisipasi, mengingat AI sebagai kecerdasan buatan, terus berinteraksi dengan manusia. AI hanya dapat “berpikir” dan tidak memiliki perasaan dan Nurani.

AI akan memberi solusi dengan benar, jika didukung dan terkalibrasi dengan data yang akurat, bersih dan tidak bias.

Risiko AI dapat muncul dari interaksi yang kompleks, antara faktor teknis dan sosial, yang memengaruhi kehidupan manusia dalam berbagai situasi.

Jika dibandingkan dengan perangkat lunak tradisional, AI menimbulkan sejumlah risiko berbeda. Sistem AI dilatih berdasarkan data yang dapat berubah seiring waktu, terkadang secara signifikan dan tidak terduga, yang memengaruhi sistem dengan cara yang sulit dipahami.

Oleh karena itu, AI RMF 1.0 ini menjadi instrumen organisasi tentang AI dan berbagai risikonya.

Hal lainnya adalah untuk mempromosikan perubahan budaya kelembagaan, mendorong organisasi untuk mendekati AI dengan perspektif baru, termasuk cara memikirkan, mengkomunikasikan, mengukur, dan memantau risiko AI serta potensi dampak positif dan negatifnya.

Di sinilah pentingnya pendekatan sosio teknis itu dengan tetap menjadikan manusia sebagai pusatnya (human center).

Sebagaimana disampaikan Wakil Sekretaris untuk Standar dan Teknologi dan Direktur NIST Laurie E. Locascio, bahwa Kerangka Kerja Manajemen Risiko AI dapat membantu perusahaan dan organisasi lain di sektor apa pun, dan ukuran apa pun, untuk memulai atau meningkatkan pendekatan manajemen risiko AI mereka.

AI RMF 1,0 yang proses pembentukannya memakan waktu 18 bulan, dengan sekitar 400 kumpulan komentar formal yang diterima NIST dari lebih dari 240 organisasi berbeda tentang versi draf framework yang bertsifat dinamis, dapat mendorong pengembangan praktik dan standar terbaik.

Kalibrasi hukum dan kebijakan

Indonesia adalah negara yang diperhitungkan dalam kaitannya dengan perkembangan teknologi dan ekonomi digital. Oleh karena itu, kita perlu mencermati terus perkembangan regulasi dan praktik di bidang ini.

Sebagaimana realitas saat ini, karakter teknis, produk, cara kerja dan “prilaku” teknologi informasi, telah melahirkan model bisnis, hubungan antar manusia, pola ekonomi dan ekosistem sosial baru.

Fenomena yang terus melesat tak terbendung seperti di bidang AI, telah melahirkan variabel “hukum kebiasaan baru” yang dalam banyak hal langsung diadopsi masyarakat.

Dalam kapasitas inilah regulasi progresif transformatif perlu dibangun. Karena pendekatan konservatif tidak akan bisa menjawab persoalan.

Berbeda dengan Uni Eropa yang melakukan pendekatan regulatif berupa sebuah Undang-undang EU Artificial Intelligence (AI) Act, AS rupanya di bidang AI aktual lebih memilih pendekatan berbasis guideline dan framework berupa AI RMF 1.0 yang suatu ketika menjadi cikal bakal Lex Informatica.

Pendekatan sosio-teknis, diperlukan untuk mengkalibrasi unsur teknologi dan humaniora. Pengembang AI seharusnya terus melakukan kalibrasi dengan fakta, ekosistem, kondisi sosial budaya dan dimensi peradaban manusia.

Jika hasil uji menunjukkan bahwa sistem tidak sesuai atau mengancam keselamatan manusia, maka harus dilakukan perbaikan atas sistem AI yang ada.

Sudah saatnya, dalam menetapkan regulasi dan kebijakan digital, kita melakukan pendekatan kalibrasi hukum.

Dalam arti mengkalibrasi regulasi dan kebijakan yang akan ditetapkan dengan nilai-nilai ideologis, realitas dan kebutuhan nasional, serta kalibrasi dengan lex infotmatika dan best practices di berbagai negara secara global.

Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.

Video rekomendasi
Video lainnya


Terkini Lainnya

Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com