Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

AI RMF 1.0 Pedoman Kecerdasan Buatan di AS dan Kalibrasi Hukum

Kompas.com - 21/05/2023, 08:00 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

Bagian kedua, membahas inti kerangka kerja, menjelaskan empat fungsi spesifik yang meliputi, mengatur, memetakan, mengukur, dan mengelola AI.

Berdasarkan naskah lengkap yang dipublikasikan laman resmi NIST dan juga publikasi bertajuk Artificial Intelligence Risk Management Framework AI RMF 1.0 (Elham Tabassi, 26/1/ 2023), ruang lingkup pedoman kerangka kerja ini meliputi:

Pertama, organisasi harus memupuk budaya manajemen risiko, termasuk struktur, kebijakan, dan proses yang sesuai.

Manajemen risiko harus menjadi prioritas dalam kepemimpinan. Juga terkait budaya organisasi, dan manajemen yang menyelaraskan aspek teknis manajemen risiko AI, dengan kebijakan organisasi. Peran pimpinan institusi dalam manajemen dan mitigasi risiko tampak menjadi fokus pedoman ini.

Kedua, Organisasi harus memahami dan menimbang manfaat, dan risiko sistem AI yang ingin mereka terapkan dibandingkan dengan status quo. Termasuk informasi kontekstual seperti kemampuan sistem, risiko, manfaat, dan dampak potensial.

Ketiga, dengan menggunakan metode penilaian risiko kuantitatif, kualitatif, atau campuran, serta masukan dari pakar independen, sistem AI harus dianalisis agar karakteristiknya dapat dipercaya, dampak sosial, dan faktor konfigurasi manusia dan AI itu sendiri.

Keempat, risiko yang teridentifikasi harus dikelola, dengan memprioritaskan sistem AI yang berisiko lebih tinggi.

Pemantauan risiko harus diterapkan dari waktu ke waktu. Karena konteks risiko, kebutuhan, atau harapan baru dan tak terduga, dapat muncul kapan saja.

AI RMF 1.0 juga mendorong penggunaan “profil” untuk mengilustrasikan bagaimana risiko dan hal lain terkait siklus hidup AI atau dalam aplikasi tertentu menggunakan contoh kehidupan nyata.

Pedoman ini dimaksudkan untuk adaptasi, saat teknologi terus berkembang, dan digunakan oleh organisasi dalam berbagai tingkat dan kapasitas. Dengan demikian, masyarakat dapat memperoleh dua hal, pertama, manfaat teknologi AI, dan kedua terlindungi dari potensi bahayanya.

Sosio-teknis dan data yang berubah

Harus disadari bahwa sistem AI juga memiliki unsur "sosio-teknis". AI dipengaruhi oleh dinamika masyarakat dan perilaku manusia.

Sosio-teknis dalam pengembangan AI begitu penting diantisipasi, mengingat AI sebagai kecerdasan buatan, terus berinteraksi dengan manusia. AI hanya dapat “berpikir” dan tidak memiliki perasaan dan Nurani.

AI akan memberi solusi dengan benar, jika didukung dan terkalibrasi dengan data yang akurat, bersih dan tidak bias.

Risiko AI dapat muncul dari interaksi yang kompleks, antara faktor teknis dan sosial, yang memengaruhi kehidupan manusia dalam berbagai situasi.

Jika dibandingkan dengan perangkat lunak tradisional, AI menimbulkan sejumlah risiko berbeda. Sistem AI dilatih berdasarkan data yang dapat berubah seiring waktu, terkadang secara signifikan dan tidak terduga, yang memengaruhi sistem dengan cara yang sulit dipahami.

Halaman Berikutnya
Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com