Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

AI yang Dibolehkan

Kompas.com - 17/06/2024, 14:16 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

INI adalah uraian praktis tentang Artificial Intelligence (AI) yang dibolehkan. Artikel ini akan membahas AI kategori apa saja yang boleh dipasarkan, diberlakukan dan digunakan atau dioperasikan.

Dalam artikel saya sebelumnya “AI yang Dilarang” (Kompas.com 16/06/2024), dijelaskan terdapat jenis AI yang dilarang.

AI ini termasuk klasifikasi kategori risiko yang tidak dapat diterima (unacceptable risk). Kriteria ini merujuk pada ketentuan UU AI Uni Eropa (EU AI Act).

Untuk membahas sistem AI yang dibolehkan, kita dapat menyimak lebih dulu referensi EY dalam publikasinya, "The EU AI Act: What it means for your business" (Konrad Meier & Roger Spichiger 15/03/2024).

Diizinkan

Dari uraian EY, dapat disimpulkan bahwa EU AI Act mengizinkan model AI meskipun berkategori sistem AI berisiko tinggi (high risk).

Dengan catatan harus mematuhi berbagai persyaratan, dan menjalani penilaian kesesuaian lebih dulu, sebelum sistem dirilis ke pasar.

Sistem AI tersebut juga harus didaftarkan kedalam database Uni Eropa. Diperlukan sistem manajemen risiko AI yang tepat, kemampuan logging, disertai pengawasan manusia, untuk mengoperasikan sistem AI berisiko tinggi ini.

Disyaratkan pula, keharusan adanya tata kelola data yang tepat. Mencakup penerapan data yang digunakan dalam pelatihan, pengujian, validasi, serta kontrol yang menjamin keamanan siber, ketahanan, dan keadilan sistem.

Jika kita lihat ketentuan EU AI Act, jenis AI yang dibolehkan meskipun bermuatan risiko Tinggi diatur dalam Chapter III, Art 6. Sistem AI yang berisiko tinggi melibatkan komponen keselamatan dalam infrastruktur penting.

Hal ini juga mencakup aplikasi di sektor-sektor seperti pendidikan, ketenagakerjaan, dan penegakan hukum, di mana teknologi ini boleh untuk dipasarkan, diberlakukan dan digunakan.

Sistem AI dianggap berisiko tinggi, jika digunakan dalam infrastruktur penting, pendidikan dan pelatihan, ketenagakerjaan dan manajemen pekerja. Mencakup pula layanan publik penting, penegakan hukum, manajemen perbatasan, administrasi peradilan, dan proses demokrasi.

EY menggarisbawahi bahwa sistem berisiko tinggi juga meliputi sistem yang digunakan dalam proses perekrutan atau penilaian karyawan, sistem penilaian kredit, pemrosesan klaim asuransi otomatis, atau penetapan premi risiko bagi pelanggan.

Sistem AI lainnya yang diizinkan adalah sistem yang dianggap memiliki risiko terbatas atau minimal. Kebolehan atas AI dengan kategori risiko terbatas diatur Art 8-17 EU AI Act.

Jenis AI ini dibolehkan untuk dipasarkan, diberlakukan, dan digunakan, namun tunduk pada kewajiban transparansi yang lebih ringan.

Kewajiban itu seperti memastikan pengguna harus menyadari bahwa mereka berinteraksi dengan AI.

Chatbot atau deep fake adalah contohnya, dengan syarat pengguna wajib mengetahui bahwa mereka berinteraksi dengan AI.

AI yang dibolehkan berikutnya adalah yang berkategori AI dengan risiko minimal. Teknologi ini boleh dipasarkan, diberlakukan, dan digunakan. EU AI Act tidak mengatur secara khusus hal ini.

UU juga membolehkan penggunaan General purpose AI system (GPAI), termasuk model dasar, dan sistem AI generatif, dengan catatan wajib mengikuti kerangka klasifikasi terpisah.

GPAI dibolehkan beroperasi, dengan pendekatan berjenjang. UU membedakan model GPAI berdampak tinggi dengan risiko sistemik, dan model GPAI lainnya.

Penyedia juga harus menyediakan dokumentasi teknis, mematuhi hak cipta, dan menerapkan evaluasi model serta pengujian keamanan jika berisiko sistemik.

Tanggung jawab pengguna

Hal penting adalah, implementasi AI tidak hanya mengejar tanggung jawab penyedia, tetapi sekaligus penggunanya.

Penyedia bertanggung jawab atas sistem manajemen risiko, tata kelola data, dokumentasi teknis, pengawasan manusia, dan keamanan siber.

Menurut OneTrus DataGuidance dalam laporannya “EU: Navigating the AI Act - key practical considerations for users and other AI actors” (2024) bahwa pengguna bertanggung jawab mematuhi persyaratan penggunaan. Meskipun dengan kewajiban lebih kecil, namun tetap signifikan.

Art 29 EU AI Act menguraikan tugas pengguna AI berisiko tinggi. Menggunakan sistem sesuai dengan 'instruksi penggunaan' penyedia, memastikan data yang relevan, dan memantau sistem adalah kewajiban itu.

Namun demikian, pengguna tidak diharuskan untuk melakukan tindakan lebih lanjut, untuk menilai potensi dampak terhadap hak-hak dasar, kesetaraan, aksesibilitas, kepentingan publik, atau lingkungan.

Termasuk untuk berkonsultasi dengan kelompok yang terkena dampak, atau mengambil langkah aktif untuk mengurangi potensi bahaya.

Dari catatan EY bahwa AI mengubah dunia dengan cara yang belum pernah terjadi sebelumnya.

Dari layanan kesehatan yang dipersonalisasi, hingga mobil tanpa pengemudi dan asisten virtual, AI kini ada di mana-mana dalam kehidupan kita sehari-hari.

Regulasi harus memberikan persyaratan yang ketat untuk memastikan bahwa sistem AI di aman dan menghormati hak-hak serta nilai-nilai dasar.

Namun di sisi lain UU juga mendorong investasi dan inovasi AI, meningkatkan tata kelola, penegakan hukum, dan pertumbuhan ekonomi.

Indonesia

Indonesia mengakui pentingnya pengelolaan risiko yang terkait dengan penggunaan AI. Regulasi AI di Indonesia masih dalam tahap pengembangan.

Namun pemerintah menunjukkan komitmen yang kuat untuk mengembangkan teknologi ini untuk kebaikan.

Sebagai catatan akhir, kita memang memerlukan regulasi AI yang lebih komprehensif. Ketiadaan regulasi berupa UU akan sulit mengakomodasi kebijakan terkait klasifikasi AI berbasis kategorisasi risiko, misalnya.

Pengklasifikasian AI, berkonsekuensi akan adanya larangan jenis AI tertentu. Di samping itu akan ada kewajiban yang harus dipenuhi untuk kategori AI risiko tinggi, dan terbatas.

Kewajiban ini pun tidak hanya mencakup penyedia, tetapi juga pengguna. Maka untuk itulah, regulasi AI perlu dibuat.

Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.

Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com