Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

Halusinasi AI dan Pentingnya Regulasi

Kompas.com - 29/11/2023, 10:38 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

HALUSINASI Artificial Intelligence (Al) adalah keadaan di mana platform AI membuat luaran fiktif, atau informasi palsu berdasarkan pola persepsi yang sebenarnya tidak ada atau tidak nyata.

Halusinasi terjadi ketika sistem komputer yang memiliki kemampuan mirip manusia seperti pemrosesan bahasa, menghasilkan informasi yang menyesatkan atau salah, namun menyajikannya sebagai faktual.

Fenomena ini sangat relevan dalam konteks hukum, di mana keakuratan dan keandalan informasi adalah hal terpenting (Kwan Yuen Iu 2023).

Peristiwa menghebohkan di Pengadilan Manhattan AS dalam artikel saya di Kompas.comKontroversi Artificial Intelligence dan Penegakan Hukum” adalah contohnya.

Fenomena halusinasi AI sebenarnya sudah ada sejak 1950-an. Istilah “halusinasi AI” pertama kali muncul tahun 2000 dalam Proceedings: Fourth IEEE International Conference on Automatic Face and Gesture Recognition (Maryia Fokina, When Machines Dream: A Dive in AI Hallucinations (2023).

Sementara itu, peneliti Google DeepMind memunculkan istilah “halusinasi AI” pada 2018. Penggunaan istilah ini semakin populer seiring diluncurkannya ChatGPT tahun 2022.

Menurut Maryia Fokina, kasus halusinasi terjadi juga pada 2017. Saat Microsoft memperkenalkan Chatbot AI Tay.

Namun, dengan cepat harus menutup platform tersebut, karena mulai menghasilkan tweet acak yang rasis dan ofensif. Hal itu terjadi kurang dari sehari setelah peluncuran.

Contoh lain terjadi pada 2021, ketika peneliti dari Universitas California menemukan bahwa sistem AI yang dilatih pada gambar berlabel 'panda', tetapi sistem melihatnya sebagai jerapah dan sepeda.

Maryia Fokina menyatakan, halusinasi AI menghasilkan respons yang tidak berdasarkan kenyataan. Halusinasi AI mengacu pada respons “percaya diri” yang tidak memiliki landasan dalam data pelatihannya.

Model lain dan citra medis

Dalam referensi berjudul "What Are AI Hallucinations (and What to Do About Them)" yang ditulis Lauren Strapagiel, menyebut beberapa model halusinasi AI yang mencengangkan, antara lain terkait mobil tanpa pengemudi (mobil otonom).

Mobil otonom menggunakan sistem pembelajaran mesin, untuk menilai kondisi di sekitarnya dan kemudian mengambil keputusan.

AI menentukan, misalnya, objek di jalur berikutnya adalah truk, atau ada tanda rambu berhenti. Namun jika terjadi perubahan rambu, AI mungkin tidak tahu harus berbuat apa.

Pada 2017, para peneliti menguji hal ini, dan mengubah tanda berhenti dengan grafiti yang ditempel.

Lauren menambahkan, ketika pola yang diubah menutupi seluruh rambu, mobil selalu membaca rambu tersebut sebagai rambu batas kecepatan.

Mobil self-driving juga perlu mendeteksi orang dan hewan, secara akurat untuk menghindari kecelakaan. Halusinasi AI pada waktu yang salah bisa berakibat fatal.

Model lain menurut Lauren adalah citra medis. Ada kemajuan besar dalam penggunaan AI dalam pencitraan medis. Dokter menggunakan kecerdasan buatan untuk menganalisis pemindaian, seperti untuk melacak perkembangan tumor.

Lauren mengingatkan, model AI harus akurat. Halusinasi AI dalam lingkungan medis dapat mengakibatkan diagnosis yang salah. Keterlambatan perawatan karena diagnosis yang tidak tepat dapat berakibat fatal.

IBM dalam rilisnya menyatakan halusinasi AI dapat berdampak signifikan. Misalnya, model AI layanan kesehatan, mungkin salah mengidentifikasi kondisi kulit jinak sebagai ganas, sehingga menyebabkan intervensi medis yang tidak perlu.

Lauren juga menyebut bahaya hasil positif palsu di bidang medik. Saat pasien didiagnosis mengidap penyakit, atau masalah yang sebenarnya tidak mereka derita.

Hal ini dapat menyebabkan beban mental, emosional, dan finansial yang tidak semestinya. Dalam beberapa kasus, bisa berdampak cedera fisik akibat perawatan yang tidak perlu.

Kita tentu paham bahwa para pengembang AI terus melakukan penelitian dan pengembangan untuk menyempurnakan segala kekurangan. Namun demikian, turun tangannya otoritas negara untuk meminimalisasi atau bahkan menghilangkan dampak adalah keharusan.

Pendekatan teknologi saja tidaklah cukup, pendekatan hukum, sosial budaya, dan ekosistem terkait perlu dilakukan.

Urgensi regulasi

Masifnya penggunaan AI adalah kenyataan yang sulit dihindari. Teknologi ini telah memberikan pilihan yang memungkinkan berbagai profesi melakukan pekerjaannya dengan lebih praktis, lebih efisen.

Namun demikian, unsur peran manusia tetap menjadi sentralnya. Hal ini sejalan dengan prinsip "Cyber-physically-human-centered," bahwa semua hal tetap berpusat pada eksistensi dan peran manusia.

Regulasi diperlukan untuk memberikan kepastian, memelihara ketertiban, memberikan keadilan, dan mengoptimalkan keamanfaatan.

Regulasi juga diproyeksikan sebagai instrumen untuk pengembangan AI, sekaligus melindungi penggunanya. Dalam konteks inilah hukum melaksanakan fungsi kelimanya sebagai infrastruktur transformasi.

Sebagai contoh. Badan Pengawas Obat dan Makanan AS (FDA) tidak melarang penggunaan AI. Namun hanya akan menyetujui AI untuk pencitraan medis, jika nilai akurasinya tidak kurang dari 80 persen.

Di samping itu, regulasi dan kebijakan FDA, juga menekankan kewajiban individu dokter. Dokter wajib selalu memeriksa ulang pekerjaannya.

Keberadaan AI dan pemanfaatannya dalam berbagai kebutuhan dan profesi adalah keniscayaan.

Namun demikian peristiwa halusinasi AI, menyadarkan berbagai negara tentang perlunya regulasi AI progresif transformatif.

Karena sistem yang dibuat hanya akan mengikat dan wajib dilaksanakan jika dituangkan ke dalam regulasi.

Membiarkan AI level risiko tinggi diluncurkan dan dioperasikan tanpa proses asesmen, tentu menuai risiko.

Apalagi penyedia platform AI dimaksud biasanya membuat klausul eksenorasi. Klausul ini esensinya membebaskan tanggung jawab penyedia platform AI dan membebankan segala dampak dan tanggung jawab kepada penggunanya.

Ketiadaan regulasi tentu berakibat pada lemahnya pelindungan memadai bagi pengguna. Kevakuman regulasi spesifik teknologi mutakhir ini, pada gilirannya juga akan berdampak pada menurunnya kepercayaan publik terhadap AI.

Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.

Video rekomendasi
Video lainnya


Terkini Lainnya

Game 'GTA 6' Dipastikan Meluncur September-November 2025

Game "GTA 6" Dipastikan Meluncur September-November 2025

Game
Instagram Vs Instagram Lite, Apa Saja Perbedaannya?

Instagram Vs Instagram Lite, Apa Saja Perbedaannya?

Software
Menjajal Langsung Huawei MatePad 11.5'S PaperMatte Edition, Tablet yang Tipis dan Ringkas

Menjajal Langsung Huawei MatePad 11.5"S PaperMatte Edition, Tablet yang Tipis dan Ringkas

Gadget
Game PlayStation 'Ghost of Tsushima Director's Cut' Kini Hadir di PC

Game PlayStation "Ghost of Tsushima Director's Cut" Kini Hadir di PC

Game
iPhone dan iPad Bakal Bisa Dikendalikan dengan Pandangan Mata

iPhone dan iPad Bakal Bisa Dikendalikan dengan Pandangan Mata

Gadget
Daftar Harga Gift TikTok Terbaru 2024 dari Termurah hingga Termahal

Daftar Harga Gift TikTok Terbaru 2024 dari Termurah hingga Termahal

e-Business
Membandingkan Harga Internet Starlink dengan ISP Lokal IndiHome, Biznet, dan First Media

Membandingkan Harga Internet Starlink dengan ISP Lokal IndiHome, Biznet, dan First Media

Internet
Smartphone Oppo A60 Dipakai untuk Belah Durian Utuh, Kuat?

Smartphone Oppo A60 Dipakai untuk Belah Durian Utuh, Kuat?

Gadget
Rutinitas CEO Nvidia Jensen Huang, Kerja 14 Jam Sehari dan Banyak Interaksi dengan Karyawan

Rutinitas CEO Nvidia Jensen Huang, Kerja 14 Jam Sehari dan Banyak Interaksi dengan Karyawan

e-Business
Smartphone Meizu 21 Note Meluncur dengan Flyme AIOS, Software AI Buatan Meizu

Smartphone Meizu 21 Note Meluncur dengan Flyme AIOS, Software AI Buatan Meizu

Gadget
Advan Rilis X-Play, Konsol Game Pesaing Steam Deck dan ROG Ally

Advan Rilis X-Play, Konsol Game Pesaing Steam Deck dan ROG Ally

Gadget
5 Besar Vendor Smartphone Indonesia Kuartal I-2024 Versi IDC, Oppo Memimpin

5 Besar Vendor Smartphone Indonesia Kuartal I-2024 Versi IDC, Oppo Memimpin

e-Business
Epic Games Gratiskan 'Dragon Age Inquisition - Game of the Year Edition', Cuma Seminggu

Epic Games Gratiskan "Dragon Age Inquisition - Game of the Year Edition", Cuma Seminggu

Game
Motorola Rilis Moto X50 Ultra, 'Kembaran' Edge 50 Ultra Unggulkan Kamera

Motorola Rilis Moto X50 Ultra, "Kembaran" Edge 50 Ultra Unggulkan Kamera

Gadget
Merger XL Axiata dan Smartfren Kian Menguat, Seberapa Besar Entitas Barunya?

Merger XL Axiata dan Smartfren Kian Menguat, Seberapa Besar Entitas Barunya?

e-Business
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com