Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

Halusinasi AI dan Pentingnya Regulasi

Kompas.com - 29/11/2023, 10:38 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

HALUSINASI Artificial Intelligence (Al) adalah keadaan di mana platform AI membuat luaran fiktif, atau informasi palsu berdasarkan pola persepsi yang sebenarnya tidak ada atau tidak nyata.

Halusinasi terjadi ketika sistem komputer yang memiliki kemampuan mirip manusia seperti pemrosesan bahasa, menghasilkan informasi yang menyesatkan atau salah, namun menyajikannya sebagai faktual.

Fenomena ini sangat relevan dalam konteks hukum, di mana keakuratan dan keandalan informasi adalah hal terpenting (Kwan Yuen Iu 2023).

Peristiwa menghebohkan di Pengadilan Manhattan AS dalam artikel saya di Kompas.comKontroversi Artificial Intelligence dan Penegakan Hukum” adalah contohnya.

Fenomena halusinasi AI sebenarnya sudah ada sejak 1950-an. Istilah “halusinasi AI” pertama kali muncul tahun 2000 dalam Proceedings: Fourth IEEE International Conference on Automatic Face and Gesture Recognition (Maryia Fokina, When Machines Dream: A Dive in AI Hallucinations (2023).

Sementara itu, peneliti Google DeepMind memunculkan istilah “halusinasi AI” pada 2018. Penggunaan istilah ini semakin populer seiring diluncurkannya ChatGPT tahun 2022.

Menurut Maryia Fokina, kasus halusinasi terjadi juga pada 2017. Saat Microsoft memperkenalkan Chatbot AI Tay.

Namun, dengan cepat harus menutup platform tersebut, karena mulai menghasilkan tweet acak yang rasis dan ofensif. Hal itu terjadi kurang dari sehari setelah peluncuran.

Contoh lain terjadi pada 2021, ketika peneliti dari Universitas California menemukan bahwa sistem AI yang dilatih pada gambar berlabel 'panda', tetapi sistem melihatnya sebagai jerapah dan sepeda.

Maryia Fokina menyatakan, halusinasi AI menghasilkan respons yang tidak berdasarkan kenyataan. Halusinasi AI mengacu pada respons “percaya diri” yang tidak memiliki landasan dalam data pelatihannya.

Model lain dan citra medis

Dalam referensi berjudul "What Are AI Hallucinations (and What to Do About Them)" yang ditulis Lauren Strapagiel, menyebut beberapa model halusinasi AI yang mencengangkan, antara lain terkait mobil tanpa pengemudi (mobil otonom).

Mobil otonom menggunakan sistem pembelajaran mesin, untuk menilai kondisi di sekitarnya dan kemudian mengambil keputusan.

AI menentukan, misalnya, objek di jalur berikutnya adalah truk, atau ada tanda rambu berhenti. Namun jika terjadi perubahan rambu, AI mungkin tidak tahu harus berbuat apa.

Pada 2017, para peneliti menguji hal ini, dan mengubah tanda berhenti dengan grafiti yang ditempel.

Lauren menambahkan, ketika pola yang diubah menutupi seluruh rambu, mobil selalu membaca rambu tersebut sebagai rambu batas kecepatan.

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com