Baca berita tanpa iklan. Gabung Kompas.com+
Prof. Dr. Ahmad M Ramli
Guru Besar Cyber Law & Regulasi Digital UNPAD

Guru Besar Cyber Law, Digital Policy-Regulation & Kekayaan Intelektual Fakultas Hukum Universitas Padjadjaran

kolom

Penyalahgunaan AI: Media Sintetik Pembobol Rekening Rp 400 M

Kompas.com - 17/04/2024, 09:15 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

Ian Sample dalam laporannya bertajuk “ What are deepfakes-and how can you spot them?” yang diterbitkan The Guardian (13/1/2020) dan diperbaharui (3/3/2023), menyatakan bahwa deepfake lahir pada tahun 2017.

Kasus menghebohkan, ketika seorang pengguna Reddit, dengan nama yang sama, mem-posting klip porno hasil rekayasa. Video tersebut menukar wajah selebriti Gal Gadot, Taylor Swift, Scarlett Johansson dan lainnya menjadi artis porno.

Ancaman dari media sintetis, seperti deepfake, telah meningkat secara eksponensial dan menimbulkan tantangan yang semakin besar bagi pengguna teknologi dan komunikasi modern.

Shannon Murphy, dalam laporan berjudul “A Deepfake Scammed a Bank out of $25M — Now What? Trend Business (7/2/2024), membagikan beberapa kiat antisipasif menghadapi serangan deepfake.

Shanon mengilustrasikan insiden yang dipicu AI ini lebih mirip alur cerita film fiksi ilmiah daripada peristiwa dunia nyata, tetapi ia buru-buru menyatakan bahwa ini bukan sekadar teori karena sudah faktual.

Shanon menyebut, AI memengaruhi tiga kategori utama kejahatan dunia maya: rekayasa sosial dan penipuan, layanan GPT yang di-jailbreak, serta pembajakan dan model poisoning. Di antara ketiga kategori ini, penipuan adalah yang terdepan.

Menghadapi ancaman kejahatan teknologi AI, pendekatan teknologi saja tidaklah cukup. Karena bisnis prosesnya menyangkut unsur humaniora, rekayasa sosial, dan kesiapan regulasi. Karakter hukum yang seringkali tertinggal dari kecepatan teknologi harus diatasi.

Secara teknologi, kejahatan ini bisa terus berkembang karena kemudahan aksesibilitas terhadap teknologi dan instrumen deepfake sebagai perangkat lunak open souce yang bisa diperoleh siapa saja, sementara regulasinya tidak tersedia secara komprehensif.

Regulasi dan pengadilan

Berbagai kalangan mulai memperingatkan interferensi deepfake ke dalam dunia peradilan. Ketika teknologi menjadi lebih mudah diakses, deepfake dapat menjadi media sintetik peristiwa dan bukti palsu.

Mengutip referensi sebelumnya, Ian Sample mengingatkan risiko di mana deepfake dapat meniru data biometrik, dan berpotensi mengelabui sistem yang mengandalkan pengenalan wajah, suara, iris wajah, atau cara berjalan.

Jika prediksi Ia Sample terbukti, maka risiko penegakan hukum berbasis AI menjadi persoalan besar. Pemerintah perlu segera membuat regulasi terkait AI komprehensif.

Regulasi harus memastikan bahwa sistem AI yang diterapkan aman, melindungi data pribadi, menghormati hak-hak dasar, dan mendorong pengembangan teknologi, ekonomi, sosial budaya berbasis AI.

Undang-undang harus pula menetapkan pendekatan berbasis risiko. Perlu diterapkan klasifikasi AI yang dinilai berdasarkan tingkat risiko, dan menerapkan persyaratan sesuai.

Merujuk UU AI Eropa, terdapat AI yang dilarang karena dapat menimbulkan risiko yang tidak dapat diterima.

Seperti sistem AI untuk identifikasi biometrik jarak jauh secara real-time di ruang publik, sistem penilaian sosial, dan penggunaan teknik pengaruh bawah sadar yang mengeksploitasi kerentanan kelompok tertentu.

Halaman:
Video rekomendasi
Video lainnya


Terkini Lainnya

Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com