Baca berita tanpa iklan. Gabung Kompas.com+

Lagi Tren AI Voice Generator buat Ganti Suara Penyanyi, Ada Bahaya di Baliknya

Kompas.com - Diperbarui 10/05/2023, 08:49 WIB
Zulfikar Hardiansyah

Penulis

Kemampuan AI Voice Generator untuk menghasilkan suara itu bisa dibilang menarik, tetapi sejatinya terdapat bahaya yang mengintai juga.

Bahaya AI Voice Generator

Dikutip dari Makeuseof, AI Voice Generator rentan disalahgunakan untuk meniru suara orang dengan tujuan yang merugikan pengguna, seperti menyebar informasi palsu, menyebar ujaran kebencian, menipu, menjatuhkan nama seseorang, dan sebagainya.

Pada Januari 2023, program AI Voice Generator buatan ElevenLabs pernah disalahgunakan oleh sekelompok orang untuk membuat suara beberapa tokoh publik seperti David Attenborough dan Emma Watson.

Sebagai informasi, AI Voice Generator dari ElevenLabs punya fitur yang dapat meniru karakter suara dari data audio yang diunggah pengguna untuk menghasilkan audio baru.

Dengan fitur tersebut, sekelompok orang itu membuat seolah para tokoh publik yang disebutkan di atas sedang berbicara keji dan penuh kebencian.

Penyalahgunaan AI Voice Generator juga tercatat pernah terjadi pada Maret 2023. Terdapat video viral di TikTok yang berisi percakapan antara podcaster terkenal Joe Rogan dan Dr Andrew Huberman.

Keduanya terdengar sedang membicarakan tentang produk minuman kafein yang dapat meningkatkan gairah seksual. Percakapan dibuat seolah mereka berdua mendukung produk itu. Padahal, percakapan tersebut adalah fiktif dan suaranya diproduksi dengan AI.

AI Voice Generator tidak hanya disalahgunakan untuk meniru suara para tokoh publik. AI Voice Generator pernah juga tercatat dipakai untuk meniru suara orang biasa dengan tujuan melancarkan aksi penipuan.

Dikutip dari ZDNet, di Amerika Serikat, marak terjadi modus penipuan dengan membuat suara tiruan orang terdekat pengguna seperti teman atau keluarga. Modus ini dikenal sebagai “vishing” atau “voice phising” dan sudah ribuan orang yang jadi korban.

Penipu menyalahgunakan AI untuk membuat suara fiktif. Lewat suara tiruan itu, penipu menghubungi korban dan mengaku sebagai orang terdekat.

Lalu, mereka meminta sejumlah uang pada korban untuk membantunya dari masalah yang dibuat-buat seperti sedang ditangkap polisi.

Itulah bahaya AI Voice Generator yang rentan disalahgunakan dan dapat merugikan pengguna. Di tengah perkembangan AI yang meningkat, pengguna harus bijak dalam memanfaatkannya. Gunakanlah AI untuk tujuan yang tidak merugikan orang lain.

Baca juga: Mengenal Character AI, Chatbot yang Lagi Viral di TikTok buat Diajak Pacaran

Dengan kemampuan AI Voice Generator yang bisa meniru suara orang, pengguna juga perlu senantiasa waspada atas semua informasi yang beredar. Verifikasi keabsahan informasi yang beredar secara berlapis penting untuk dilakukan.

Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com