Baca berita tanpa iklan. Gabung Kompas.com+
Dr. Eng. Alfian Akbar Gozali
Dosen & Manajer Pengembangan Produk TI Telkom University

Dosen Telkom University, Penulis Buku Kecerdasan Generatif Artifisial

kolom

"Responsible AI": Kecerdasan yang Bertanggung Jawab

Kompas.com - 03/07/2023, 16:22 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

SEBELUMNYA, penulis telah menulis artikel yang membahas tentang 'Explainable AI', konsep yang berfokus pada pemahaman bagaimana kecerdasan buatan atau artificial intelligence (AI) membuat keputusan.

Kini, penulis akan membahas lebih lanjut tentang aspek penting lainnya dari AI, yaitu Responsible AI atau AI yang bertanggung jawab.

AI telah menjadi pendorong utama dalam berbagai aspek kehidupan kita, dari sistem otomatisasi di industri hingga rekomendasi musik di aplikasi ponsel. Namun, penggunaan AI juga menghadirkan tantangan etis, hukum, dan sosial yang cukup nyata.

Sebagai contoh, di Mountain View, California, pada Maret 2018, Tesla mendapat sorotan setelah kecelakaan yang melibatkan mobil otonom mereka yang mengakibatkan korban jiwa.

Ini adalah pertanyaan penting tentang "keamanan" dalam penggunaan AI.

Pada tahun yang sama, studi yang dilakukan oleh Joy Buolamwini di MIT menemukan bahwa algoritma pengenalan wajah dari IBM, Microsoft, dan Face++ memiliki tingkat kesalahan yang lebih tinggi pada wajah yang berkulit gelap dan wanita.

Tidak lama setelah itu, di Seattle, Amazon menghadapi kritik ketika sistem rekrutmen AI-nya lebih memilih pelamar pria daripada wanita.

Kasus algoritma pengenalan wajah dan rekruitmen Amazon adalah pelanggaran terhadap prinsip "keadilan" dalam Responsible AI.

Begitu pula, skandal Cambridge Analytica yang terjadi pada 2018, adalah contoh lain. Data dari jutaan pengguna Facebook digunakan tanpa persetujuan untuk memengaruhi pemilihan presiden Amerika Serikat pada 2016.

Ini adalah pelanggaran terhadap prinsip "privasi" dalam Responsible AI.

Tidak lama kemudian, pada tahun 2019 di London, Metropolitan Police Service (MPS) menggunakan teknologi pengenalan wajah secara luas. Hal ini menimbulkan banyak kontroversi dan debat karena kurangnya penjelasan yang memadai kepada publik.

Ini menjadi contoh konkret tentang pelanggaran "transparansi" dalam penggunaan AI.

Yang terbaru, pada tahun 2023, peneliti Stanford harus menutup proyek Alpaca AI mereka karena munculnya 'halusinasi' oleh AI.

Bahkan teknologi yang sedang naik daun saat ini, ChatGPT, juga dilaporkan telah digunakan untuk membuat artikel palsu yang menyesatkan pembaca.

"Keamanan", "keadilan", "privasi", dan "transparansi" adalah empat aspek penting dalam Responsible AI.

Halaman:

Artikel ini merupakan bagian dari Lestari KG Media, sebuah inisiatif untuk akselerasi Tujuan Pembangunan Berkelanjutan. Selengkapnya

A member of
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com