Baca berita tanpa iklan. Gabung Kompas.com+
Salin Artikel

Isu Rasial di Balik Teknologi Pengenal Wajah

Buolamwini yang memiliki kulit hitam karena keturunan Ghana yang dimilikinya, tak bisa dikenali oleh kamera.

"Kamu (kamera) bisa melihat wajahnya?" tanya Buolamwini lagi, saat rekan kulit putihnya ganti melihat ke arah kamera pengenal wajah. Kamera kini berhasil mengidentifikasi.

"Kalau wajahku?", coba Buolamwini lagi dengan memperlihatkan wajahnya tampa kacamata atau aksesoris lainnya. Kamera pengenal wajah tetap gagal mendeteksi wajahnya.

Wajah Buolamwini baru bisa dikenali kamera pengenal wajah, saat ia mengenakan topeng bewarna putih.

Itu adalah sepenggal gambaran presentasi Buolamwini di acara Ted Talk berjudul "How I'm Fighting Bias in Algorithms" saat mengupas bagaimana algoritma teknologi facial recognition sangat bias terhadap ras.

Video itu tayang sejak Maret 2017 silam, jauh sebelum aksi protes rasial bergema di beberapa negara Amerika dan negara Eropa lain beberapa pekan terakhir.

Aksi protes itu merupakan respons atas kematian George Floyd, pria kulit hitam yang meregang nyawa, saat oknum polisi kulit putih Minneapolis menindih lehernya dengan dengkul.

"Saya tidak bisa bernafas," ucap Floyd, di detik-detik terakhir kematiannya.

Video kekerasan oknum polisi itupun viral dan membuat amuk warganet, dan merembet ke aksi protes di dunia nyata. Slogan "Black lives matter" pun bergaung di mana pun.

Jadi perhatian perusahaan teknologi

Isu rasial ini ternyata menjadi perhatian perusahaan Silicon Valley. Tidak hanya sekadar mengecam, mereka pun sampai melakukan langkah bisnis yang bisa dibilang berani.

Salah satunya melarang penggunaan teknologi facial recognition buatan mereka, yang sudah lama disinyalir bias ras tertentu. Dimulai dari IBM yang langsung mengumumkan bahwa mereka berhenti dari bisnis facial recognition.

Arvind Krishna, CEO IBM beralasan teknologi itu bisa digunakan untuk menargetkan kaum minoritas, atau melanggar HAM. Tak berapa lama setelah pengumuman IBM, Amazon ikut melakukan langkah serupa, tapi lebih lunak.

Perusahaan teknologi milik Jeff Bezos itu melarang kepolisian AS menggunakan Rekognition, teknologi pengenal wajah buatannya. Tapi pihak lain - non kepolisian - masih boleh menggunakannya.

"Kami menerapkan moratorium selama satu tahun terhadap polisi terkait penggunaan teknologi pengenalan wajah besutan Amazon (Rekognition)," ujar pihak Amazon.

Sehari berselang, Microsoft ikut-ikutan. Seperti Amazon, Microsoft juga membatasi kepolisian AS menggunakan teknologi pengenal wajah buatannya.

Microsoft tidak akan lagi menjual teknologi facial recogniton ke kepolisian AS, sampai ada regulasinya. Seperti Amazon, Microsoft masih memperbolehkan departemen lain menggunakan teknologinya, dengan sejumlah syarat yang sedang dirancang.

Perusahaan yang bermarkas di Seattle itu berencana membuat poin-poin tinjauan yang lebih jauh dari apa yang ada saat ini. Peninjauan itu akan dipakai untuk menentukan apakah teknologi pengenal wajah akan dipakai untuk kepentingan di luar penegakan hukum.

"Intinya kami ingin melindungi hak asasi orang-orang sembari teknologi ini digunakan," jelas Presiden Microsoft, Brad Smith.

Memunculkan hasil bias ras

Keputusan tiga perusahaan itu tentu mendapat sambutan dari para aktivis HAM, terutama yang sudah lama mengkritik penggunaan teknologi pengenal wajah.

Untuk diketahui, kepolisian AS memasang bodycam atau kamera kecil yang dipasang di baju aparat. Sebagian di antaranya memiliki teknologi pengenal wajah.

Para pegiat HAM sudah lama mengecam penggunaan teknologi pengenal wajah yang disebut melanggar privasi warga negara. Ditambah perdebatan soal isu rasial di penggunaan teknologi biometrik.

Bahkan, Partai Demokrat menyelidiki, apakah FBI dan lembaga federal lain menggunakan software pengawasan untuk menghadapi peserta aksi protes kematian George Floyd.

Tahun lalu, Institute Standart Teknologi AS (NIST) menerbitkan sebuah laporan, bagaimana rasisnya teknologi pengenal wajah. Ada dua metode yang banyak digunakan teknologi pengenal wajah.

One-to-one matching dan one-to many. Singkatnya, one-to-one adalah metode yang mencocokkan satu orag ke satu orang lainnya dari database, salah satunya adalah dengan mencocokkan foto.

Metode ini biasanya digunakan untuk fitur face unlock di smartphone, atau mengecek paspor saat di imigrasi.

Lalu one-to-many adalah metode untuk mencocokkan apakan satu foto ada yang cocok dengan kumpulan foto lainnya yang ada di database. Nah, metode ini lah yang biasanya digunakan departemen kepolisian.

Ada empat data set yang dihimpun dalam database. Data tersebut terdiri dari data orang yang tinggal di AS, foto orang di aplikasi pengajuan imigrasi, foto dari imigran yang melewati perbatasan, dan foto dari aplikasi visa. Total ada 18,27 juta foto dari 8,49 juta orang.

Hasilnya, metode one-to-one memiliki tingkat false positive tinggi untuk mendeteksi wajah Asia dan Afrika-Amerika, dibanding wajah ras Kaukasian.

False positive di sini merujuk pada hasil yang mungkin kedua data yang disandingkan cocok namun bukan orang yang sama.

Sementara metode one-to-many, tingkat false positive-nya teramat buruk untuk wanita Afrika-Amerika. Hal ini membuat mereka rentan akan kasus salah tangkap, seperti yang banyak diprotes para pegiat HAM di Amerika Serikat.

Desakan regulasi

IBM, Amazon, dan Microsoft senada mendesak pemerintah untuk membuat undang-undang khusus penggunaan teknologi pengenal wajah, terutama oleh para penegak hukum.

"Kami percaya sekarang adalah saatnya untuk memulai dialog nasional tentang bagaimana teknologi pengenalan wajah seharusnya digunakan oleh lembaga penegak hukum domestik," tulis IBM dikutip Kompastekno dari Sputniknews, Minggu (10/6/2020).

Suara yang sama dilantangkan Smith. Ia berharap, selama moratorium penjualan teknologi pengenal wajah Microsoft, pemerintah merancang undang-undang nasional soal penggunaan teknologi ini, berlandaskan hak asasi manusia.

Mereka sadar, perusahaan tidak bisa berdiri sendiri dalam penerapan teknologi pengenal wajah. Aktivis HAM pun mendukung langkah perusahaan Silicon Valley.

"Belum ada standar tentang bagaimana mengevaluasi facial recognition, dan bagaimana mempertimbangkan apakah masuk akal atau tidak teknologi itu dipakai," kata Kris Hammon, profesor ilmu komputer Notrhwestern University.

Hammon tidak mempermasalahkan penggunaan teknologi ini untuk fitur face unlock, atau semacamnya. Sebab hal itu berguna untuk meningkatkan keamanan ponselnya. Namun untuk keperluan penegakan hukum, lain cerita.

"Tapi ketika saya melihat teknologi yang sama digunakan untuk keperluan hukum, pertanyaannya adalah apakah hasil teknologi ini bakal diterima oleh pengadilan? Siapa yang akan menjawabnya?" tanya Hammon.

https://tekno.kompas.com/read/2020/06/14/16270027/isu-rasial-di-balik-teknologi-pengenal-wajah

Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Lengkapi Profil
Lengkapi Profil

Segera lengkapi data dirimu untuk ikutan program #JernihBerkomentar.

Bagikan artikel ini melalui
Oke