Baca berita tanpa iklan. Gabung Kompas.com+
Dr. Ir. Dimitri Mahayana, M. Eng, CISA, ATD
Dosen STEI ITB & Founder Lembaga Riset Telematika Sharing Vision Indonesia

Dimitri Mahayana adalah pakar teknologi informasi komunikasi/TIK dari Bandung. Lulusan Waseda University, Jepang dan ITB. Mengabdi sebagai Dosen di STEI ITB sejak puluhan tahun silam. Juga, meneliti dan berbagi visi dunia TIK kepada ribuan profesional TIK dari ratusan BUMN dan Swasta sejak hampir 20 tahun lalu.

Bisa dihubungi di dmahayana@stei.itb.ac.id atau info@sharingvision.com

kolom

Berkaca Kasus Indra Kenz dan Reza Paten: Hati-hati, Artificial Intellegence Jadi Ilmu Palsu

Kompas.com - 15/11/2022, 08:30 WIB
Anda bisa menjadi kolumnis !
Kriteria (salah satu): akademisi, pekerja profesional atau praktisi di bidangnya, pengamat atau pemerhati isu-isu strategis, ahli/pakar di bidang tertentu, budayawan/seniman, aktivis organisasi nonpemerintah, tokoh masyarakat, pekerja di institusi pemerintah maupun swasta, mahasiswa S2 dan S3. Cara daftar baca di sini

Senada, riset Predicting Price Movement of The BTCUSDT Pair Using LightGBM Classification Modelling for Cryptocurrency Trading (Tugas Akhir Shafa Amarsya:2022) juga menyebutkan, penggunaan algoritma LightGBM dalam memprediksi pergerakan kripto tidak direkomedasikan.

Sebelumnya, pada Jurnal Filsafat Indonesia Vol 5: Juni 2022, penulis dan rekan menulis riset Kebenaran dalam Perspektif Ilmu Pengetahuan dan Implementasi dalam Data Science dan Machine Learning, yang menyimpulkan bahwa AI berpotensi menjadi pseudoscience karena proses pengumpulan, pemakaian algoritma, serta proses pengolahan datanya tidak sesuai dengan standar baku penelitian.

Sebelum ramai pada bisnis investasi Reza Paten dkk, sinyalemen AI sebagai ilmu palsu juga terjadi dalam proses rekrutmen karyawan.

Dinamakan sebagai "Mesin Kepribadian", sistem AI menggunakan gambar wajah orang dalam mencari lima besar ciri kepribadian yang lazim dipakai dalam human resources, yakni ekstrovert, ramah, terbuka, waspada, dan neurotisisme/prasangka negatif.

Ternyata, hasil yang ada tidak akurat karena sebagaimana dilansir laman teknologi Science Daily dan Tech Crunch (masing-masing per 22 dan 26 Oktober 2022), sebuah studi menemukan bahwa prediksi perangkat lunak dipengaruhi perubahan ekspresi wajah, pencahayaan, latar belakang, dan pakaian orang.

Mengapa AI bisa begitu? Studi tersebut menjelaskan bahwa hal ini disebabkan oleh fakta bahwa pembelajaran mesin yang digunakan untuk alat AI menggunakan data yang sudah ketinggalan zaman.

“Model pembelajaran mesin dipahami sebagai prediktif. Namun, karena mereka dilatih tentang data masa lalu, mereka mengulangi keputusan yang dibuat di masa lalu, bukan masa depan,” tulis riset tersebut.

Yang lebih mengkhawatirkan adalah penerapan AI dalam menganalisa peristiwa tabrakan pesawat terbang.

Hal ini terjadi sebagaimana ditulis W. J. Palmer dalam risetnya, 5 AI Lessons Radiology Can Learn from Boeing Crashes (2020), bahwa banyak perhatian harus diberikan untuk menghubungkan input dan output seperti yang didedikasikan untuk pengembangan algoritma AI penganalisa kecelakaan itu sendiri.

Karenanya, AI bisa tidak berfungsi, otomatis dapat menimbulkan bahaya keamanan yang tidak terduga. Karenanya, beri tahu semua orang saat Anda menambahkan AI ke alur kerja sebuah pesawat, sekaligus sertakan cara untuk menonaktifkan sistem loop secara tertutup.

Bagaimana solusinya

Sebagai bagian masyarakat ilmiah yang konstruktif, maka ada solusi yang ditawarkan.

Pertama, mengikuti Karl Raymund Popper, filsuf sains kondang abad 20, agar AI tidak menjadi ilmu palsu (pseudoscience), kita harus memastikan AI benar-benar diuji melalui pengujian yang ketat, mulai dari pengujian empirikal dan pengujian pragmatik dengan skenario uji yang lengkap dan mewakili kondisi nyata.

Sebagaimana bidang sains dan penerapan sains yang lain, AI harus diuji dengan suatu prosedur yang lengkap dan terstandarisasi.

Kedua, perusahaan dan institusi yang menerapkan AI direkomendasikan segera menerapkan AI governance yang setidaknya mengimplementasikan prinsip-prinsip seperti accountability, explainability, safety dan human-centered.

AI governance ini sebaiknya diangkat setidaknya setara dengan tata kelola teknologi informasi (IT Governance) maupun tata kelola informasi/data (Information/Data Governance).

Halaman:
Video rekomendasi
Video lainnya


Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
komentar di artikel lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Close Ads
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com