Senada, riset Predicting Price Movement of The BTCUSDT Pair Using LightGBM Classification Modelling for Cryptocurrency Trading (Tugas Akhir Shafa Amarsya:2022) juga menyebutkan, penggunaan algoritma LightGBM dalam memprediksi pergerakan kripto tidak direkomedasikan.
Sebelumnya, pada Jurnal Filsafat Indonesia Vol 5: Juni 2022, penulis dan rekan menulis riset Kebenaran dalam Perspektif Ilmu Pengetahuan dan Implementasi dalam Data Science dan Machine Learning, yang menyimpulkan bahwa AI berpotensi menjadi pseudoscience karena proses pengumpulan, pemakaian algoritma, serta proses pengolahan datanya tidak sesuai dengan standar baku penelitian.
Sebelum ramai pada bisnis investasi Reza Paten dkk, sinyalemen AI sebagai ilmu palsu juga terjadi dalam proses rekrutmen karyawan.
Dinamakan sebagai "Mesin Kepribadian", sistem AI menggunakan gambar wajah orang dalam mencari lima besar ciri kepribadian yang lazim dipakai dalam human resources, yakni ekstrovert, ramah, terbuka, waspada, dan neurotisisme/prasangka negatif.
Ternyata, hasil yang ada tidak akurat karena sebagaimana dilansir laman teknologi Science Daily dan Tech Crunch (masing-masing per 22 dan 26 Oktober 2022), sebuah studi menemukan bahwa prediksi perangkat lunak dipengaruhi perubahan ekspresi wajah, pencahayaan, latar belakang, dan pakaian orang.
Mengapa AI bisa begitu? Studi tersebut menjelaskan bahwa hal ini disebabkan oleh fakta bahwa pembelajaran mesin yang digunakan untuk alat AI menggunakan data yang sudah ketinggalan zaman.
“Model pembelajaran mesin dipahami sebagai prediktif. Namun, karena mereka dilatih tentang data masa lalu, mereka mengulangi keputusan yang dibuat di masa lalu, bukan masa depan,” tulis riset tersebut.
Yang lebih mengkhawatirkan adalah penerapan AI dalam menganalisa peristiwa tabrakan pesawat terbang.
Hal ini terjadi sebagaimana ditulis W. J. Palmer dalam risetnya, 5 AI Lessons Radiology Can Learn from Boeing Crashes (2020), bahwa banyak perhatian harus diberikan untuk menghubungkan input dan output seperti yang didedikasikan untuk pengembangan algoritma AI penganalisa kecelakaan itu sendiri.
Karenanya, AI bisa tidak berfungsi, otomatis dapat menimbulkan bahaya keamanan yang tidak terduga. Karenanya, beri tahu semua orang saat Anda menambahkan AI ke alur kerja sebuah pesawat, sekaligus sertakan cara untuk menonaktifkan sistem loop secara tertutup.
Sebagai bagian masyarakat ilmiah yang konstruktif, maka ada solusi yang ditawarkan.
Pertama, mengikuti Karl Raymund Popper, filsuf sains kondang abad 20, agar AI tidak menjadi ilmu palsu (pseudoscience), kita harus memastikan AI benar-benar diuji melalui pengujian yang ketat, mulai dari pengujian empirikal dan pengujian pragmatik dengan skenario uji yang lengkap dan mewakili kondisi nyata.
Sebagaimana bidang sains dan penerapan sains yang lain, AI harus diuji dengan suatu prosedur yang lengkap dan terstandarisasi.
Kedua, perusahaan dan institusi yang menerapkan AI direkomendasikan segera menerapkan AI governance yang setidaknya mengimplementasikan prinsip-prinsip seperti accountability, explainability, safety dan human-centered.
AI governance ini sebaiknya diangkat setidaknya setara dengan tata kelola teknologi informasi (IT Governance) maupun tata kelola informasi/data (Information/Data Governance).