Studi Menunjukkan Kalau Alat Face Recognition Juga Bisa Bersikap Rasis

Jumat, 20 Desember 2019 | 15:00
Cult of Mac.

Ilustrasi penggunaan face recognition.

Laporan Wartawan Nextren, Wahyu Prihastomo

Nextren -Perilaku rasis rupanya tidak cuma bisa dilakukan oleh manusia saja.

Hasil studi dari National Institute of Standards and Technology (NIST), AS, menunjukkan kalau sistem face recognition atau pemindai wajah juga bisa berperilaku seperti itu.

Berdasarkan dokumen penelitian yang mereka terbitkan pada hari Kamis, (19/12/2019), sistem kadang bekerja tidak maksimal saat memindai warna kulit tertentu.

Baca Juga: Zenius Tawarkan Belajar Online Gratis di 80 Ribu Video Pelajaran

Misalnya adalah wajah dari orang keturunan Afrika-Amerika dan juga Asia.

Sementara saat memindai wajah orang-orang Kaukasia, sistem bisa bekerja lebih cepat dan akurat.

Penelitian ini menguji 189 algoritma software dari 99 developer berbeda.

Baca Juga: Rangkuman TikTok di 2019, Mama Gempi Sampai Anji Ikutan Main TikTok

Untuk melengkapi uji coba ini, NIST mengumpulkan 18,27 juta foto dari 8,49 orang dari berbagai wilayah.

Data wajah ini diperoleh dari Departemen Luar Negeri, Departemen Keamanan Dalam Negeri, dan juga FBI.

Beberapa perusahaan besar seperti Microsoft, Intel, dan Panasonic juga masuk dalam uji coba ini.

Baca Juga: Kominfo Pastikan Jaringan Seluler Tetap Lancar Sepanjang Libur Natal dan Tahun Baru

Berdasarkan laporan dari The Washington Post, satu perusahaan besar, yakni Amazon, tidak mengirimkan algoritma mereka ke NIST.

Padahal, selama ini sistem pemindai wajah buatan Amazon sering mendapat kritik karena sering berlaku diskrimanatif bukan cuma terhadap ras, tapi juga gender.

NIST juga menemukan kalau sistem lebih sering menunjukkan kegagalan pada pengguna wanita daripada pria.

Baca Juga: Canggih, Sekarang Pengamen di Semarang Terima Bayaran Lewat GoPay

"Meskipun kami tidak mengeksplorasi apa yang mungkin jadi penyebabnya, data ini akan berharga untuk pembuat kebijakan, developer, dan pengguna dalam memikirkan batasan dan penggunaan yang tepat dari algoritma ini," kata Patrick Grother, ilmuwan komputer NIST.

Parahnya lagi, studi ini juga menemukan banyaknya kasus kegagalan saat mendeteksi wajah wanita dari keturunan Afrika-Amerika.

Baca Juga: Terbaik 2019: Inilah Cuitan Paling Viral di Twitter Sepanjang 2019

Catatan akhir dari NIST adalah bahwa tidak semua algoritma pemindai wajah punya potensi rasis seperti ini.

Pada akhirnya semua kembali lagi pada bagaimana sistem itu diciptakan dan bagaimana kualitas pengembangnya. (*)

Baca Juga: Ini 7 Artis Dengan Follower Terbanyak di Instagram Sepanjang 2019

Editor : Wahyu Subyanto

Baca Lainnya