MENGUAK RASISME DALAM TEKNOLOGI, Ulasan Coded Bias
MENGUAK RASISME DALAM TEKNOLOGI, Ulasan Coded Bias

Hello, world, manusia itu keren.

Makin banyak manusia berbagi, makin banyak aku belajar.”

(kutipan dialog “Tay”

chatbot buatan Microsoft 2016)

 

Sepintas membaca kalimat tersebut terasa biasa saja. Namun, setelah menonton Coded Bias, film dokumenter produksi Netflix 2020 karya Shalini Kantayya, kalimat pembuka dari mesin A.I (Artificial Intelligent) ini bakal bikin Anda tertegun, bahkan miris. Film karya sineas kelahiran India ini membuka sebuah kesadaran bahwa dampak dari teknologi A.I. yang semula memudahkan pekerjaan manusia dalam mengolah dan mengumpulkan data (bahkan mengambil keputusan) terindikasi rasis dan seksis.

Film ini dibuka oleh Joy Buolawnmini, perempuan kulit hitam yang bekerja sebagai ilmuwan MIT Lab. Kandidat Ph.D. ini menemui kesulitan menyalakan komputer pribadinya di kantor yang dilengkapi sistem pengaman pengenal wajah- agar tak bisa dinyalakan sembarangan orang. Sistem tersebut ternyata tak langsung bekerja. Semula Joy mengira, di ruangannya sendiri kurang cahaya lampu, atau cahayanya terlalu terang. Sistem tersebut baru berfungsi mengenali identitasnya ketika ia mengenakan topeng berwarna putih. Kecurigaannya pada sistem tersebut makin kuat ketika berkali-kali ia harus melakukan hal yang sama: pakai topeng putih yang harus ia sediakan di ruangannya.

Film ini kemudian mengikuti perjalanan Joy yang berusaha mengungkap kebenaran tentang bias algoritma. Dalam perjalanannya ia menjumpai seorang pria, guru sekolah SMP. Meskipun semula prestasi kerjanya bagus dan tampak  berpengalaman, ia dipecat setelah menerima peringkat rendah dari alat penilaian algoritmik. Penemuannya ini membuktikan, selain rasis, perhitungan algoritmik yang digunakan dalam sebuah perusahaan atau institusi, bisa saja “menyingkirkan” siapapun sebagai karyawan meskipun prestasinya baik. Tentu saja ini sulit dibantah, karena perusahaan menerapkan alat algoritmik dengan perhitungan matematis. Penelitian Joy bahkan menemui perusahaan sebesar Amazon dan Google yang setelah diteliti sistemnya lebih banyak mengutamakan karyawan pria kulit putih. Sangat sedikit yang perempuan, apalagi dari etnis berbeda.

Cathy O’Neil, ilmuwan dan ahli matematika, penulis buku Weapons as a Math Destruction di film ini berkata, “Alat ini menjadi ‘berbahaya’ dan tampak ‘tidak adil’ tapi tetap terbilang akurat-apalagi jika digunakan dalam sebuah lembaga atau perusahaan besar dengan jumlah karyawan yang banyak - misalnya 100 orang atau lebih. Ini bukan algoritma yang ada sedang tidak berfungsi baik, melainkan alat ini dikembangkan banyak ahli yang mayoritas adalah laki-laki kulit putih. Menjadi masalah karena 70% alat seperti ini ditemukan dan dikembangkan di Amerika. Kita baru paham algoritma dan teknologi setelah memahami struktur kekuasaan asimetris dari mereka yang menulis kode versus mereka dimasukkan dalam kode.”   

Di film ini kita menjadi mengerti bahwa beberapa keputusan, misalnya bagaimana perhitungan algoritma memudahkan manusia menentukan “siapa” yang berhak mendapatkan “pinjaman dan bantuan publik” juga sistem prediksi “pemenang Pemilu” (seperti yang pernah diungkapkan sebelumnya dalam film “The Great Hack”).

Di tempat lain, aktivis Silkie Carlo memprotes sistem keamanan pengenal wajah di salah satu jalan raya di London. Sistem ini diam-diam mengambil otomatis data orang yang tengah aktif berjalan lalu-lalang. Sistem tersebut mengundang protes, ketika seorang pria dengan sengaja menutup wajah dengan bajunya. Kelakuannya dianggap “melanggar hukum” karena dengan sengaja “menghindari proses pengambilan data”. Carlo membela lelaki tersebut karena manusia harus dihargai haknya untuk tidak difoto sembarangan, mengingat jauh sebelum itu data apapun baik yang diambil sistem di sosial media, bisa disalah-gunakan. Kegiatan Carlo dianggap “membangkang” kepada pemerintah apalagi ia kemudian mendirikan lembaga Big Brother Watch untuk membela hak sipil agar “tidak dimata-matai”.

“Aku rasa cerita dalam buku 1984 karya George Orwell makin mendekati kenyataan. Aku tahu sistem ini dibuat untuk mencegah kejahatan, mengurangi kriminalitas, bahkan bisa mendeteksi sejak dini adanya orang yang punya potensi teroris. Tapi setiap hari kamu diambil gambarnya, lalu diam-diam dicocokkan oleh komputer, ini adalah kejahatan! Manusia bisa kehilangan kebebasannya karena setiap menit dimata-matai seperti cerita karangan Orwell!” papar Carlo.

Film kemudian beralih pada alat serupa yang pernah digunakan di China. Alat tersebut juga menimbulkan kecemasan serupa sehingga beberapa orang kemudian merusak kamera yang tersebar di sudut jalan raya. Hingga kini, di China, alat tersebut terpaksa tidak digunakan meskipun semula digunakan untuk menurunkan angka kriminalitas. Agak mirip dengan yang terjadi di London, sejumlah penyewa apartemen di Brooklyn di film ini memprotes keputusan pemilik apartemen yang memasang sistem pengenalan wajah di apartemen mereka.

Sutradara Shalini Kantayya dengan jeli dan sangat hati-hati mencoba merangkai kisah-kisah Joy, Carlo, juga pertemuan Joy dengan Cathy O*Neill dan Meredith Broussard, penulis buku satir Artificial Unintelligent hingga mereka sepakat bersatu untuk “mengungkap tabir bias rasisme” di balik algoritma A.I. “Lama-lama kehidupan dan karir Anda akan bergantung pada perhitungan algoritmik saja. Ini berbahaya,” jelas Broussard, juga Joy, yang juga semula tertarik meneliti hal tersebut berbekal ketertarikan pada sejumlah ide-ide dari pelbagai film fiksi ilmiah populer, misalnya tokoh Commander Data (robot serupa manusia) dalam Star Trek: The Next Generation, robot pemusnah Terminator, Blade Runner, Minority Report, I Robot, juga film klasik Metropolis yang sudah lama menggambarkan masa depan manusia adalah menggunakan robot pintar sekaligus dijajah robot dengan teknologi A.I. paling mutakhir.

“Bagiku bekerja di MIT Lab adalah menggabungkan seni dan teknologi, jadi bukan hal baru bagi saya membaca atau mengikuti banyak film fiksi ilmiah. Memang ide-ide tersebut adalah khayalan, tapi jika dibiarkan cerita dalam budaya populer tersebut sudah hampir menjadi nyata,” jelas Joy. Di film ini Joy berhasil mengangkat persoalan ini ke pengadilan, dengan membuahkan hasil, salah satunya dicopotnya alat sistem pengenalan wajah di apartemen Brooklyn.

Mengenai rasisme dan bias gender belum lama ini terjadi di Korea Selatan, ketika chatbot bernama “Luda” terpaksa dimatikan karena ia mengeluarkan pernyataan rasisme berasal dari data-data yang ia olah sendiri dari dialog yang bersliweran di Twitter. “Luda” diluncurkan akhir Desember 2020 dan dirancang seperti seorang mahasiswi penggemar girlband K-Pop, Blackpink. Sistem A.I. “Luda” mengolah riwayat obrolan berdasarkan data-data pengguna ponsel. Akibatnya sejumlah pengguna ponsel di Korea Selatan itu berencana menggugat “class action” kepada start up pembuat “Luda” karena data mereka digunakan tanpa izin. Sebelumnya, pada 2016, chatbot “Tay” bikinan Microsoft, yang juga sistemnya hampir sama dengan “Luda”, terpaksa dihentikan karena mengeluarkan pernyataan rasisme bahkan misoginis. 

Teknologi A.I memang semula dipahami “hanya” menterjemahkan ulang pelbagai reaksi manusia yang tersimpan dalam data. Namun setelah menonton film ini kita menjadi paham penyebab bias algoritma tersebut. Coded Bias seolah melanjutkan spirit dua film dokumenter Netflix sebelumnya (The Great Hack dan Social Dilemma) yang sejatinya adalah kritik terhadap teknologi- meskipun bukan berarti membuat kita anti-teknologi. Lebih jauh, film yang pertama kali dipertontonkan kepada publik di Sundance Film Festival 2020 dan baru beredar April 2021 di jaringan Netflix ini memberi pertimbangan kepada kita agar lebih proporsional menakar peran teknologi dalam kehidupan.* Donny Anggoro

 

 
18 April 2021
Dilihat sebanyak
262 Kali
Lainnya...
MEKKAH I*M COMING: Bermain dengan Kebohongan
MEKKAH I*M COMING: Bermain dengan Kebohongan
Cedera Demokrasi, The Social Dilemma dan The Great Hack
Cedera Demokrasi, The Social Dilemma dan The Great Hack
Nonton Gratis dan Legal Film Indonesia (4): Film Pendek
Nonton Gratis dan Legal Film Indonesia (4): Film Pendek
 1 2345     >>>
Pabrikultur © 2015