Andreas Maryoto, wartawan senior Kompas
Teknologi digital bukanlah segala-galanya. Suatu ketika untuk uji coba pengamanan kerumunan, otoritas di Amerika Serikat menggunakan teknologi pengenalan muka. Acara yang dijadikan uji coba adalah pertandingan olahraga. Ketika acara mulai berlangsung, alat ini bekerja mencari orang yang berpotensi membuat kerusuhan. Hasil dari alat berbasis teknologi kecerdasan buatan ternyata membuat marah publik.
Mereka yang tertangkap melalui fasilitas pengenalan muka sebagian besar berkulit hitam. Kemarahan makin meninggi karena sebagian di antara mereka tidak memiliki catatan kriminal. Dari kejadian ini kemudian muncul kritik terhadap bias yang muncul dari teknologi kecerdasan buatan. Teknologi ternyata masih bekerja berdasarkan asumsi dan kecenderungan berpikir kelompok tertentu. Teknologi tidak murni tetapi bisa "dicampuri" oleh pikiran dan opini orang yang membuatnya.
Di Indonesia, bias sejenis bisa muncul dalam pengembangan algoritma dan teknologi kecerdasan buatan. Sebagian besar orang tidak menyadari bahwa masalah besar muncul karena bias-bias yang ada di teknologi. Bias berpotensi di teknologi mesin pencari, industri keuangan, industri media, transportasi daring, pengantaran makanan, dan lain-lain. Kita kerap tidak menyadari bahwa bias itu disusun dari orang yang mempunyai kepentingan tertentu dan kemudian digunakan oleh perusahaan teknologi.
Kita bisa mulai dengan melihat kecenderungan di mesin pencari. Coba kita ketik nama orang Indonesia di mesin pencari. Sebagian besar akan diikuti oleh kata "agama". Sebegitu pentingnya agama sehingga pencarian tokoh tertentu selalu diikuti oleh agama orang itu. Data pencarian seperti ini tersimpan di penyedia layanan mesin pencari. Teknologi bekerja berdasarkan kata-kata yang dicari oleh orang. Begitu saja.
Masalah muncul ketika media menggunakan data itu. Si penulis mengetahui kata-kata yang dicari audiens. Mereka dengan sadar menggunakan informasi nama tokoh dan agamanya di dalam tulisan. Bahkan, salah satu portal informasi menjadikan nama tokoh dan agamanya sebagai judul. Mereka menggunakan metode optimasi mesin pencari yang harapannya akan muncul di bagian atas ketika seseorang mencari informasi tentang tokoh tersebut.
TANGKAPAN LAYAR GOOGLETangkapan layar di laman pencarian Google dengan nama Apriyani, Rabu (4/8/2021) malam.
Informasi ini sangat mungkin digunakan oleh politisi saat berkampanye dan meraih suara dari publik. Mereka akan mengeksploitasi isu agama karena tahu bahwa informasi tentang agama seseorang dicari. Mereka juga akan menggunakan simbol-simbol agama karena keagamaan seseorang penting untuk memenangkan hati audiens berdasarkan informasi dari mesin pencari.
Di industri keuangan, penetapan kelayakan kredit seseorang menggunakan teknologi yang memungkinkan mengeruk informasi dari mana pun. Orang bisa diprofil kelayakan kreditnya dengan menggunakan teknologi berdasarkan data yang berserakan. Cara ini sangat mudah, cepat, dan murah dibandingkan mengandalkan kemampuan analis dan data yang minim. Namun, masalah bisa muncul karena data itu akan mudah didapat oleh mereka yang aktif di media sosial, sering muncul di laman internet, dan tentu memiliki akses internet yang baik.
Kondisi ini memunculkan bias. Mereka yang berada di kota, memiliki akses internet lebih baik, dan aktif berinternet serta memiliki relasi yang lebih luas (karena teknologi itu akan melihat nomor kontak telepon pintar) akan mendapatkan penilaian kelayakan kredit yang besar.
Sebaliknya, mereka yang di wilayah perdesaan dan memiliki akses yang minim akan mendapat peringkat kelayakan yang lebih rendah. Keadaan itu terjadi karena informasi tentang mereka minim di media sosial, laman internet, dan platform lain. Di Indonesia, misalnya, masalah akan makin membesar karena akses internet di luar Jawa lebih sulit dan lebih mahal dibandingkan di Pulau Jawa. Isu keadilan bisa mencuat di tengah masalah seperti ini.
Industri media yang kerap menggunakan metode optimasi mesin pencari mudah terjebak di dalam bias algoritma. Orang yang diketahui banyak mengakses konten seks dengan mudah diketahui kata-kata yang terkait dengan pencarian itu. Tidak mengherankan bila beberapa media menggunakan kata-kata yang terkait dengan seks.
AFP PHOTO / FRED DUFOURTeknologi pengenalan wajah untuk penegak hukum diperlihatkan dalam NVIDIA GPU Technology Conference di Washington, Amerika Serikat, 1 November 2017.
Di samping itu, perseteruan politik di Indonesia menghasilkan kata-kata yang menjadi perbincangan di berbagai platform. Mereka yang bergerak di bidang politik ataupun media yang berkepentingan mendapatkan perhatian dari audiens akan menggunakan istilah atau kata tertentu. Bahkan, mereka akan menggunakan kata-kata yang memecah belah demi mendapatkan perhatian dari audiens. Pengelola media kadang mendapat tekanan: kalau tidak menggunakannya, maka kompetitor akan menggunakannya.
Perpecahan
Persoalan bias dalam teknologi telah diamati oleh para ahli. Sejumlah pakar di dalam artikel Harvard Business Review bertanggal 25 Oktober 2019 menyebutkan, bias dapat menyusup ke dalam algoritma dalam beberapa cara. Sistem kecerdasan buatan (AI) belajar membuat keputusan berdasarkan set data yang dilatih, yang dapat mencakup keputusan manusia yang bias atau mencerminkan ketidaksetaraan historis atau sosial. Bahkan jika variabel sensitif seperti jender, ras, atau orientasi seksual dihilangkan, bias tetap muncul.
Amazon berhenti menggunakan algoritma perekrutan setelah menemukan pelamar yang disukai ternyata banyak menggunakan kata-kata seperti "executed" atau "captured" yang lebih umum ditemukan di riwayat hidup (CV) pria. Sumber bias lainnya adalah pengambilan sampel data yang cacat di mana kelompok tertentu terlalu terwakili atau malah kelompok lainnya kurang terwakili dalam set data yang telah dilatih.
Joy Buolamwini dari MIT yang bekerja dengan Timnit Gebru menemukan bahwa teknologi analisis wajah memiliki tingkat kesalahan yang lebih tinggi untuk minoritas dan khususnya wanita minoritas karena set data yang dilatih tidak representatif.
AFP/STEPHEN MATURENProtes atas kematian George Floyd juga membuat gerakan Black Lives Matter, yang lahir beberapa tahun lalu, kembali bergema dan membuatnya menjadi gerakan global untuk melawan diskriminasi dan kekerasan terhadap warga kulit hitam.
Melihat kemungkinan bias-bias yang terjadi di Indonesia, maka teknologi digital berpotensi melanggengkan perpecahan yang tengah terjadi. Para pengelola mungkin kurang menyadari masalah ini. Mereka bekerja sesuai dengan input dari mesin. Kemudian mereka membuat layanan berdasarkan input dari data yang didapat. Semua berjalan seolah baik-baik saja. Bahkan, beberapa masih terlena dengan kehebatan teknologi. Mereka masih mengagung-agungkan teknologi digital.
Di beberapa negara, otoritas mulai memperhatikan potensi masalah yang muncul. Mereka mulai menangani berbagai potensi kerusakan yang berasal dari kesalahan pengembangan algoritma dari platform digital. Beberapa di antaranya mulai mengawasi pengembangan algoritma agar tidak membuat kerusakan baru dan merugikan publik. Oleh karena itu, pengawasan terhadap pengembangan algoritma menjadi penting di samping soal perlindungan data pribadi yang tengah dibahas DPR.
Mesin pencari telah melakukan beberapa upaya, tetapi langkah ini masih bersifat umum bahkan mungkin bias norma barat. Semisal pencarian beberapa istilah pornografi tidak akan didukung dengan pilihan pencarian kata-kata terkait. Pengguna tidak akan mengetahui kata-kata pornografi yang banyak dicari atau setidaknya platform menekan pencarian bernada pornografi. Kita masih membutuhkan pencegahan pencarian yang bersifat lokal atau khas Indonesia yang bisa memiliki implikasi lebih jauh, semisal implikasi politik.
Dalam kasus pencarian "nama tokoh+agamanya", beberapa pihak bisa melakukan mitigasi. Platform mungkin bisa menghilangkan pilihan pencarian tentang hal itu. Penayangan kedua hal itu berpotensi melanggengkan problem SARA dan juga memantik isu SARA baru. Kebencian bisa muncul karena orang terpicu untuk mengetahui agama seorang tokoh, sekalipun pada mulanya mereka hanya ingin mendapat informasi tentang tokoh itu. Mereka juga terdorong untuk berkomentar SARA dan memanfaatkan isu tersebut.
Media juga bisa melakukan mitigasi dengan tidak menggunakan isu agama baik di dalam berita maupun di dalam judul berita. Sekalipun mungkin menarik audiens, mereka perlu menghindari istilah-istilah yang bisa memecah belah bangsa. Mereka sebaiknya menghindari istilah-istilah yang menimbulkan kerusakan sekalipun tidak menarik audiens.
KOMPAS/WAWAN H PRABOWOSelain untuk mempercantik dinding di tepi jalan, mural juga menjadi media sejumlah kalangan untuk menyampaikan pesan-pesan keindonesiaan, seperti menjaga kesatuan dan persatuan bangsa. Hal itu salah satunya ditemui di dinding pembatas antara Tol Cijago dan Jalan Juanda, Kota Depok, Jawa Barat, Jumat (23/7/2021).
Pemerintah bisa mengusulkan kepada platform untuk menghilangkan kata atau kalimat pencarian yang berpotensi memunculkan perpecahan. Pemerintah bisa mengeksplorasi lebih jauh tentang fenomena keterbelahan dan kemudian meminta pengelola platform untuk ikut menekan potensi perpecahan. Sejumlah kata yang berpotensi untuk memecah belah bisa dihilangkan dari daftar pencarian otomatis di mesin pencari.
Di dalam kasus teknologi penilaian kelayakan kredit, pemerintah perlu memastikan bahwa algoritma yang digunakan tidak bias akses, keadaan ekonomi, relasi, dan lain-lain. Di samping itu, pemerintah juga bisa mengurangi tekanan terhadap isu ketidakadilan dengan memperhatikan layanan akses internet di luar Jawa. Persoalan perbedaan harga perlu segera diselesaikan agar semua bisa mendapat akses dengan harga yang sama.
Industri media juga perlu menahan diri untuk menggunakan strategi optimasi mesin pencari secara membabi buta ketika ditemukan bahwa cara itu berpotensi memecah belah. Mereka perlu memikirkan bahwa penggunaan kata-kata tertentu bisa memperparah keadaan. Di tengah iklim politik yang makin mengarah pada perpecahan, maka industri media harus rela untuk tidak mengejar peluang viral. Nasib bangsa juga ditentukan oleh mereka
Sumber: Kompas.id - 5 Juli 2021