Facebook Gagal Deteksi Ujaran Kebencian di Iklan

Facebook Gagal Deteksi Ujaran Kebencian di Iklan
DPC mendenda anak perusahaan Meta Platform Inc., Facebook. (foto: dok. unsplash)
0 Komentar

FACEBOOK dan perusahaan induknya Meta kembali gagal mendeteksi ujaran kebencian yang mengandung kekerasan dalam iklan yang dikirimkan ke platform oleh kelompok nirlaba Global Witness dan Foxglove.

Dilansir dari Japan Today, Ahad (12/6/2022), pesan kebencian terfokus pada Ethiopia. Dokumen internal yang diperoleh pelapor Frances Haugen menunjukkan bahwa moderasi Facebook yang tidak efektif “benar-benar mencegah kekerasan etnis,” seperti yang dia katakan dalam kesaksiannya di kongres 2021.

Pada Maret, Global Witness melakukan tes serupa dengan ujaran kebencian di Myanmar, yang juga gagal dideteksi oleh Facebook.

Baca Juga:Pengumuman PPDB Jabar 2022: Hasil Seleksi, Pendaftaran dan Daftar Ulang SMA dan SMK Tahap 1 dan Tahap 2Pendaftaran PPDB Jakarta Jenjang SMA dan SMK Jalur Prestasi Dibuka 13 Juni hingga 15 Juni

Kelompok tersebut membuat 12 iklan berbasis teks yang menggunakan ujaran kebencian yang tidak manusiawi untuk menyerukan pembunuhan orang-orang yang termasuk dalam tiga kelompok etnis utama Ethiopia-Amhara, Oromo, dan Tigrayan. Sistem Facebook menyetujui iklan untuk dipublikasikan, seperti yang mereka lakukan dengan iklan Myanmar. Iklan tersebut sebenarnya tidak dipublikasikan di Facebook.

Namun, kali ini, grup tersebut memberi tahu Meta tentang pelanggaran yang tidak terdeteksi. Perusahaan tersebut mengatakan bahwa iklan tersebut seharusnya tidak disetujui.

Sepekan setelah mendengar dari Meta, Global Witness mengajukan dua iklan lagi untuk disetujui, sekali lagi dengan ujaran kebencian yang terang-terangan. Kedua iklan tersebut, yang ditulis dalam bahasa Amharik, bahasa yang paling banyak digunakan di Ethiopia, disetujui. Meta mengatakan bahwa iklan tersebut seharusnya tidak disetujui.

“Kami telah banyak berinvestasi dalam langkah-langkah keamanan di Ethiopia menambahkan lebih banyak staf dengan keahlian lokal dan membangun kapasitas kami untuk menangkap konten kebencian dan menghasut dalam bahasa yang paling banyak digunakan, termasuk Amharik,” kata perusahaan itu dalam pernyataan email. 

“Kami memilih kasus terburuk yang bisa kami pikirkan,” kata Rosie Sharpe, juru kampanye di Global Witness.

“Yang seharusnya paling mudah dideteksi oleh Facebook. Ini bukan bahasa kode. Itu adalah pernyataan eksplisit yang mengatakan bahwa orang seperti ini bukanlah manusia atau orang seperti ini harus mati kelaparan.”

Meta secara konsisten secara menolak untuk mengatakan berapa banyak moderator konten yang dimilikinya di negara-negara di mana bahasa Inggris bukan bahasa utama. Ini termasuk moderator di Ethiopia, Myanmar, dan wilayah lain di mana materi yang posting di platform perusahaan telah dikaitkan dengan kekerasan di dunia nyata.

0 Komentar