Follow Us

Fakta Moderator Medsos, Trauma Wajib Nonton Negatif 8 Jam Sehari

None - Sabtu, 20 Oktober 2018 | 17:25
Konten di Media sosial
the financial express

Konten di Media sosial

Nextren.com - Media sosial sepertri Facebook dan Twitter dan sejenisnya, menjadi tempat berkumpulnya ratusan juta orang dari seluruh dunia.

Tentu saja selalu ada perilaku menyimpang dari pengguna medsos itu, yang membuat konten yang mereka sebarkan harus dihapus."Saya telah melihat ratusan kepala dipenggal," ujar seorang perempuan yang diwawancara dalam sebuah video. Wajahnya tak tampak jelas karena membelakangi kamera. Buat kebanyakan orang, pemandangan sadis macam itu pasti membikin bergidik ngeri.

Baca Juga : Penuhi Permintaan Fans, Ada Warna Baru Infinix HOT S3X dan HOT 6 ProTapi sang perempuan tidak bisa menghindar, karena dia bekerja sebagai moderator konten di media sosial. Bersama para koleganya yang banyak bekerja lewat perusahaan alih daya (outsourcing), dialah yang berada di garda depan untuk menyaring konten tak pantas di media sosial.Dia menyelamatkan hati para pengguna dengan mengorbankan hati mereka sendiri. Sisi muram kehidupan para moderator konten tersebut diangkat dalam film dokumenter The Cleaner arahan sutradara Moritz Riesewieck and Hans Block. Cuplikannya pekan ini dimuat di situs BBC, sebagaimana dirangkum oleh KompasTekno, Jumat (19/10/2018).

Baca Juga : Lenovo K5s, Hape Sejutaan Terbaru dengan 4 Kamera dan RAM 4GB

Para moderator konten media sosial ini menghabiskan 8 hingga 10 jam setiap hari untuk menyaksikan aneka macam konten sadis dan tak pantas, mulai dari ujaran kebencian, adegan bunuh diri, hingga video penyiksaan anak atau binatang, untuk kemudian menghapusnya. Mengguncang mental Perusahaan teknologi memang memasang mesin kecerdasan buatan (AI) untuk menyaring konten. Tapi tangan manusia tetap dibutuhkan untuk membuat lini masa bersih dari kotoran konten. Mereka adalah sekolompok orang yang direkrut khusus untuk menyaring konten. Para bos-bos media sosial di Amerika Serikat menyebutnya sebagai tim moderator konten. Tugasnya, menonton jutaan posting yang dikirim pengguna sosial seperti Facebook, Twitter, Instagram atau YouTube.

Baca Juga : Ingin Berobat ke Dokter di Asia, Kini Bisa Dicari Dari Mana SajaMereka tak hanya memantau unggahan "normal" saja, namun juga kiriman mengerikan yang mengguncang mental tadi. "Ini (moderator konten) merupakan industri tersembunyi di Filipina, di mana banyak perusahaan outsourcing yang berkecimpung di situs media sosial populer," jelas Riesewieck, sutradara The Cleaner, yang berarti "Sang Pembersih" dalam bahasa Indonesia. Para moderator berjibaku dengan segala macam konten negatif demi "membersihkan" linimasa.Mereka hanya bersenjatakan mouse untuk memilih opsi "hapus" atau "abaikan".

Baca Juga : Cara Streaming Event Apple di 30 Oktober, Banyak Produk Baru Dikenalkan Sekaligus

Sebagai panduan, moderator diberikan buku aturan main setebal ratusan halaman. Tapi ada kalanya juga mereka masih kebobolan meloloskan konten. Maklum, mereka kebanyakan hanya diberikan waktu pelatihan sepekan atau paling banyak tiga pekan saja untuk mempelajari semua aturan, sebelum bisa memutuskan konten mana yang harus dihapus dan mana yang harus diabaikan.

"Misalnya, siapa yang memutuskan apa definisi dari teroris.""Mereka punya daftar, mereka harus mempelajari daftar yang mengacu dari departemen keamanan dalam negeri AS," terang Riesewieck.

Baca Juga : Samsung Siap Garap Hape Gaming, Ini Nama dan Bororan SpesifikasinyaDi sinilah masalah dimulai. Bagi para pekerja muda Filipina yang rata-rata berumur 21 tahun, mereka harus paham betul pedoman yang berkiblat pada undang-undang AS. "Jika mereka ingat dengan baik, mereka akan memblokir simbol apapun terkait terorisme.""Tapi jika mereka hanya melihatnya sekilas, mereka bisa saja salah menerka orang biasa yang ingin protes ke pemerintah, tapi dianggap sebagai teroris", imbuh Riesewieck.

Baca Juga : Samsung Siap Garap Hape Gaming, Ini Nama dan Bororan Spesifikasinya

Tertekan, tak bisa mundur Jika terjadi kesalahan seperti kurang memperhatikan konten yang dinilai, para moderator akan mendapatkan masalah besar. "Ketika memulai pelatihan, saya tidak tahu apa itu moderator konten." "Saya benar-benar tidak tahu dan itu kali pertama saya mendengarnya (konten moderator)", ujar salah satu pegawai wanita. Ia pun merasa tertekan, menyaksikan serangkaian konten negatif, mulai dari siaran bunuh diri secara langsung, pelecehan seksual kepada anak-anak, perundungan, hingga penjagalan di wilayah perang.

Editor : Wahyu Subyanto

Baca Lainnya

Latest