Kompensasi Untuk Tanda Zodiak
Substabilitas C Selebriti

Cari Tahu Kompatibilitas Dengan Tanda Zodiak

Tanyakan kepada ahli etika: Apakah tepat bagi Facebook untuk menekan berita konservatif?

Etika & Kepercayaan

Foto oleh Dave Pape melalui Flickr.

Gizmodo memicu badai api media sosial hari ini ketika dilaporkan bahwa kurator untuk bagian 'tren' Facebook secara teratur menempatkan omong kosong pada berita yang condong ke kanan.

Kisah tersebut, yang dikaitkan dengan sumber anonim, menjadi terkenal sebagian karena status Facebook sebagai raksasa media yang mengarahkan lalu lintas pemadam kebakaran di organisasi berita setiap hari. Tapi itu juga membuat gelombang karena Facebook telah bersusah payah untuk menempatkan dirinya sebagai perantara non-partisan untuk berita, sebuah perusahaan yang menyajikan cerita tanpa miring. Di dalam sebuah tanggapan untuk cerita Gizmodo, Facebook mengatakan mereka menanggapi tuduhan bias 'sangat serius' dan menegaskan kembali komitmennya untuk memberikan pandangan 'di seluruh spektrum politik.'

Dalam waktu kurang dari satu dekade, Facebook telah berubah dari startup kamar asrama menjadi salah satu yang terbesar distributor berita dan informasi di seluruh dunia. Jadi bagaimana kita harus bereaksi ketika salah satu perantara terpenting jurnalisme terungkap terdiri dari manusia dengan bias manusia? Di bawah ini adalah sesi tanya jawab dengan Kelly McBride, wakil presiden The Poynter Institute dan ahli etika medianya, tentang apa arti laporan hari ini bagi industri berita.

Jika klaim Gizmodo akurat dan kurator berita Facebook sengaja menghindari berita konservatif, apakah ini menimbulkan masalah? Jika demikian, mengapa?

Ini menjadi masalah karena menunjukkan kemampuan untuk memanipulasi pasar ide dari balik layar. Itu bukan hal baru, tetapi ini melemahkan pendukung media sosial yang mengatakan Facebook adalah forum distribusi berita yang lebih demokratis.

Kami sudah lama mengetahui bahwa algoritme memiliki bias yang diprogram ke dalam proses pemilihannya. Tetapi klaim bahwa manusia mengesampingkan proses seleksi ini merusak seluruh gagasan tentang daftar dan umpan berita algoritmik. Ini menunjukkan kepada saya bahwa Facebook tidak sepenuhnya percaya pada basis pengguna mereka. Ini terutama benar ketika Anda mempertimbangkan klaim sumber anonim bahwa tim diinstruksikan untuk menemukan sumber yang lebih netral untuk informasi yang sedang tren berdasarkan pelaporan awal dari situs konservatif.

Saya menduga ada lebih banyak informasi tentang praktik ini, yang dijelaskan oleh sumber yang tidak disebutkan namanya, yang akan membantu kami memahami apa yang coba dicapai oleh Facebook. Karena tidak masuk akal bisnis bagi Facebook untuk secara diam-diam memanipulasi topik yang sedang tren berdasarkan sudut pandang politik.

Bukankah itu akan mengasingkan sebagian besar penggunanya? Harus ada rincian lebih lanjut yang akan membantu kita memahami hal ini. Mungkin, sebagai salah satu sumber berspekulasi, mereka menyempurnakan algoritma?

Organisasi berita jelas memiliki bias tentang apa yang mereka pilih untuk ditampilkan. Apakah preferensi Facebook di sini benar-benar berbeda dari surat kabar, stasiun TV, atau startup digital?

Ini sedikit lebih sulit untuk dilihat oleh penonton, jadi kurang transparan dan karena itu berbeda. Lebih mudah untuk menemukan bias manusia ketika Anda tahu untuk mencarinya. Sampai saat ini, kami mengira tim trending topik hanya menulis judul dan deskripsi, tidak benar-benar memengaruhi pemahaman kami tentang apa yang sedang tren.

Kisah ini mengungkapkan bahwa rekomendasi Facebook tidak sepenuhnya didorong oleh algoritme — sebagian dibuat oleh manusia, dengan preferensi manusia. Apakah ada langkah-langkah yang dapat diambil Facebook untuk mengurangi munculnya bias dalam pilihannya?

Jika Anda ingin audiens mempercayai Anda, transparansi selalu menjadi jawaban apakah Anda berbicara tentang bias manusia atau bias mesin. Itu lebih mudah diucapkan daripada dilakukan, dalam kedua kasus. Sulit bagi manusia untuk secara akurat menggambarkan bias mereka. Dan algoritme memerlukan sedikit opacity jika ingin tahan terhadap manipulasi.

Jika Facebook dapat memberi tahu kami lebih banyak tentang hak istimewa algoritme dan apa yang diabaikan oleh algoritme, itu akan sangat membantu. Jika Facebook juga dapat memberi tahu kami apa yang dilakukan dan tidak dilakukan manusia, kami akan memiliki lebih banyak informasi daripada yang kami lakukan sekarang dan lebih banyak alasan untuk memercayai apa yang kami lihat.

Facebook adalah penentu besar berita yang kita lihat online. Apakah memiliki tanggung jawab untuk bersikap transparan tentang bagaimana itu melayani kita cerita?

Sebagai pendorong audiens No. 1 ke situs berita, Facebook telah menjadi kekuatan terbesar di pasar ide. Dengan pengaruh itu muncul tanggung jawab yang signifikan. Ada banyak cara agar Facebook dapat memenuhi tanggung jawab itu. Di masa lalu, Facebook telah menegaskan bahwa mereka mengakui kewajiban demokratisnya. Tapi itu selalu bisa berbuat lebih banyak.

Apakah ada langkah lain yang bisa dilakukan Facebook?

Inilah ide gila: Bagaimana jika Facebook (dan perusahaan lain yang memiliki kemampuan yang jelas untuk mempengaruhi pasar ide) memiliki editor publik, seperti yang dilakukan The New York Times. Orang itu akan dapat meneliti dan menulis tentang perusahaan dari sudut pandang publik, menjawab pertanyaan dan menjelaskan nilai-nilai yang mendorong keputusan tertentu.

Editor pelaksana Poynter, Benjamin Mullin, berkontribusi pada laporan ini.