Kompensasi Untuk Tanda Zodiak
Substabilitas C Selebriti

Cari Tahu Kompatibilitas Dengan Tanda Zodiak

Vandalisme Wikipedia dapat menggagalkan penghilangan tipuan di Google, YouTube, dan Facebook

Pengecekan Fakta

Untuk sesaat, Partai Republik California mendukung Nazisme. Setidaknya, itulah yang dikatakan Google.

Itu karena seseorang merusak halaman Wikipedia untuk partai pada 31 Mei untuk mencantumkan 'Nazisme' di samping ideologi seperti 'Konservatisme,' 'Liberalisme pasar' dan 'Konservatisme fiskal.' Kesalahan telah dihapus dari hasil penelusuran, dengan Google mengklarifikasi kepada Vice News bahwa mesin pencari telah gagal menangkap vandalisme dalam entri Wikipedia.

Google punya lama ditarik ensiklopedia online untuk menambahkan informasi dasar ke hasil pencarian. Berdasarkan log edit untuk halaman GOP California, seseorang menambahkan 'Nazisme' ke bagian ideologi partai sekitar pukul 7:40 UTC pada tanggal 31 Mei. Hasil edit telah dihapus dalam satu menit, tetapi tampaknya algoritme Google menghapus halaman tepat pada waktunya untuk pemalsuan.

“Terkadang orang merusak sumber informasi publik, seperti Wikipedia, yang dapat memengaruhi informasi yang muncul dalam pencarian,” kata juru bicara Google kepada Poynter melalui email. “Kami memiliki sistem yang menangkap vandalisme sebelum memengaruhi hasil pencarian, tetapi terkadang kesalahan terjadi, dan itulah yang terjadi di sini.”

Wikimedia Foundation, sebuah organisasi nirlaba yang mengoperasikan Wikipedia, juga mengeluarkan pernyataan di Twitter.

Menurut Google, lebih dari 99,9 persen suntingan Wikipedia yang muncul di Panel Pengetahuan, yang menampilkan informasi dasar tentang kata kunci yang dapat dicari di bagian atas hasil, bukanlah vandalisme. Pengguna yang menulis suntingan asli ke halaman GOP California tidak menggunakan profil pengguna , membuat mereka sulit dilacak.

itu taktik umum di antara orang-orang yang merusak halaman Wikipedia, praktik yang dimiliki organisasi nirlaba didokumentasikan secara ekstensif . Tetapi mengingat volume suntingan yang dibuat di Wikipedia — sekitar 10 per detik , dengan 600 halaman baru per hari — dan fakta bahwa Facebook dan YouTube sekarang menarik dari mereka untuk memberikan lebih banyak konteks ke postingan, potensi dan efek penyalahgunaannya tinggi.

“Tentu saja ini adalah cara yang cukup lemah untuk memerangi berita palsu karena Wikipedia bukanlah sumber informasi yang dapat dipercaya — seperti yang diakui oleh Wikipedia,” kata Magnus Firaun Hansen , seorang peneliti pascadoktoral di Universitas Kopenhagen, dalam sebuah pesan kepada Poynter. “Wikipedia sangat rentan terhadap hoaks dan berisi semua jenis informasi yang salah, jadi ini bukan cara yang sangat serius untuk memerangi masalah berita palsu.”

Hansen telah mengedit halaman Wikipedia selama sekitar 10 tahun dan mengatakan vandalisme adalah hal biasa di platform. Jumlah editor telah berkurang dalam beberapa tahun terakhir, sementara partisan online telah semakin menargetkan platform — masalah yang datang ke kepala selama kontroversi Gamergate pada tahun 2014. Ini pada dasarnya adalah permainan angka.

Itu jauh dari di mana Wikipedia berada pada tahun 2005 , ketika sebuah penelitian menemukan itu seakurat Britannica. Dan itu mempersulit editor sukarelawan untuk memerangi vandalisme dalam skala besar di Wikipedia, yang bukan pertanda baik untuk menggunakannya untuk memerangi informasi yang salah di platform lain.

“Tentu saja ada banyak informasi yang salah di Wikipedia, dan banyak yang akan tetap ada,” kata Hansen. “Seringkali seseorang menulis artikel dan butuh bertahun-tahun sebelum seseorang datang dan mengeditnya. Orang-orang tidak melakukan pengecekan fakta kecuali ada sesuatu yang terlihat tidak pada tempatnya.”

Satu artikel Wikipedia palsu tinggal di situs selama satu dekade sebelum dihapus pada tahun 2015.

Pada saat yang sama, platform tersebut telah terbukti tahan terhadap jenis hoaks yang secara teratur menjadi viral di Facebook dan Indonesia . Perkiraan Wikimedia bahwa sekitar 2,5 persen dari suntingan harian adalah vandalisme, dan Samantha Lien, manajer komunikasi untuk Wikimedia, menunjuk pada algoritme yang secara otomatis menandai suntingan yang meragukan sebagai kunci keberhasilan upaya integritasnya.

“Artikel cenderung memberikan representasi fakta yang seimbang, dan situs tersebut telah terbukti tahan terhadap berita palsu dan informasi yang salah hingga saat ini,” katanya kepada Poynter melalui email. “Kami juga telah bekerja dengan editor sukarelawan dalam beberapa tahun terakhir untuk membangun dan meningkatkan alat moderasi untuk mengidentifikasi dan mengatasi vandalisme di Wikipedia dengan cepat.”

Di luar batasan Wikipedia sendiri, sistem platform teknologi sendiri sering menjadi subjek kesalahan dan kontroversi — terutama Panel Pengetahuan.

Juga pada 31 Mei, pencarian senator Partai Republik pendukung Donald Trump di North Carolina muncul gambar dari dirinya dengan 'fanatik' tertulis di bagian bawah. Pada bulan Januari, The Daily Caller menemukan bahwa Google salah menambahkan cek fakta ke kontennya dan bukan ke outlet lain. Itu membuat perusahaan teknologi itu menangguhkan fitur tersebut hingga bugnya berhasil.

Google memberi tahu Poynter bahwa itu tidak secara manual mengubah hasil pencarian untuk menunjukkan preferensi untuk satu pihak di atas yang lain. Tapi algoritmenya secara teratur dimainkan oleh hoax , iklan palsu dan troll yang berusaha mengubah hasil pencarian. Dan masalah itu dapat meluas ke platform lain yang terhubung ke Wikipedia.

“Ketika lebih banyak platform media menggunakan konten dari Wikipedia secara tidak kritis, itu meningkatkan taruhannya — baik bagi mereka yang akan menyesatkan atau hoax dan bagi mereka yang akan menyebarkan pengetahuan,” kata Hansen. “Saya pikir, terutama dengan menautkan ke Wikipedia dari video YouTube tentang teori konspirasi, itu mungkin memiliki efek menarik orang yang salah.”

Di bulan Maret, YouTube mengumumkan bahwa itu akan terhubung langsung ke halaman Wikipedia dalam deskripsi video untuk memberikan lebih banyak konteks dan menghilangkan prasangka teori konspirasi viral, yang sering viral setelah berita acara. “Isyarat informasi” itu — yang diperkenalkan di platform tanpa sepengetahuan Wikipedia — akan menyertakan baris pendek tentang sumber dan tautan ke halaman Wikipedia-nya.

Fitur itu belum diluncurkan, tetapi YouTube memperkenalkan fitur serupa pada bulan Februari yang memberikan lebih banyak konteks kepada organisasi berita yang menerima uang dari pemerintah AS.

Youtube

(Tangkapan layar dari YouTube)

Mengingat peningkatan visibilitas halaman Wikipedia, dapat dibayangkan bahwa pengacau dapat berduyun-duyun ke platform untuk menjebak banyak platform dengan satu suntingan.

“'Peretasan' Wikipedia selalu menjadi masalah, tetapi itu adalah masalah yang hanya benar-benar berdampak pada pembaca Wikipedia. Sekarang bahkan lebih berbahaya karena platform semakin secara otomatis menarik diri dari Wikipedia, ”kata Claire Wardle, direktur eksekutif First Draft, dalam email ke Poynter. “Untuk agen disinformasi yang menginginkan amplifikasi maksimum, teknik apa pun yang memastikan platform atau ruang redaksi akan berulang dan karenanya melegitimasi kepalsuan, memberikan 'pengembalian investasi' yang tidak proporsional.”

Meskipun berfungsi sebagai sumber untuk lebih banyak platform, Wikipedia belum melihat peningkatan vandalisme, kata Lien. Tetapi melihat bagaimana penambahan membuat organisasi lengah, tidak pasti bagaimana tepatnya mereka akan mempengaruhi integritas halaman Wikipedia.

“Tren perusahaan teknologi yang menggunakan Wikipedia untuk mengatasi masalah misinformasi di platform mereka sendiri adalah wilayah baru bagi kami, dan kami tidak tahu apa implikasi penuhnya nantinya,” katanya. “Dalam jangka pendek, kami memantau dengan cermat bagaimana hal ini memengaruhi Wikipedia dan komunitas sukarelawan global kami. Kami belum melihat apa pun yang mengindikasikan masalah skala vandalisme yang lebih luas hingga saat ini.”

Tetapi bahkan jika ada peningkatan vandalisme Wikipedia dengan maksud untuk mengubah hasil pada platform, Lien mengatakan bahwa organisasi tersebut tidak akan mengetahuinya.

“Kami tidak memiliki data yang tersedia yang akan menunjukkan tren vandalisme dengan maksud eksplisit untuk memanipulasi platform lain,” katanya.

Jadi seberapa besar kemungkinan informasi yang salah akan masuk ke platform lain? Joseph Reagle, seorang profesor komunikasi asosiasi di Northeastern University dan seorang ahli Wikipedia, mengatakan kepada Poynter sementara tidak ada cara untuk mengetahui tanpa sistem pemantauan yang tepat, struktur yang telah diatur dapat membuat informasi yang salah lebih terlihat — bahkan ketika itu tidak dibuat untuk permainan platform seperti Google dan Facebook.

'Ya, ini mungkin, dan saya pikir itu akan menjadi lebih mungkin karena perusahaan-perusahaan nirlaba ini terus ikut-ikutan,' katanya. “Dalam kasus Google, saya tidak berpikir itu adalah niat pengeditan untuk mencemari pengguna hilir Wikipedia, tetapi itu tetap efeknya. Fakta bahwa Wikipedia digunakan oleh agregator hilir semacam ini juga akan membuat Wikipedia lebih menjadi target, yang menjadi perhatian.”

Namun, meskipun menyusut, Wikipedia masih memiliki komunitas editor yang berkomitmen yang memiliki Tahun-Tahun Pengalaman penanganan artikel tentang berita. Nathan Matias, seorang rekan peneliti pascadoktoral di Universitas Princeton, mengatakan kepada Poynter dalam email bahwa informasi yang salah tidak mungkin sering lolos karena komunitas itu.

Tetapi di pinggiran situs, peluang itu meningkat secara substansial.

“Dalam kasus berita terkini, di mana semua jenis aktivis telah mengembangkan cara untuk mempengaruhi algoritma platform lebih cepat daripada kecepatan jurnalisme, saya berharap Wikipedia akan lebih tahan terhadap pengaruh,” katanya. “Risiko terhadap Wikipedia dan platform akan lebih besar di pinggiran pengetahuan dan perhatian, karena lebih sulit untuk melihat aliran kecil orang yang mengakses materi ekstremis profil rendah.”

Terlepas dari tantangannya, beberapa ahli melihat platform teknologi yang terhubung ke halaman Wikipedia sebagai langkah maju untuk melawan kesalahan informasi online.

Eni Mustafaraj, asisten profesor ilmu komputer di Wellesley College, mengatakan kepada Poynter dalam email bahwa penambahan Wikipedia ke platform teknologi besar adalah langkah positif. Tapi itu datang dengan peringatan.

“Mereka perlu melakukan ini secara konsisten, dan tidak hanya untuk memerangi informasi yang salah atau hoaks atau teori konspirasi,” katanya. “Untuk memerangi informasi yang salah, kita seharusnya tidak menempatkan Facebook dan Google yang bertanggung jawab, karena merekalah yang memperburuk masalah sejak awal.”

Pada saat yang sama, mengambil informasi dari Wikipedia dari platform mungkin secara inheren membingungkan pembaca. Hansen mengatakan melihat tautan ke situs dari platform media sosial, bahkan jika mereka diberi label dengan baik, tidak akan menimbulkan skeptisisme yang sama seperti yang dimiliki pengguna Wikipedia.

“Pembaca tidak tahu ini dari Wikipedia. Semacam itu memperkenalkan lapisan di mana Anda tidak dapat memastikan tentang sumber informasinya, ”katanya. “Orang-orang skeptis ketika mereka berada di Wikipedia — Anda dapat melihat ketika tidak ada sumber … ketika Anda berada di platform yang berbeda, Anda tidak waspada terhadap hal semacam itu.”

Lalu ada pertanyaan tentang bandwidth. Karena jumlah editor terus menurun, Wikipedia mungkin ingin mempertimbangkan untuk mempekerjakan karyawan tetap yang tugasnya memantau vandalisme dan memastikannya tidak menyebar ke platform lain. Hansen mengatakan dia pikir organisasi nirlaba harus membuat unit pemeriksa fakta internal atau meminta editor ahli dan akademisi untuk mempertimbangkan beberapa halaman yang lebih bernuansa.

“Saya pikir itu satu-satunya cara untuk memerangi disinformasi di Wikipedia,” katanya.

Paling tidak, Lien menyarankan bahwa platform teknologi yang menggunakan Wikipedia untuk melawan informasi yang salah memberikan kembali kepada organisasi nirlaba dalam beberapa cara — poin yang dibantah oleh Direktur Eksekutif Wikimedia Katherine Maher dalam artikel terbaru untuk Wired . (Facebook dan YouTube tidak termasuk di antara dermawan utama Wikimedia.)

“Kami mendorong perusahaan yang menggunakan konten Wikipedia untuk memberikan kembali semangat keberlanjutan yang sama,” katanya. “Dengan melakukan itu, mereka akan bergabung dengan jutaan orang yang bergabung untuk menjaga Wikipedia tetap kuat dan berkembang.”

Dan Matias setuju.

“Jika perusahaan berharap untuk mengandalkan sejumlah besar tenaga kerja yang tidak dibayar dan seringkali membebani secara psikologis dari Wikipediawan dan Wikimedia Foundation untuk mengatasi beberapa masalah terberat mereka, mereka perlu menemukan cara untuk mendukung pekerjaan itu sambil melindungi independensi intelektual Wikipedia,” katanya.