資訊爆炸的時代,不僅僅於電視,甚至社群平台上,各式各樣的資訊流竄,卻也免不了有假新聞、爭議影片的出現;而除了Facebook、Twitter於通俄門事件爆發後,開始較為積極面對假新聞的處理外,YouTube也針對平台上的爭議影片祭出了更多解決方法。於近日YouTube宣布將與維基百科等第三方事實查核網站合作,要於影片欄位中附上維基百科連結,幫助用戶有更多資源判斷事實。
YouTube發言人表示,這項合作是YouTube為遏止不實資訊及爭議影片所能做的努力之一。於去(2017)年12月時,YouTube執行長SusanWojcicki即宣布,計畫將監督內容違規員工數增至10,000人以上,以防止再有廣告投放出包、爭議影片流竄的情況發生。
SusanWojcicki也於過去坦承,「YouTube的開放性的確可能出現另一個令人不安的一面」,也就是極端主義、兒童剝削和一些其他的內容。而據外媒報導,SusanWojcicki在奧斯汀舉辦的SXSW表示,與維基百科的合作,並非打擊爭議內容的萬靈丹,其用意在替用戶提供不同觀點。
今(2018)年二月發生在美國佛州南部的帕克蘭槍擊事件,其中一則指稱在該事件中倖存者為「演員」的陰謀論影片,登上了YouTube熱門影片的排行榜中,雖然事後被證實該消息為誤傳,卻也因為YouTube演算法的關係,而造成更多人接觸到這則影片。
目前在YouTube以觀看時間為其演算法的重點,約有70%用戶觀看時間來自 YouTube自動推薦。雖然透過這樣的演算法,能使影片觸及到更多人,但卻無法保證影片內容是否涉及爭議問題。
YouTube表示,目前於影片欄位中附上維基百科連結的這項功能,僅會出現在具有較大意見分歧的影片中,如上述所提到的帕克蘭槍擊事件;不過,YouTube也說道,因為維基百科為一個全球資訊網,開放供多人協同創作的文字系統,故部分資訊也不是全然正確,只能提供用戶更「多元」的資料,但並非「標準事實」。
而在SXSW上,有人向SusanWojcicki詢問為何YouTube能直接下架極端內容影片,但對於事實不符的爭議內容卻不能主動撤下?對此,SusanWojcicki解釋,「因為仇恨影片較事實容易判斷,而YouTube並不想成為事實仲裁者。」
YouTube也表示,雖然YouTube自己有一套「Content ID」系統,能夠找出擁有版權問題的影片,但和暴力、謀殺等等相關的影片內容,則需透過人工的方式進行審查;而為避免這些審查員工處於龐大的壓力下,YouTube確保審查員觀看影片的時數將降低至一天四小時,讓他們能有時間調整情緒。
YouTube目前並未說明首批啟用維基百科欄位的內容和數量,只表示會持續新增,但讓外界較為好奇的是,究竟透過維基百科和人工審查的方式能否跟上爭議影片傳播的速度?其所採取的策略是否具有相當的限制效果?皆是未來待解的問題。