只要是常上網的人應該不難發現,無論是Facebook的動態消息或是Google的搜尋結果,都是電腦演算法依據你平日的上網習慣與偏好所呈現出的個人化結果。但是,你有沒有想過,這些將搜尋結果個人化的演算法,可能只篩選出我們自己所偏好與習慣的資訊,帶來方便的同時卻讓人們越來越笨?

MoveOn.org前任執行長Eli Pariser在加州的一場TED會談上提出這樣的觀點:他漸漸發現,那些他為了平衡觀點而追蹤的朋友(持保守的政治立場)逐漸消失在Facebook動態消息上。他很快驚覺,由於自己的政治立場傾向進步開放,他經常點擊與自己立場相近朋友的發文,因此,政治立場保守的朋友就消失在Facebook上了。

Eli Pariser認為,這項「隱形的演算法編輯過程」,將把人們帶入一個「網路認為我們該看見什麼」的世界,而非「我們應該看見什麼」的世界。他表示,搜尋結果個人化的差異之大,當搜尋「埃及」時,他的一位朋友找到了埃及革命的相關消息,另一位朋友卻得到埃及旅遊與度假資訊。

Eli Pariser相信人們正在集體創造他所稱做的「過濾泡泡」(filter
bubble),而Facebook與Google等網路公司應該擁有社會責任,不僅要告知使用者什麼資訊被篩選的,也要把控制權交還給使用者,讓人們自己決定如何保留與排除資訊。他建議,網路搜尋應該讓人們以相關性、重要性、接近性(資訊易懂或難以了解的程度)、挑戰程度與觀點(提供多元觀點的選項)來讓使用者篩選資訊,在「提供人們小賈斯汀的同時,也給一點阿富汗。」

不過,Eli Pariser的觀點似乎與網際網路的發展趨勢背道而馳:網路就是讓觀點相近的人彼此連結,無論帶來的結果是好是壞。也就是說,就算Google與Facebook願意讓搜尋演算法加入更多具有社會責任的考量,但真正的問題是:網友真的有興趣嗎?

出自Mashable

arrow
arrow
    全站熱搜

    Erich 發表在 痞客邦 留言(0) 人氣()