如何理解和破除“信息繭房”的迷思?
主編溫靜導讀:當人們使用個性化推薦,因個人興趣、場景等因素而得到不同的推薦結果,其實是很正常的,但將千人千面的推薦效果等同于信息繭房,有失偏頗,容易導致信息繭房概念的泛化與濫用。
來源:CMNC—主編溫靜
文:中國傳媒大學副教授 仇筠茜
“信息繭房”這個說法,正在從學術研究快速走向日常生活。比如有年輕人吐槽“你們看過爸媽的手機嗎?他們刷到的內容和我完全不一樣,這簡直就是信息繭房”時,這類說法其實混淆了“信息繭房”和“個性化推薦”概念。當人們使用個性化推薦,因個人興趣、場景等因素而得到不同的推薦結果,其實是很正常的,但將千人千面的推薦效果等同于信息繭房,有失偏頗,容易導致信息繭房概念的泛化與濫用。
這種近乎直覺式的推斷,讓人喜憂參半。喜的是,人們對新技術的社會影響保持了認知上的敏感和反思。憂的是,信息繭房概念被逐漸泛化,陷入了過于簡單化的歸因,對算法技術的評判有失公允,并且有可能滑向不利于社會創(chuàng)新的技術悲觀論調。
信息繭房這個術語有兩層含義。
首先,這個詞語描述了個人所感知的同質化信息環(huán)境。早在2006年,美國政治學家、法學家卡斯·桑斯坦在《信息烏托邦》(Infotopia: How Many Minds Produce Knowledge)一書中,用“繭房”來比喻這樣一個環(huán)境:因為個性化的信息過濾,個體只能接受到符合自己觀點的信息,因此陷入到了一個同質化的信息環(huán)境中。
其次,在學術研究中,過濾泡、回聲室是比信息繭房更常用的概念。人們上網時都有類似的體驗,立場不同的雙方就某個爭議話題展開論戰(zhàn),結果不僅誰也說服不了誰、誰也不愿意理解誰,甚至還會加強自己原先的立場?;芈暿揖兔枋隽诉@樣一種狀況:人們生活在一個封閉的社交圈中,同質化的信息不斷重復、放大,導致回聲室內的成員對外界的信息接觸越來越少,而只能聽到和自己一致觀點的聲音。
不過,算法和繭房的因果關系也未經證實。《打破社交媒體棱鏡》一書中,美國杜克大學政治學與公共政策教授克里斯·貝爾做了一個實驗,當給用戶提供了對立的觀點時,人們反而更極端、更捍衛(wèi)自己原來的立場了。這個實驗說明,哪怕我們接觸的是多樣化的信息,仍然會擁護自己的立場,甚至變得極端,這個過程并不一定需要經過“過濾泡”或“信息繭房”的中介。
信息繭房、過濾泡、回聲室等概念都描述了一個共同的擔憂:在選擇性的信息接觸中,人們可能會陷入一種自我強化的反饋循環(huán),從而失去了接觸多種信息、不同觀點的機會。這個復雜的社會問題有很多成因,受到包括個體、技術、場景與社會等多種因素的共同影響。但是在人們的日常認知中經常把這個多因——多果的問題,簡化為“算法導致信息繭房”形式的單因——單果的說法。
要弄清楚這個問題,我們需要全面地認識算法。
首先,在技術上,算法就是計算方法,我們對數(shù)學中的雞兔同籠問題的求解,就是最簡單的計算方法。推薦算法要解決的問題是隨互聯(lián)網而來的海量信息的分發(fā)難題?!安履阆肟础币彩且坏浪惴},信息平臺根據人們的地理位置數(shù)據、已有瀏覽記錄、朋友的興趣等,完成信息的高效分發(fā)。
推薦算法在用戶和內容之間建立起有效的、符合偏好和需求的橋梁。如果沒有推薦算法,我們可能會淹沒在無邊無際的信息海洋中,感到迷茫和不知所措,我們無法有效地獲取所需的信息,甚至可能引發(fā)更嚴重的問題,比如信息癱瘓和信息回避。因此,從全局上看,算法是服務民眾需求、有利社會發(fā)展的,這一基本判斷應是主流共識。
其次,從市場經濟角度看,提供這項服務的平臺公司需要盈利,因此推薦算法還要解決留住用戶,然后將用戶注意力有效售賣給廣告商的問題。正如紀錄片《監(jiān)視資本主義:智能陷阱》(The Social Dilemma)中指出的,社交媒體平臺和搜索引擎使用的推薦算法,根據用戶的歷史行為和偏好,個性化地推送信息。平臺就像商場,如果商場總提供某一類或某幾類商品,無法提供更多品類的商品,消費者可能會減少使用甚至拋棄它。從商業(yè)角度,平臺也會通過分發(fā)多樣性信息,來留存用戶,而不是刻意制造繭房。
也有研究顯示,用戶仍然有主觀能動性,也并非一味被動接受算法的投喂。賓夕法尼亞大學的楊天、黃圣淳等研究發(fā)現(xiàn),喜歡用今日頭條看娛樂信息的人,也順便看了新聞。也就是說,人們使用算法驅動的信息分發(fā)平臺之后,并沒有陷入娛樂的繭房中不可自拔,而是隨著娛樂信息消費增加,新聞信息的消費也增加。從傳播的角度上講,這個研究的結果很有意義,因為它提出了一個反常識的發(fā)現(xiàn):算法平臺上的消費者不僅沒有娛樂至死,而是也履行著“好公民”的職責。
此外,從技術哲學的視角,技術與社會相互建構。推薦算法并不是一個完全獨立的存在,而是與多種社會因素相互交織、共同發(fā)展的結果。它根據我們的個人興趣來推薦信息,但也受到政府、公司、用戶等多種社會因素共同影響,進而產生了“千人千面”的推薦效果。
而當我們搞清楚了何為算法、何為繭房,我們也就可以理解為什么算法成了信息繭房的替罪羊。
第一,這個替罪羊現(xiàn)象是大眾認知倉促簡化的結果。算法技術深度嵌入日常生活后,和各樣社會問題產生了復雜的勾連。但人們并沒有時間、或沒有心力去進行條分理析的明辨,就想要尋求一個易懂的、易交流的說法,來描述這種“千人千面”的信息體驗,卻找不到除繭房、過濾泡這類比喻之外的詞匯。于是,在大眾討論中,信息繭房的概念被挪用和濫用,相應地,概念語義也出現(xiàn)了泛化。把對信息繭房、溝通困難等的擔憂,都倉促挪用到了推薦算法上。如果人們不愿意充分全面地去認知算法的原理,信息繭房的含義,就匆匆地將信息繭房完全歸咎于算法,也是有失公允的。
第二,正如社會心理學的“替罪羊理論”所說,人們往往會把負面體驗歸因于外群體。在這里,人們把社會問題歸因于技術。人們如果在現(xiàn)實生活中意義感缺失,更傾向在信息流中花費更多時間,放下手機后,人們就容易將自己的空虛感歸因到算法身上。心理學家戈登·W·阿爾波特的“替罪羊理論”(scapegoat theory)提出,當人們經受負面的情緒時,會傾向于把這種感受去歸咎于另一個群體或個人。
如果讓算法作為信息繭房的背鍋俠,蘊含了一個前提:用戶是被動的,沒有主動性的,技術為刀俎,網民為魚肉。但實際上,推薦算法在技術上也給用戶的興趣賦予了很多能動性。如果用戶對京劇感興趣,在京劇類型內容上停留時間長,就會得到更多的推送。
其實,就算是沒有算法的時代里,人們也會不同程度地生活在自己構建的同質化信息圈中。報刊時代,也有人只看社會新聞;電視時代,也有人只看體育頻道。但人們并沒有把這種單一化、同質化的信息消費歸咎于報刊和電視。真正能打破信息繭房的,并不是對一個傳播技術的討伐和絞殺,而是對受眾或用戶的信息素養(yǎng)、社會公共信息生態(tài)治理等等多方面能力的考驗。
可見,面對復雜的社會問題時,人們總會想尋找一個簡化易懂的說法。這個替罪羊可能是另一群人,也可能是技術,而“信息繭房”就成為了信息同質化、娛樂至死、意義虛無等復雜社會癥候的簡化替罪羊。
第三,縱觀媒介發(fā)展史,算法既不是第一只為負面情緒贖罪的替罪羊,也不會是最后一位替社會問題擋槍的背鍋俠。新興的傳播技術帶來的變革如果超出了人們能夠駕馭的范圍,就很容易成為更廣泛問題歸咎對象。
例如,柏拉圖在《菲德羅篇》中猛烈批評“文字”這種當時的新技術,認為它破壞了口頭交流增長智慧的方式。清朝末年,被喻為“順風耳”的電報技術傳入當時面對內憂外患的清朝,電報本可以用于提高軍事情報的傳遞效率,但也遭到了很多大臣的反對。其中一位名叫崇厚的大臣認為,這種新技術“貽害無窮”,因為電報桿插地太深,可能破壞風水,吸走大清的地氣。21世紀初,網絡游戲一度成了“網癮”的替罪羊。當網絡上的噴子太多,我們又武斷地抓出社交媒體來做禍首。如今,人們又捉住了算法和大數(shù)據,作為信息同質化和觀點極化的替罪羊。
認識到這個算法替罪羊現(xiàn)象,克制地使用簡化歸因,對個人和社會都是有益的。對個人而言,我們應該有意識地培養(yǎng)自己的自控力,為自己設計更加健康的信息套餐,運用科學和積極的思維來使用算法。例如,通過算法推薦,用戶找到了獨特品味的圖書、小眾出版商也覓得了投緣的小眾讀者群。對社會來說,我們保持開放包容的心態(tài),才能在社會認知上為新技術創(chuàng)新作好準備,助力孵化更多的創(chuàng)意產品來方便我們的生活。而代際溝通困難、意義虛無、錯失焦慮、意見極化等結構性的社會問題,也不能把責任簡單推到用戶或技術身上,還需要通過系統(tǒng)設計思維,推動全社會一起來改善。