首頁>專題>第二時間
深陷“信息繭房”,該如何破繭?
“我們在聊什么,就會刷到與它有關的網頁、視頻推薦、購買鏈接?!薄吧缃黄脚_上,哪個號我們看得久了,之后就頻繁推送哪個號的內容?!薄髷祿r代,每個人都在“裸泳”,也在被算法“投喂”,這種“越刷越精準”的體驗,讓不少人陷入了“信息繭房”。
近日,中央網信辦等部門聯合印發通知,部署開展“清朗·網絡平臺算法典型問題治理”專項行動,深入整治“信息繭房”、誘導沉迷等問題,以進一步深化互聯網信息服務算法綜合治理。這一專項行動引發了人們對算法及其影響的深入反思。如何把算法用好?如何逃離“信息繭房”,擁抱多元信息新世界?如何引導算法向上向善?多位政協委員和專家在接受記者采訪時進行了深入解讀。
“信息繭房”
可導致認知偏見和刻板印象
“‘信息繭房’指人們關注的信息領域會習慣性地被自己的興趣所引導,從而將自己的生活桎梏于像蠶繭一般的‘繭房’中的現象?!比珖f委員、金杜律師事務所高級合伙人張毅介紹,目前,這一現象主要由社交媒體、搜索引擎及其他在線平臺的算法推薦所推動,從而使用戶在信息選擇上變得越來越局限。
“從隱私和數據保護風險角度來講,在‘信息繭房’形成過程中,平臺可能需要收集大量的用戶數據,如果數據收集、管理不當,用戶的個人隱私可能面臨泄露風險。”張毅表示。
那么,被桎梏在“信息繭房”內,于個人而言有何影響?
在張毅看來,首先是知識局限,影響社會創新?!啊畔⒗O房’使個體囿于特定的信息領域,這妨礙了不同領域知識的碰撞與融合。因用戶缺乏多樣性的信息環境,也就難以產生創新的靈感?!?/p>
“其次是認知偏差,影響社會和諧。”張毅表示,在“信息繭房”中,用戶主要接觸與自己興趣愛好相符的信息,也更傾向于與相似觀點的人群互動。長此以往,可能導致不同群體間的認知偏見和刻板印象加深,陷入“我們對你們”的思維模式。比如,在一些社會熱點事件中,人們往往只看到符合自己立場的信息,“偏見”可能會影響個人判斷,也可能在更大范圍內影響社會輿論。
第十三屆全國政協委員、第五空間信息技術研究院院長談劍鋒表示,從社會角度來說,“繭房”之間壁壘森嚴,使得社會的“公共性”逐漸消弭,增加人與人之間的社會交往成本,甚至割裂社會共識。
中國電信研究院戰略發展研究所高級顧問、高級經濟師漆晨曦也表示,“信息繭房”的弊端不僅局限于經濟和消費層面,更深刻地體現在社會文化、認知與治理的各個維度。數字化社會的高速發展,依賴各個節點之間信息的無縫共享,需要構建基于信任的知識型網絡,因此,只有打破信息壁壘,讓用戶在更廣闊的信息海洋中遨游,才能促進思想的碰撞與社會的進步。
算法一定會制造“信息繭房”嗎?
無論是“信息繭房”誘人沉迷、割裂共識的問題,還是大數據對勞動者、對客戶“殺熟”的問題,核心都在于平臺算法的具體運用。
“算法并不意味著信息操縱?!闭剟︿h解釋道,算法作為計算技術的關鍵組成,本質上是輸入輸出的轉換規則,簡單看是運算步驟,大處看是解決問題的策略機制。
談劍鋒坦言,算法屬于技術范疇,也會受制于人類的認知水平,會有局限性甚至缺陷,而且算法自身也在不斷發展優化中?!叭绻覀兡芎侠砝盟惴?,不僅能夠享受到個性化的信息體驗,還能打破‘信息繭房’,實現更加全面和均衡的信息消費?!?/p>
如何把算法用好?張毅建議,一是政府應從保護個人隱私和數據安全的角度,進一步完善《互聯網信息服務算法推薦管理規定》等法律法規,如要求提供給用戶及時關閉與自己其他信息相關聯的功能。通過提供切斷渠道,可避免大量個人信息被濫用。二是隨著“算法備案”逐漸落實,應逐漸引入社會方面對算法的監督和問責,并培養公眾的算法素養,提高人們對算法影響的認知與批判性思維能力。三是平臺企業應定期開展算法的科普工作,增強算法透明度。此外,也要加強運用算法對謠言與網暴的識別與打擊力度。
“總之,網絡平臺的算法要重點從三點進行規范,一是公平性,確保算法公正,避免助長偏見和歧視;二是隱私保護,嚴格遵循個人信息保護法、數據安全法等,確保用戶隱私不被侵犯;三是內容多樣性,鼓勵多元化的信息展示,防止單一信源主導?!睆堃惚硎?。
“對網絡平臺的算法進行規范,本質上是對算法應用的規制,但并非簡單意義上的對‘算法運行狀態’進行規制,而是基于保障國家安全、維護社會經濟秩序及保護社會個體權益的需要,深入到應用平臺或智能程序所應用的算法層面,對算法進行引導、規范或監管。”談劍鋒進一步表示。
畫好四條線 助力打破“信息繭房”
與受困“繭房”相對應的,就是“破繭”。
談劍鋒表示,由于“信息繭房”隱蔽性強、形態繁多、范圍寬廣,尤其是涉及到社會各方較多,就要求“破繭”這類算法規制的價值目標體系應當包容眾多的法益。
“首先,從個體角度來說,網民應提高自我防范能力,改變思維定式,不要被別人帶著跑。其次,從產業以及監管角度來說,要畫好四條線,廠商要有‘底線’,有所為而有所不為;應用要有‘界線’,場景設計要有規矩;監管要有‘高壓線’,對安全威脅要積極作為;治理要有‘平行線’,照顧廣泛的社會群體?!闭剟︿h建議。
對此,張毅持相同觀點。他進一步建議,在行業層面,企業要加強自律,提高算法透明度,嚴格對標此次專項行動自糾自查;引入多樣化推薦機制,比如通過設置算法參數,鼓勵用戶探索與其興趣完全不一致的內容;建立內部審核機制,定期檢查算法的公平性與透明度,打破“信息繭房”,維護用戶權益。在政府層面,應制定和完善相關法律法規,規范算法使用;同時,鼓勵公眾參與對算法倫理的討論,推動算法向優,治理向善。此外,也要加強對信息傳播的監管,打擊虛假信息和不良信息的傳播,避免因“信息繭房”導致的群體性認知偏差的不良影響擴大。
“企業自我主動管理行為是走出‘繭房’更有效的方式。平臺企業要重視用戶反饋,可以通過收集用戶對算法推薦內容的看法和建議,及時調整算法,并確保算法與用戶需要保持一致。也可以將企業內部系統中的‘提供興趣標簽查看功能,向用戶展示用于內容推送的個人興趣標簽’等向用戶開放且讓用戶自己管理,對現有的推薦系統可能會帶來較大影響?!睆堃阊a充說。
“平臺在內容推送時,還應考慮適齡性和多樣性,針對未成年人和老年人推送教育型、文化型、娛樂性內容,避免內容單一化和一味追求商業利益,讓特殊人群也能盡享數字紅利。”漆晨曦舉例稱,比如針對老年人,平臺可以開發適合的內容分區和友好界面,降低使用門檻,避免沉迷問題。
如何引導算法向上向善?
此次“清朗·網絡平臺算法典型問題治理”專項行動,不僅向濫用算法而導致“信息繭房”、隱私泄露、騎手困在系統里等算法之亂開刀,而且對算法向上向善提出期冀。
如何引導算法向上向善,促進網絡平臺更好發展,更好地實現主流價值引導?
“算法技術具有專業性強、更新速度快等特點,這決定了算法治理是一項長期工作,需要匯集各界合力?!睘榇?,張毅建議建立政府、企業、學術界的協作機制,比如,三方可聯合發布重點平臺企業的算法白皮書,說明算法的設計、數據來源和推薦邏輯,讓用戶了解算法如何影響他們的內容推薦,也可共同制定算法設計和應用的行業標準和倫理規范,確保算法設計應用符合社會公正和公共利益。
“此外,相關部門也可設立激勵機制,對于積極推動算法向善、促進社會正能量傳播的平臺給予政策支持和激勵,促進良性競爭。”張毅進一步建議。
“從平臺治理角度來看,通過監督實現主流價值引導更有效?!闭剟︿h建議,一是把行之有效、持之以恒的實踐制度化,讓算法治理形成規范系統和制度;二是把精確可行的概念和理論制度化。
同時,談劍鋒表示,在保證控制重大風險底線的基礎上,還要給算法及其應用的自由發展空間,讓一些問題在實踐中進行調適和優化。
“數字化服務的目標應是以人為本,服務社會。‘信息繭房’并非不可破解,各方參與,形成合力,將共同推動技術與人性的和諧共舞,塑造一個多元且包容的數字新世界?!逼岢筷乇硎?。(制圖:趙慶慶)
編輯:董雨吉