首頁/ 遊戲/ 正文

演算法的“毒泡泡”,當真可以戒掉嗎?

關掉個性化推薦功能後,林陌陷入了深深的焦慮。

“以前開啟今日頭條,首頁裡總會有很多自己感興趣的內容,雖然覺得自己的可能被演算法裹挾了,但真的節省了很多不必要的資訊篩選。現在關掉了個性化推薦,滿屏都是和自己無關的垃圾資訊。”

《網際網路資訊服務演算法推薦管理規定》正式實施後,不少APP上線了演算法關閉按鈕,允許使用者在後臺關掉“個性化推薦”。向來對演算法推薦有微辭的林陌,第一時間就關掉了多個APP的推薦功能,但結果並不是預想中的那般。

“本來可以在工作間隙刷刷喜歡的短影片或圖文內容,可在關掉演算法推薦後,內容的匹配度大不如前,在螢幕上下滑好幾頁都找不到喜歡的內容,碎片化時間都浪費在了找內容上,而且廣告推薦一個沒少。”

像林陌這樣的使用者顯然不在少數,長期生活在演算法編織的環境中,本能上有一種被演算法支配的恐懼,卻也在無形中養成了對演算法的依賴,想要逃離乃至對抗演算法,似乎並不是一件容易的事情。

01 “有毒”的演算法

尼爾·波茲曼曾在《技術壟斷》一書中斷言:每一種新技術都既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產物。

演算法的出現、應用和演變,準確地佐證了波茲曼的斷言。演算法本質上是一種分析、預測的數學技術,強調的是相關性,可以用來提高資訊和商品推薦的準確性,也有利於降低使用者的時間成本。然而法律監管和使用者意識的“滯後”,再加上演算法和網際網路商業模式的深度捆綁,逐漸滋生了許多亂象。

最早被討論的是“資訊繭房”。這是哈佛大學法學院教授凱斯·桑斯坦在《網路共和國》中提出的概念,公眾在資訊傳播過程中會過度偏向自身感興趣的內容,減少和其他資訊的接觸,不知不覺間為自己製造了一個“資訊繭房”,漸漸沉浸在一個越來越窄的世界,甚至產生一些極端的認知。

桑斯坦提出“資訊繭房”概念的時間是2006年,可由於概念本身過於學術化,加上“演算法推薦”在那個時候還是一個相對陌生的詞彙,並未被太多人所關注。直到移動網際網路浪潮的到來,一些創業者開始用演算法去討好使用者,不斷猜測並推薦使用者偏好的內容,以增強所謂的使用者粘性和使用者時長,“資訊繭房”逐漸成了一種常態化的社會現象。

但演算法的弊端被大多數人聲討的導火索,卻是和使用者利益直接相關的大資料殺熟。電商平臺、出行APP、外賣平臺等都被曝出大資料殺熟的案例,系統會根據使用者標籤推送不同的折扣,同一件商品給新使用者比較低的價格,而老使用者的價格要明顯高一些。北京消費者協會曾對“殺熟”問題進行調查問卷,過半使用者表示經歷過“大資料殺熟”。

不過演算法在輿論場上的公開抨擊,還要等到“資料隱私”的發酵。剛剛在社交網站上聊到某件商品,轉身就出現在了電商平臺的推薦頁面,甚至有網友吐槽自己的電話內容可能被電商APP監聽。箇中的因果關係其實並不難解釋,演算法的訓練離不開資料原料,使用者的瀏覽記錄、停留時長、興趣愛好等都被平臺偷偷記錄,而為了演算法推薦的準確性,一些平臺不無越界侵犯使用者隱私的嫌疑。

借用一個有些陰謀論色彩的說法:就像是一個溫水煮青蛙的過程,先用演算法推薦構建了一張張封閉的“資訊繭房”,生活在“繭房”的使用者成為一茬茬被收割的物件,至於收割的方式,或是大資料殺熟,或是監聽使用者隱私……至此,演算法不再是“沒有價值觀”的技術名詞,開始和“毒”字掛了鉤。

02 “靴子”終落地

當演算法被越來越多人詬病,一步步走向汙名化的時候,對平臺的演算法推薦進行治理的呼籲愈演愈烈,監管的靴子陸續落地。

前面提到的《網際網路資訊服務演算法推薦管理規定》就是相應的產物。由網信辦在2021年8月份提出,並於2022年3月1日正式施行。“管理規定”的矛頭直指演算法推薦功能,提出演算法推薦服務提供者應當向用戶提供不針對個人特徵的選項,或者向用戶提供便捷的關閉演算法推薦服務的選項。

截止到目前,不少網際網路大廠已經響應號召,微信、抖音、淘寶、美團、百度、微博、小紅書等熱門APP,均上線了個性化內容推薦和個性化廣告推薦的關閉按鈕,只是在執行力度上仍有所保留。

比如網信辦規定平臺要在顯著位置上線演算法關閉鍵,現實中很多APP將這一功能隱藏的非常深。以今日頭條為例,想要關掉“個性化推薦”功能,需要開啟APP、點選“我的”、找到“隱私設定”、開啟“個性化推薦設定”、關掉“個性化推薦”等至少5個步驟,關閉入口隱藏的比較深且操作繁瑣。

即便監管的靴子已經落地,而且留下了近7個月的整改時間,不少APP應付監管的態度卻非常微妙,乃至存在對抗監管的可能。畢竟演算法推薦早已是許多平臺的流量密碼,一旦使用者關掉“個性化推薦”,可能讓使用者的開啟頻率變低、停留時長變短,進而影響平臺賴以生存的廣告收入。

於是一些平臺並未對非演算法推薦進行產品最佳化,採取了“一刀切”的產品邏輯,使用者在關掉“個性化推薦”後,幾乎找不到符合興趣的內容,本質上在逼迫使用者二選一:要麼犧牲掉使用者體驗,要麼乖乖迴歸演算法推薦。

這還只是觸及了演算法推薦的蛋糕,倘若進一步涉及到商品推薦、隱私保護等環節,不排除一些平臺會給出更加狡詐的應對策略。或許這才是“技術霸凌”的題中之意,不只是平臺利用技術進行了多少越界行為,還涉及到對使用者行為的綁架,想要逃離“演算法陷阱”,必須要付出足夠大的代價。

讓人沮喪的是,演算法規則在時間的推移下越來越複雜,對大部分使用者而言就是一個看不透的“黑箱”,無法理解演算法的運作原理,也不知曉有哪些濫用的行為。可能只是在某個短影片上多停留了幾秒,只是開啟某個商品連結忘記關閉,就會被平臺記錄、利用演算法分析,無形中編織了一張逃不掉的網。

至少在監管對“演算法推薦”動刀時,已經驗證了一個不太樂觀的事實:大多數使用者很難走出演算法的“圍城”,看似被賦予了拒絕的權利,想要行使權力的難度和代價,卻會讓大多數人放棄改變的想法。

03 戒不掉的“癮”

正如德國存在主義哲學家雅斯貝爾斯的觀點:“技術僅是一種手段,它本身並無善惡,一切取決於人從中造出什麼,它為什麼目的而服務於人。”

這種“技術無罪”的理念,在國內衍生出了“演算法沒有價值觀”的結論,同時也成了一些人為演算法推薦“洗地”的理論根源。譬如“資訊繭房”的話題引發公開討論時,某知名自媒體在文章中赫然寫道:“如果說我們真的需要一條擺脫所謂資訊繭房的技術之路,演算法顯然是修路者之一,它肯定不是路障。”

其中的底層邏輯往往建立在普羅大眾的“自律”上,如果你不想被“資訊繭房”控制,只要主動跳出自己的“舒適圈”就可以,主動去接觸那些不願接觸的資訊,而非把責任全部歸咎於外部的客觀原因。

此類觀點看似難以辯駁,卻選擇性忽略了另一個既定現實:每每提到移動網際網路時代的創始人,“洞悉人性”可以說是時常出現的一個評價,張一鳴、黃崢等都曾被媒體這般評論。折射到演算法誘發的一系列問題上,那些“始作俑者”所擅長的,正是費盡心思地讓使用者上癮,然後毀掉你的自律。

普林斯頓大學心理學博士亞當·奧爾特,在《欲罷不能》中特意解釋了網際網路的種種“上癮”行為,並將其細分為6個要素,即預設可望而不可即的誘人目標、提供不可抗拒的積極反饋、毫不費力的讓使用者感到進步、給予逐漸升級的挑戰、營造未完成的緊張感、增加令人痴迷的社會互動。

如果說奧爾特是從產品經理的角度,透析了遊戲、短影片等產品引導使用者上癮的原理,著名戰略問題專家布熱津斯基則從上帝視角提出了著名的奶頭樂理論:世界上80%的人口將因生產力提升被邊緣化,為了安慰社會中“被遺棄”的人,方法之一就是讓企業大批次製造“奶頭”——讓令人沉迷的消遣娛樂和充滿感官刺激的產品填滿人們的生活,進而沉浸在“快樂”中不知不覺地喪失思考能力。

直接將演算法視為奶頭樂理論的“幫兇”,無疑有一些武斷,可毋庸置疑的事實在於,演算法強化了使用者的即時滿足心理,放大了多巴胺的刺激和誘惑,讓大多數使用者漸漸適應了“娛樂至死”的狀態。

令人遺憾的地方正在於此,極大多數使用者不會主動剋制自己,習慣性地接受演算法的推薦內容,讓演算法收集自己的資料,無意識地告訴演算法哪些是自己喜歡的內容,最終被框定在一個看不見的“舒適區”中。即使監管層面已經做出了反應,為使用者打開了逃離演算法的大門,可想讓使用者靠自律、靠隱私意識的覺醒拒絕成癮,並不是一條可行的路徑,解鈴的鑰匙仍然掌握在繫鈴人手中。

04 治理的“命門”

並非是想挑起使用者和平臺間的對立,在“演算法有毒”的現實語境下,需要“自律”的恰恰是手握演算法行使“權力”的網際網路平臺。

英國學者傑米·薩斯坎德在《演算法的力量》一書中提到了這樣一幕:網際網路公司內部幾乎沒有工程師會思考其工作導致的系統性後果,他們中的大部分只需要解決某些分散的技術問題就可以交差了。

而這樣的情況絕非是少數,每當輿論開始聲討演算法的原罪時,涉及其中的網際網路公司都會丟擲“技術無罪”的擋箭牌。原因離不開演算法運作的“黑箱”機制,即工程師負責提供資料、模型和架構,演算法就會給出答案,對中間的運作過程和原理可能並不清楚,甚至工程師自己都覺得是被誤解的一方。

然而早在幾年前的時候,阿里雲的程式設計師就曾在媒體採訪中驕傲地宣稱:“我們現在已經能夠做到全中國幾億人口的淘寶介面都是不一樣的,而且幾乎做到了秒級更新。”同樣存在演算法的不可解釋性,網際網路大廠們樂見演算法產生的正向結果,卻不願對演算法的過程和結果負起相應責任。

2020年上線的紀錄片《監視資本主義:智慧陷阱》,用一句話巧妙地闡述了其中的癥結:“如果你沒有花錢買產品,那麼你就是待價而沽的商品。”消費者無須為演算法提供的服務直接付費,可隱形的價碼早已被標註。

現實中的案例證明,網際網路企業並非沒有矯正的空間。早在2019年的google I/O上,谷歌就公佈了一項名為概念啟用向量測試(TCAV)的技術,對演算法偏見、演算法歧視等問題進行技術上的監督。

歸根結底還是商業利益和使用者權益的平衡,“不作為”偏偏是大多數企業的首要選擇。不只是關閉“個性化推薦”入口上的遮遮掩掩,在使用者增長進入瓶頸時,不少平臺刻意利用演算法“殺時間”,抖音、快手、b站乃至知乎都有人為製造“時間黑洞”的嫌疑,演算法在某種程度上成了“算計”的工具。

可把眼光稍微放長遠一些,所有的商業根基都離不開使用者信任。由於企業的趨利、監管的滯後、個體的默許,已然攪起了資訊繭房、大資料殺熟等輿論漩渦,何嘗不是使用者試圖對抗演算法的一種外在表現?技術固然有著兩面性,身處其中的平臺方卻有能力進行取捨,適當限制演算法應用的邊界,調整想要的“目標函式”。

能否喚醒網際網路平臺的“良知”,才是演算法治理的“命門”所在。還是以針對演算法推薦的整改為例為例,基於演算法對使用者行為的“鎖定效應”,讓使用者在演算法推薦有無間進行二選一是一種策略;對演算法進行場景化、精細化的治理,站在使用者的立場上給出更好的解決方案也是一種策略。

但願一些網際網路平臺能夠站在歷史的正確一邊。

注:林陌為化名。

反彈行情下的專屬投資禮包!投資VIP權益、188元現金紅包,100%中獎>>

開啟App看更多精彩內容

相關文章

頂部