轉自:中國科學報
你知道“momo”是誰嗎?
近兩年來,互聯網上不知不覺湧現了一批“momo大軍”,他們用着同一個暱稱,頂着一模一樣的頭像,混跡於微信、豆瓣、小紅書、微博等各大社交平臺。
這是許多年輕人用以隱藏身份的“馬甲”。是的,曾經以彰顯個性、特立獨行爲傲的那批人,現在更在意的是怎樣隱匿自己在網絡上的言行,只爲了逃脫“算法圍城”。
——他們不希望“信息繭房”成爲自己的“人生第一套房”,不想自己在社交媒體的分享成爲被大數據窺探的窗,不願意自己付出時間和健康的代價,卻被困在一個看不見的牢籠。
但他們又何嘗不知道,數字生存如飛鴻踏雪,數字互聯時代,想要雁過無痕,談何容易?
硬剛算法的年輕人
不管承不承認,我們每個人都活在算法圍城之中。
同一份外賣,老顧客要比新會員多付十幾元;同一時間的相同路程,不同手機型號的用戶單價不一;當你拿起另一半的手機,在短視頻平臺看到的熱搜評論都不盡相同……
面對算法圍城,普通人有普通人的痛楚,名人有名人的煩惱。
近一年以來,中國內地“首富”、農夫山泉創始人鍾睒睒本人以及農夫山泉頻上“熱搜”:從產品、環保議題到個人家事,不僅農夫山泉的股價應聲滑落,鍾睒睒個人也遭受了前所未有的流量“集火”。忍無可忍的鐘睒睒在一場交流活動上隔空喊話字節跳動創始人張一鳴,直言“有人利用算法制造單一敘事和惡意對立”,並稱這種“利用科技手段、技術能力造成的惡”比普通人造成的惡要大,“是大惡”。
“他們用算法放大情緒,把複雜的問題簡單化,把不同的聲音屏蔽掉。”鍾睒睒說,這種行爲不僅破壞了公平的輿論環境,也讓公衆陷入片面認知,而受害者往往都是底層民衆。
在“網暴”面前,絕大部分人不是鍾睒睒。面對各種算法織就的網,鍾睒睒可以“隔空喊話”,普通人卻只能套上“馬甲”。
於是,越來越多的年輕人決定主動出擊,試圖“反向訓練算法”,和平臺正面硬剛。
他們中有人“賽博哭窮”:“機票太貴了我不去了”“買不起,不買了”“9毛9,我喝得起的咖啡”;有人“喊話威脅”,給某軟件留言:“竟然殺熟,太過分了,我要卸載”;有人則是行動派,移除軟件後故意過上一段日子再重新下載,以期再次享受大額優惠;還有人利用軟件生成的虛擬手機號頻繁註冊平臺軟件新號,“薅新人羊毛”。
有網友表示,有些“偏方”好像真的管用,發牢騷、抱怨價格、卸載重裝,一套流程走完能省下不小的一筆錢;在某書,隨處可見許多諸如“罵機票專用帖”等熱門經驗分享。也有人覺得這一切都是徒勞,到頭來還是被平臺用算法“收割”。但不管怎樣,他們樂此不疲,並美其名曰:“反向馴化大數據”“用算法打敗算法”。
“反向馴化”其實見效甚微
“反向訓練算法”有沒有用?《中國科學報》就此諮詢了算法專家。得到的答案,恐怕要給大家澆一盆冷水。
“‘反向馴化大數據’這類做法可能僅僅對一些簡單的(算法)有點效果,對稍微複雜一點的,恐怕沒什麼太大作用。”中國科學院自動化所副研究員、武漢人工智能研究院算法總監吳凌翔告訴記者,平臺會根據用戶大量的歷史信息、IP地址、社會關係、手機型號等做算法推薦,如果用戶不瞭解算法機制,很難“反向訓練”。
中國傳媒大學媒體融合與傳播國家重點實驗室媒體大數據中心首席科學家沈浩則認爲,用戶通過主動關閉定位、禁止後臺調取通訊錄等方式尚能起到一定的屏蔽作用,但如果試圖通過調整標籤、更換人設來“迷惑”算法,可能會適得其反:新的“人設”還會出現新的“信息繭房”。
事實上,許多軟件都給了用戶選擇取消“個性化推薦”的功能,但由於這項功能於平臺而言太過重要,因此往往隱藏較深。
而在沈浩看來,取消個性化推薦也不能根治“信息繭房”。
“不推薦、表達‘不感興趣’也是一種推薦。”沈浩告訴記者,算法是基於用戶數據驅動的,每個人都或多或少被“困”在信息繭房裏,只不過感知程度不同。
北京航空航天大學計算機學院教授王靜遠直言,自己雖然沒有專門研究過用戶“對抗”算法推薦的做法,但他對出現這種現象不感到意外。
“這反映了一些算法對用戶信息的收集和利用有些過分。”王靜遠對《中國科學報》說,當平臺逼得用戶連頭像、暱稱這些基礎信息都要隱藏,說明用戶的一切痕跡都有可能被用來作爲特徵被提取,“給用到極致了”。
《中國科學報》在走訪中,不止一次聽到“算法中立論”,認爲算法無罪,罪在利益相關方。但是,當每一次點擊、每一句評論、甚至每多停留一秒鐘,這些痕跡都成了平臺訓練算法的“養料”;當外賣、網約車等平臺被大數據操縱,喫什麼、去哪裏都被“讀心術”安排得明明白白;那麼在被浪費的時間、被挑撥的情緒、被掏走的“冤枉錢”面前,用戶眼中的算法就不再是“中立”的,而是越來越大的“牢籠”。
“當一切痕跡都在利益的驅使下過度商業化了,這個時候自然會有反抗。”王靜遠說。
“舊病未愈,又添新疾”
一邊是平臺利用算法精準織網,一邊是越來越多的人開始覺醒與反抗,野蠻生長的算法亂象,正被社會全方位地審視。
近日,中央網信辦、工信部、公安部、市場監管總局四部門聯合部署開展“清朗·網絡平臺算法典型問題治理”專項行動,矛頭直指“信息繭房”、操縱榜單、利益侵害、大數據“殺熟”、算法推薦等典型問題。
但如果溯回到大數據興起之時,“算法治亂”並非新鮮事。
早在2018年,美國臉書首席執行官馬克·扎克伯格就在美國國會上就數據隱私、虛假信息、監管等數個議題接受訊問。當時人們已經意識到,當用戶獲得免費或者極低費用的服務時,消費者將被要求提供更多的個人數據,而這些數據被濫用的可能性也會顯著增大。
我國也早在2021年就出臺了《關於加強互聯網信息服務算法綜合治理的指導意見》《互聯網信息服務算法推薦管理規定》等規定,明確算法治理的必要性和具體要求。而此次“清朗·網絡平臺算法典型問題治理”專項行動,力度更大、問題更加聚焦。
曾幾何時,互聯網努力爲不同人羣、不同議題提供平等的交流平臺,打造自由對話的多元空間;但隨着“流量至上”成了各大平臺目標,它們開始藉由算法之手不擇手段,用戶隱私信息得不到保護的問題浮出水面。
而隨着大語言模型技術的進步,生成式人工智能服務興起。但人工智能(AI)技術不加規範的濫用,也帶來許多未曾預見的新問題:AI換臉詐騙、AI造謠、AI偏見歧視、AI語言暴力等等讓許多人真假難辨、不堪其擾。
尤其是,當生成式人工智能服務的對象是未成年人和老年人時,更大的風險接踵而至。據外媒報道,創辦於2021年的Character.AI平臺近期就因其開發的“情感陪伴聊天機器人”官司纏身:今年10月,Character.AI在佛羅里達州一名青少年自殺事件中“扮演了某種角色”;12月,美國得克薩斯州一對父母決定起訴它“教唆未成年人殺害家長”,他們稱機器人聊天工具讓未滿18歲的青少年“過度接觸了色情、血腥暴力等不良內容”。
能否打破算法“黑箱”?
面對算法“作惡”,鍾睒睒呼籲“算法應該明白無誤地公佈於衆”。他認爲,沒有一種標準是不可以公佈的,應該公開公佈並讓所有使用者來評價其意義。
但公開算法,就能打開“黑箱”、制止亂象嗎?未必。
吳凌翔告訴《中國科學報》,算法並不像外界理解的那樣是徹底不透明的,一般都會通過發表論文、學術會議分享、公開課等公開原理。但是,即便是常見的推薦系統,背後的算法機制也非常複雜,常常“不是一兩個部門的事”,即便是開發者也未必能全部搞清楚。反倒是人工智能檢索增強生成的內容,現在的技術手段可以溯源——通過關聯標記能夠獲取它是基於哪些數據和信息“習得”的。
王靜遠也同意,算法機制問題並不如想象般簡單。“比如深度學習本身就是一個‘黑箱’,即便開發者也不清楚其中原理。”
事實上,對於算法工程師而言,真正的“黑箱”不在算法原理之中,而在數據與平臺機制設置之中——當用戶量增大、數據變多、平臺機制逐漸向利益“妥協”,久而久之便產生了“算法亂象”。
“算法始終是算法設計者意志的反應,是平臺意志的反應。”北京大學數字治理研究中心主任邱澤奇在接受《中國科學報》採訪時說。言外之意,複雜的算法問題背後潛藏的是平臺“無形的手”。
就如鍾睒睒所遭遇的那樣:“當你打開這些平臺,看到的總是同樣的內容”“很多惡是人爲造成的”。
不得不提的是,許多平臺型軟件在誕生之初,都懷抱着改造社會的使命。比如某音的初心是“記錄美好生活”、某團致力於打造“美好生活小幫手”、某滴提出的願景“讓出行更美好”、某程希望提供“放心的服務,放心的價格”……不可否認,這些軟件已經成爲人們數字生活中的基礎設施,但在巨大的發展慣性下,平臺自發性地選擇了阻力最小、收益最高的方向,輕視乃至忽略了社會價值。在這種嬗變之中,算法的用途逐漸跑偏。
“在算法訓練中,目標導向是關鍵因素。”王靜遠告訴記者,人工智能算法在設計時,會要求開發者設置一個目標函數,訓練算法時會盡最大可能優化這個目標函數。如果算法以提高調度效率爲目標,在模型優化過程中就會犧牲其他因素來追求高效;如果以精準的個性化推薦爲目標,就不可避免地出現過度收集和利用信息的問題。
信息大爆炸時代,算法的篩選和過濾無疑迎合了爲大腦“降本增效”的剛需。然而,當精準“捕捉”用戶已無法滿足平臺的胃口,“殺熟”成了平臺“向前一步”的試水。王靜遠提到,平臺通過“精準營銷”爲不同消費水平的顧客推薦不同價位的產品尚情有可原,但通過分析用戶經濟能力進行“個性化定價”的歧視行爲就令人難以接受了,這個在技術上“能夠也亟需”加以規避。
走向共同治理
在訪談中,幾位受訪對象不約而同地談到,除了人爲濫用算法制造矛盾對立外,算法更多是在復刻社會的現實問題。
“坦率地講,算法就是幫你算個數。你寫了一套程序,它幫你把一些說不清、道不明的規律從數據裏‘扒’出來。我的觀點是,算法自己不會作惡。”邱澤奇說,問題的關鍵是數據和算法的匹配以及算法的調試,“說到底,都是人在忙乎”。
他提出,不同的人雖然在使用同一個軟件平臺,但大家對數據的貢獻、得到的反饋在量和質上都有差異;而當算法應用數據時,便會復刻現實社會的結構,甚至放大現實社會的問題。
基於此,他認爲有兩條路可以嘗試解決算法問題:一是對真實數據進行權重配置,二是調試算法進行糾偏。
“算法是人寫的,是可以調整的。在方法意義上,算法是工具。”邱澤奇認爲,工具是否適用是可以做交叉檢驗的,在技術上並不難實現。
有研究指出,算法黑箱、算法權力、算法陷阱等亂象很可能會成爲數智經濟負外部性的深層來源。當失速的算法濫用終於撞上負外部性的“南牆”,“算法向善”成了全社會的共同呼喚。
在邱澤奇看來,“算法向善”包括四個關鍵概念:首先是改進,這是平臺承擔社會責任和社會價值的必然要求;其次是普惠,沒有利益相關者的收益提高,平臺經營就是竭澤而漁;第三是包容,關注數智弱勢羣體,不只是平臺的社會責任,也是人類價值的體現;最後是誠信,這是數智社會的底線規則,沒有人類之間的誠信,算法只會成爲人類自我欺詐的武器。
他也坦承,通往“算法向善”的道路曲折而遙遠,需要多方的共同努力。
“首先需要解決平臺和算法設計者的認知問題。”邱澤奇提出,前提是要着眼於保護各方的利益:在平臺內部,建立平臺業務的社會後果評估機制,不限於經濟產出評估;在平臺與社會之間,建立與利益相關者的協商溝通機制;在平臺外部,建立平臺社會評價機制等等。
吳凌翔提出了類似建議,她認爲算法治理需要搭建一個用戶、平臺、專家共同參與、共商機制的平臺,促進通過對話達成共識。此外她也認可用戶反饋機制和參與機制非常重要,這是社會治理的一種體現。
技術層面也有施展空間。以推薦算法爲例,吳凌翔說,不僅要提升數據的多樣性和豐富度,還可以對算法進行公平性約束、增加敏感性分析,以及通過評估監測推薦系統內的不同環節,增加敏感性分析等方式,從技術角度對算法糾偏。
應對生成式內容帶來的合規需求,王靜遠提到,現階段重要的議題之一是要發展負責任的人工智能相關研究,其中既包括人工智能可解釋性、公平性、泛化性的研究,也涵蓋了安全可控方面的議題。但目前該領域面臨着社會關注度不高、投入較少的尷尬局面。
“只有把蛋糕做大,纔能有蛋糕可分。”邱澤奇認爲,治理與發展本就是一場拉鋸賽,當前應在促進創新的前提下,通過“問責制”調整利益分配的邏輯和份額,考慮分配的公平性問題,在鼓勵創新與促進平等之間尋求平衡。
“對於新生事物,制度建設不宜超前。”邱澤奇強調,新發展也會帶來新問題,算法治理無法一蹴而就。
“一個簡潔的警惕和預防是明示對傷害的問責。”他強調:隨着人工智能的深入發展,算法自身的邏輯網絡會越來越複雜,試圖就具體問題進行預防是沒有止境的。
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。