3 月 1 日,中國首個專門針對算法推薦的法規《互聯網信息服務算法推薦管理規定》正式執行。
《規定》要求,算法推薦服務提供者需向用戶提供算法知情權、算法選擇權(便捷的關閉算法推薦服務的選項),以及,針對向未成年人、老年人、勞動者、消費者等主體提供服務的算法推薦服務提供者作出具體規范。
截至目前,微信、抖音、今日頭條、淘寶等App均已進行了初步的改善,上線了算法推薦關閉鍵。
作為 21 世紀數字生活的主要生產力之一,算法憑借數據量的爆炸與算力的提升,漸漸蔓延至社會的各個領域,影響信息分發、商品等社會資源的配置、執行自動化決策,無論在公共領域還是私人生活中,算法都是“強而有力”的存在。
從歡欣接受、感受其便利,到受其困擾、產生隱憂,算法如何“支配”我們的生活?用戶真的能夠放棄算法嗎?新規如何制約“算法”的不當權利?相關法律法規經歷了怎樣的發展?《規定》內容是否會面臨實踐上的難題?
最近,我們分別與數字人文學者、互聯網治理研究員以及大廠的前算法工程師進行了交流。
審視:算法如何
行使“權力”?
李大白:《算法的力量》
譯者,數字人文學者
社會秩序的協調、合作與控制離不開信息交換,而通過對大量數據的處理與應用,算法已然成為了當今社會信息交換的有效載體,因此,說“算法代表著一種權力”并不為過。
《算法的力量》一書的作者,英國學者、大律師杰米·薩斯坎德多年來一直關注數字技術對政治、經濟和社會的影響。在書中,他描繪了數字技術對私人和公共生活的全面“入侵”,其中,“武力”、“審查”與“感知控制”則是算法行使“權力”的三種方式。
《算法的力量》杰米·薩斯坎德著
“武力”是指已經編寫好的程序在執行過程中無法被選擇或中止,人們只能服從于算法自動給定的結果。
2009 年,奧巴馬總統將 25 部美國經典電影當成禮物送給來訪的英國首相戈登·布朗。然而,布朗回到倫敦后,卻發現這些電影無法在他英國的 DVD 機上播放;原因是 DVD 制造商和發行商為了保護商業利益、實施版權法,將禁止播放的命令編成代碼寫到了 DVD 中,即便布朗已經是英國最有權勢的人,面對算法設定的禁止指令也無能為力。
“審查”則主要是通過收集各項數據,對人們的行動進行監控、預測以及規范。
譬如最近網絡爆出若干“算法系統監控員工行為”、“算法預測員工離職幾率”的新聞,雖然相關互聯網公司已出面否認這種說法,但這個事件本身就說明算法已經越來越普遍地用于對人們的工作進行測量與評估,甚至預測員工什么時候可能會離職,其結果是便是再現了福柯筆下“全景監獄”的場景:員工們不得不時刻關注工作時間的上網行為。
關于算法對人們“感知控制”的討論要更多一些,核心概念有這些年常說的“信息繭房”和“過濾泡”,指的是算法能夠過濾信息、改變信息排序,進而影響人們對于外界的感受與認知。
人們接受的信息總是會受到某種“過濾”。在算法時代之前,過濾信息的職責主要由印刷品、廣播、電視等大眾媒體完成,如今,推薦算法在相當程度上承擔了過濾的職責,其代表就是 2012 年 8 月上線,主打個性化內容推薦的今日頭條。一開始大家根本沒意識到它可能帶來的影響,然而基于興趣的算法推薦幾乎從根本上改變了內容生產的邏輯。在其他領域,算法應用的場景也逐漸豐富,電子商務、外賣平臺、打車軟件也紛紛采用更復雜的算法體系、做更多維度的服務匹配,徹底構建起了以算法為主導的平臺社會。
一開始,因為算法能夠更精確、廣泛地控制人們傳遞和接受的信息,在其剛被應用時受到用戶熱情追捧,所向披靡;然而,隨著“大數據殺熟”、“外賣騎手困在系統里”等負面問題的出現,算法能“服務”人,但也能“利用”人的觀念也開始深入大眾。
國外的相關案例也不少。在 2016 年美國大選中,有學者發現,機器人水軍“生產”了約 19% 的相關推文,為競選人拉票;同一年,英國脫歐公投時,Twitter上大約三分之一的流量來自自動程序,它們幾乎都站在脫歐的一方。很難說這些算法編寫而成的信息不會對人們的公共決策造成干擾。
算法越來越多地決定了誰被看到,誰被隱藏;誰入局,誰出局,哪些內容會像病毒一樣傳播開來,哪些內容注定無人問津。
今年 3 月開始實行的《互聯網信息服務算法推薦管理規定》中指出,用戶可以選擇關閉算法推送,這無疑是正當的,因其為用戶在算法使用上提供了必要的“退出機制”,讓用戶有權利選擇是否接受算法對自我感知渠道的形塑。
問題是關閉之后用戶將看到什么內容呢?
我在某內容平臺上嘗試勾選“關閉個性化推薦”按鈕,隨后該平臺上呈現的內容幾乎是無序的,無奈之下,我重新打開了“個性化推薦”。
如果說在算法主導內容之前,我們看到的是編輯精選的優質內容,那么在“算法”把關的情形下,沒有個性化推薦的信息流很可能既沒有營養,也不能滿足用戶的閱讀需求。如果為了實現對算法推薦的自主選擇權,要以損失優質的閱讀或使用體驗為代價,顯然是大多數人不愿意看到的。如果平臺抓住用戶的這一心理,對于關閉推薦算法的用戶“區別對待”,那么用戶也只能無奈放棄手中選擇的權利。
除了上述問題,由于算法在社會場景中越來越廣泛的應用,也引發了人們對于算法是否公平、正義的質疑。
2014 年,亞馬遜開發了一套簡歷篩選系統,對過去 10 年的簡歷進行關鍵詞識別并排序,結果是該系統對于男性應聘者有著明顯的偏好;2015 年,谷歌更新其照片應用的同時加入了一個自動標簽功能,但卻被紐約的一位黑人程序員發現,自己的照片竟然被打上了“大猩猩”的標簽。
算法本身可能是“無罪”的,但是當它抓取、學習的數據不完整、或帶有偏見時,歧視和不公正自然就內嵌到算法之中了。我們很難要求每個算法工程師都是通曉道德哲學、社會政策的“哲人王”,實現相對公正的算法,需要政治、法律、人文、社會學等各個學科的共同參與。
治理:“規范”之網的歷史
方師師:上海社科院新聞研究所
副研究員、互聯網治理中心主任
數字化、數據化和可計算是進入算法社會的門檻。通過各種量化和追蹤技術,我們正在經歷一個“數據盛世”。如何將這些數據有效、合理、創新地使用起來,就不僅僅是一個技術問題,還是一個社會問題。
在這方面,歐盟起步得比較早,他們在 2016 年發布的《通用數據保護條例》(GDPR)被稱為“史上最嚴格的隱私和數據保護法”。
其實早在 1995 年,歐盟就曾發布過數據保護指令,只不過當時使用互聯網的人很少,個人數據的收集及處理僅限定在用戶名、地址及金融信息等方面。隨著移動互聯網的普及,這一指令的內容已經無法幫助歐盟應對不斷出現的安全風險。
于是從 2012 年起,歐盟委員會開始重新審視個人數據保護的法律準則,逐步制定并完善了 GDPR。
同樣是在 2016 年,國內出臺了《網絡安全法》,其中也提到了要加強對個人信息的保護。去年相繼發布的《數據安全法》和《個人信息保護法》也是對網絡數據和個人信息作出了專項規定。
但是在算法入侵的世界中,只對數據進行規范是遠遠不夠的。
今年 3 月國內開始執行的《互聯網信息服務算法推薦管理規定》就針對“大數據殺熟”、“不正當競爭”、“特殊人群保護”等社會關注的熱點問題給予規定明確。這是我國第一個專門針對算法推薦的規章制度,在世界范圍也是一個創舉,一定程度上代表了當前對于算法技術治理的最前沿。
“規定”將堅持正能量、禁止推薦違法信息、落實主體責任等,列為算法推薦服務提供者最重要規范。對科技倫理的審查提上議程。
針對用戶面對算法的無奈地位,規定也要求:要向用戶提供便捷的關閉算法推薦服務選項。我關注到最新的消息是,截止到 3 月 15 日,微信、抖音、今日頭條、淘寶、百度、大眾點評、微博、小紅書等 App 均已上線算法關閉鍵。
微信個性化廣告關閉頁面
開始執行的新規中,算法備案是一個值得關注的點。它要求算法服務提供者從內部打開算法黑箱、增加透明度,通過輸出、建檔、留存的方式,備案系統將成為可溯源存案。
3 月 1 日“互聯網信息服務算法備案系統”已經上線了,現在即便是普通用戶,也可以到算法備案的官網上去查詢一下,這在一定程度上賦予了普通用戶對于算法問題關注、討論、監督的權利。
隨著各項法規的出臺,國內對于算法的“規范之網”正逐漸編織成型。與此同時,治理主體的分層定位也更加明確了。
國家網信部門負責統籌協調治理與監督管理工作,電信、公安和市場監管等聯合成為治理主體,地方與之相對應的部門負責本行政區的相關工作。算法推薦服務的提供者要配合管理部門開展安全評估和監督檢查工作,提供必要的技術、數據等支持和協助。
或者我們更可以把算法看做是網絡社會中那條看不見的『關系線』,在經由算法所構成的治理之網上,不同層次、領域、來源的力量被召喚出來,進入到這張治理之網中,發揮不同的作用。比如平臺和大型科技公司需要落實自身的責任,更多地與相關部門合作;公眾也可以運用當下所擁有的權利,對于科技公司采用的算法進行監督。
對于算法治理的未來,可以將其看作是一個多元行動者的網絡,治理會趨于規范和穩定,但是不會停止。
疑慮:算法黑箱真的
能夠被治理嗎?
劉鵬:《計算廣告》公眾號作者
我不否認近年來出臺的法規政策在一定程度上具有其正面意義,但是對于這類法規能夠具體起到的效果,我是存有疑慮的。
算法,真的不是那么容易就能監管好的。
我在清華畢業以后,先在微軟亞洲研究院工作了一段時間,研究人工智能,之后又去了多家互聯網公司做計算廣告。一個明顯的體會就是,現在大型的互聯網公司應用的算法,它的不可解釋性越來越強。
“機器學習”是目前算法推薦的主流實現形式,其學習的原始素材來自于每個用戶的基礎信息,比如性別、年齡、學歷等等,以及用戶在使用過程中產生的使用數據,比如點贊、收藏、關注等等,用戶的每一類信息被稱為“feature”特征。
最簡單的一類算法是線性回歸算法,在這類算法中,用戶每項特征所占的權重是清晰可見的,因此其具有“可解釋性”,監管難度并不高。
但問題在于,簡單的算法能夠解決的問題十分有限,為了提升效率,越來越多的互聯網公司采用的是更為復雜的深度學習算法網絡。
很多人會用“煉金術”來形容深度學習。
在古代,煉金師們會將收集來的各種材料一股腦地倒進火爐中,一段時間后再看看是否煉制出了黃金,他們并不知道煉制的過程中這些材料發生了怎樣的化學反應,只能通過不斷嘗試材料組合與煉制流程。
與之類似,算法工程師們將各種可用的數據信息,都放到復雜的深度學習模型中進行訓練,即便他們找到了更高效的算法模型,也并不能解釋清楚這些數據之間經過了怎樣的運算與處理。
在這種情況下,很難說清究竟是哪個特征對于算法輸出的結果具有關鍵性的影響,算法的運作過程成為了難以解釋的“黑箱”,其中隱含的問題也就難以修正。
去年 8 月《推薦算法規定》征求意見稿剛發布時,我就曾在自己的視頻號上從技術角度進行了解讀。
我覺得大家首先要理解的一個點是,算法的世界與人類世界在組織方式上有很大的不同。
比如我們人類在學習圍棋的時候,是先學習定式、棋理,融匯貫通之后棋力提升了自然就會贏棋。但是算法學習的過程是相反的,它會先立下一個目標——“我要贏棋”,在算法中我們稱這個目標為“目標函數”,然后再調用一切可以運用的數據去實現這個目標。
在通向這個目標的過程中,即使你設置了諸多障礙,復雜的算法網絡也會繞過這些限制,通過其他的方式達成目標。
因此,在算法的世界中最重要的其實是那個“目標函數”。
假設一家公司的“目標函數”是要優化用戶的留存時間,那么即使進行了限制時間等防沉迷設置,算法模型還是會采取別的途徑來提升用戶在平臺上的使用時長。
“目標函數”才是算法治理的“命門”所在,但這一點經常會被各國的立法者所忽視。
現在的規定只是要求公司以“適當的方式公布算法推薦服務”,但并未對什么是“適當的”作出限制。
如果有些公司在公布算法時,只選擇性地公布算法在關鍵環節上的特征,看起來是做到了公平、透明,但由于你不知道它真實制定的目標函數是什么,這種公開的作用就十分有限了,甚至可能根本就沒用。
與此同時,公開算法的背后還涉及到另一個問題:一些算法對于公司或者商業機構而言,與其商業機密有關。
商業機密是受到法律保護的,那么我們如何去界定哪些算法應當被公布、哪些算法應當被保護呢?如何在不使企業的商業機密受損的前提下,最大可能實現有意義的算法透明,還有很多問題仍需進一步的思考。【責任編輯/林羽】
來源:極客公園
IT時代網(關注微信公眾號ITtime2000,定時推送,互動有福利驚喜)所有原創文章版權所有,未經授權,轉載必究。
創客100創投基金成立于2015年,直通硅谷,專注于TMT領域早期項目投資。LP均來自政府、互聯網IT、傳媒知名企業和個人。創客100創投基金對IT、通信、互聯網、IP等有著自己獨特眼光和豐富的資源。決策快、投資快是創客100基金最顯著的特點。
小何
小何
小何
小何