近日,“外賣騎士困在系統里”的文章引爆朋友圈,“算法壓迫勞動力”的觀點引發了網友的高度關注,也引發了平臺系統、外賣員、消費者等不同主體的反思與改進。如何認識算法系統的“效率至上”?如何通過治理現代化彌補算法缺陷?清華大學人工智能國際治理研究院副院長梁正教授撰文對此進行了深入解讀,全文將于近期《國家治理》周刊刊發。
算法缺陷及其產生的問題
以外賣配送系統為例,外賣平臺利用大數據分析計算最優配送路徑,極大縮短了騎手的配送時間,提高了配送效率。但也存在諸多問題,有些問題是算法本身缺陷所導致的,有些則是因其他社會問題與算法相伴而產生。
算法容易使個體失去自主性。自泰勒提出標準化管理模式之后,工作逐漸被標準化和簡單化,工人操作的自由度降低了,簡單重復的動作讓人越來越像機器。正如媒體曾經報道的富士康工廠的情況一樣,在高度標準化的生產中,工人的工作效率以秒來計算,工人往往處于高度疲態和枯燥之中。算法的運行與此相似,算法具有隱蔽性和高度專業性的特征,每個參與算法的個體就是一個數據節點,在算法高速運轉中,個體只能被動接受信息并執行算法命令。騎手屬于勞動密集型的職業,需要耗費大量精力,若只受算法支配而喪失自主性,他們作為勞動者的休息權則無法得到保障。同時,騎手與社會其他群體具有緊密聯系,一旦發生事故不僅會傷害自己,還會傷及他人。從這一點來看,保障騎手休息的權利也在一定程度上意味著保護社會公共利益。如英國對長途汽車司機有嚴格規定,一天只能工作12小時,否則會受到嚴厲懲罰;網約車平臺Uber將英國司機的工作時長限制為每天10小時,為了強制執行,Uber會阻止司機在應當休息的時間登陸應用;國內網約車平臺滴滴也有類似舉措。
僅靠算法的自我迭代難以有效解決問題。算法的設計或許可以在數學邏輯上做到完美,但缺乏對人性和社會環境的綜合考慮,從“真空”環境中誕生的算法本身帶有機械性。在外賣配送算法中,為了追求效率,可以對所有阻礙因素進行優化,把配送時間不斷壓縮。但如果因為計算最優路徑而忽視了實際道路狀況、實時天氣狀況和小區管理情況等影響因素,計算結果往往就會不準確,算法不斷迭代的過程也就可能演變成了加大騎手困難的過程。實際上,其他社會因素會深刻影響算法的運轉情況。現實中經常可以看到,由于城市交通違章查處、電動車限速標準執行不夠嚴格,大量違章、超速電動車上路等現象。如果這些公共安全規則可以得到嚴格執行外賣配送系統,導致騎手在客觀條件下無法在30分鐘內送達,就會促使平臺更改時間預期,給騎手更寬松的配送時間,而且也會調整消費者的預期,讓整個配送體系處于合理的時間預期之內。除了交通規則外,一些小區的管理也需要調整,如一些商務樓、醫院、小區等不允許騎手進入,騎手只能在外等待或者步行送餐,最后導致送餐延遲。如果忽視這些問題,單靠算法本身的迭代是無法有效解決問題的,并且算法的治理也不是單純治理算法本身。
算法治理的路徑
為應對上述算法的缺陷,可以從內部的算法自我優化與外部的監督規范中找到解決路徑。
設計算法應該走出“真空”接受社會實驗。算法背后是代碼,代碼是“冰冷”的,沒有人文溫度,忽視人性的算法無法為人類帶來福祉。在現行外賣配送算法中,如果騎手因偶然因素實現了快速送餐,算法就會提供獎勵,讓騎手接到更多訂單。這樣一來,騎手出于利益最大化的動機,肯定會追求速度越快越好,訂單越多越好,由此陷入惡性循環。為了避免速度成為唯一的考量因素,算法評價機制中也應該引入其他考量因素,比如為從來沒有發生交通事故的騎手提供獎勵,引導騎手更加注意安全。
制定算法規則需要多方參與盡量避免不合理之處。基于機器學習的算法具有“黑箱”特征,算法相對方無法就算法規則提出建議或意見,只能被迫“追趕”算法設定的目標。多方參與規則制定是正當程序的必然要求,比如一些電商平臺推出“規則眾議院”,平臺上的買賣雙方都可以通過眾議院機制就規則制定發表意見。也有學者提出算法解釋權,即賦予主體知曉及理解算法運行邏輯的權利。該觀點認為,受到自動化決策不利影響的人應有權知曉決定的內容與理由,并擁有申訴和申辯的機會。算法解釋權是賦予個體對抗“算法權力”的重要武器,因為個體知悉算法規則后才能就其不合理之處提出建議,并參與到規則的制定之中。
應對算法的負外部性需要多種公共政策相互補充。算法實際是嵌入在社會的多樣應用場景中的,需要找準算法的角色,研判其在社會決策中的效果與地位。對算法的治理應該尊重語境與場景,因為各個場景所牽涉的主體、外部因素和行為規范都不相同。因此,不能將算法視為單純的技術問題進行治理,而要匹配不同政策工具進行綜合治理。對于“困在系統”中的騎手,國家應該重視對這部分人群勞動權益的保障,特別是休息、薪酬、安全等合法權益。2020年我國將“網約配送員”正式納入國家職業分類目錄,對該類新職業人群的勞動權益保障措施也應該跟上。外賣平臺應該參照其他平臺的舉措,設置強制騎手休息的規則,保障騎手安全,進而維護社會安全。為了應對騎手闖紅燈、超速等問題,交通管理部門也應該嚴格制定和執行交管規則外賣配送系統,對騎手進行外部約束。社區管理部門也應參與其中,對外賣、快遞進社區等管理規范進行完善細化,如允許騎手安全送餐,或者配置取餐柜等,緩解騎手“最后一公里”送餐難的問題。
為算法建立法律監管與道德約束機制。2017年1月,美國計算機協會專門發布了算法治理倫理原則,涵蓋利益相關者責任、救濟機制、算法使用機構責任、鼓勵可解釋算法研發、數據治理、算法審查要求、實時檢查責任等七個方面的內容。2019年4月,美國參議員提出《2019年算法問責法案》,要求美國聯邦貿易委員會對企業進行算法審查。歐盟也在《人工智能時代:確立以人為本的歐盟人工智能戰略》《通用數據保護條例》和《人工智能道德準則》等多個文件中,重視人工智能的倫理問題,強調以價值觀引導人工智能技術的發展。因此,需要從外部規范的角度為算法制定倫理標準,并建立相應的倫理審查制度。特別是在算法設計和研發的標準、規則和透明度等方面出臺法律規范,并建立算法問責機制,保障個體權利,包括算法解釋的權利、更正或修改數據的權利、退出算法決策的選擇權等。
算法治理的理念
治理算法需要以基本原則和理念為指導,并根據情況的變化適時調整算法治理的具體方法。
算法治理應堅持利益平衡原則。利益平衡既包括算法內部所涉主體之間的利益平衡也包括算法使用者與社會公眾之間的利益平衡。外賣平臺連接了商家、消費者及騎手,通常外賣平臺將消費者置于首位,而商家次之。在這種機制下,平臺為了消費者的滿意只能“壓迫”騎手。實際上,有時消費者提出的配送要求客觀上無法實現,或者商家出餐慢導致騎手配送延遲,這些因素都會導致算法的失效。算法使用者應該平衡好這三方的利益,對算法的治理也應該平衡好企業與社會公眾之間的利益,在尊重企業逐利天性的基礎上為算法立規矩,保證算法在正確的軌道上運行,只有這樣才不會因噎廢食。
算法治理應堅持人本主義。在算法時代,尊重個體主體性、自治性和人格尊嚴始終是發展底線,算法治理也應該注重保護人類尊嚴、公民權利以及社會公平。特別是要加大對弱勢群體的關注,避免“數字鴻溝”,實現實質公平。可以通過強化企業社會責任的方式在算法治理中體現人文主義,比如從社會福利的角度評估企業在關懷弱勢群體、保護用戶隱私、尊重個體人格以及勞動者休息權利等方面作出的努力。
總之,算法治理是一項長期工程,算法在不斷演進,對算法的治理也應該不斷迭代,其中算法問責機制、算法評估機制、算法監督機制都是需要繼續討論的重要話題。對算法的治理不應局限于算法本身,而是需要將算法嵌入到整個社會體系中評估,分析算法運行所牽涉的各個環節,以體系化的思維為算法向善提供解決方案。
因為微信更改了推送規則,推文不再按時間線顯示,如果不點『在看』或者沒有『星標』,就可能看不到我們的新鮮推送了!
請將我們設為星標,點亮在看、點贊,歡迎大家留言、評論!
原文標題 | 如何通過治理現代化破解算法缺陷
作者 | 清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長 梁正
新媒體編輯 | 羅婷
免責聲明:部分文章信息來源于網絡以及網友投稿,本站只負責對文章進行整理、排版、編輯,出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其內容的真實性,如本站文章和轉稿涉及版權等問題,請作者在及時聯系本站,我們會盡快為您處理。