中新經(jīng)緯12月22日電 (薛宇飛)近日,清華大學社會科學學院社會學系、中國科學院學部-清華大學科學與社會協(xié)同發(fā)展研究中心主辦了“倫理立場、算法設計與企業(yè)社會責任”研討會,來自清華大學、中國科學院、大連理工大學的十余位專家學者就算法的倫理問題、算法治理以及企業(yè)責任等話題,展開交流探討。會上,清華大學社會科學學院社會學系發(fā)布了《倫理立場、算法設計與企業(yè)社會責任》研究報告(下稱報告)和《企業(yè)算法倫理實踐指南》。
與會學者認為,算法在促進社會進步的同時,算法公平、算法偏見、算法歧視等倫理議題也為社會所關注。同時,算法具有價值可塑性特征,算法設計需要突破傳統(tǒng)思維結構和社會觀念,用向善的價值立場推動社會發(fā)展,促進公序良俗和新社會倫理發(fā)展。對于算法治理,則應建立起一個融合各倫理觀念所長、多元主體參與的“治理網(wǎng)絡”,實現(xiàn)政府、專業(yè)機構、團體、企業(yè)及公眾共同參與的協(xié)同治理。
倫理現(xiàn)象是算法應用價值的伴生
“倫理立場、算法設計與企業(yè)社會責任”研討會。主辦方供圖如今,算法已經(jīng)應用于各行各業(yè),與人們的生產(chǎn)、生活息息相關。報告指出,算法為人們的思維、決策和行動提供了新的技術實現(xiàn)路徑,在一定程度上避免了基于人類情感的主觀抉擇的局限性,也有助于提高生活質(zhì)量、改善社會管理。在研討會上,清華大學新聞與傳播學院常務副院長陳昌鳳指出,算法技術不再是一個簡單的工具,而且影響著人們的交往和信息的傳播,“算法和數(shù)據(jù)技術正在不斷提升人們的認知能力,助益社會生活?!?/p>清華大學新聞與傳播學院常務副院長陳昌鳳。主辦方供圖
報告指出,算法技術的飛速發(fā)展也伴生著倫理議題,主要體現(xiàn)在人類主體權利、社會性倫理、技術性倫理三個層面。人類主體權利涉及公平性和自主性,對公平的定義很大程度上基于情境和主觀,決策權的讓渡也與主體的自主性相關;社會性倫理涉及隱私和信息安全,要防止未經(jīng)審查、不受限制和未經(jīng)許可的算法應用,在數(shù)據(jù)主體不知情的情況下進行自動化的數(shù)據(jù)分析;技術性倫理涉及不透明和偏見、歧視,算法可能含有設計者、使用者和所學習數(shù)據(jù)的偏見。
清華大學社會學系教授李正風。主辦方供圖清華大學社會學系教授李正風在研討會上說:“算法可能再現(xiàn)社會當中已有的倫理問題,尤其是掌握了大量數(shù)據(jù)并且對數(shù)據(jù)進行深度挖掘后,隱含在社會當中的倫理問題會更清晰地展現(xiàn)出來。比如,現(xiàn)在人們討論比較多的公平性問題,還有算法偏見、算法歧視、隱私保護,這些都是社會當中已存在的倫理問題,但通過算法會更為顯性地展現(xiàn)出來?!?/p>清華大學公共管理學院副教授陳玲。主辦方供圖
算法的公平性,一直都是各界對算法在應用過程中最關心的議題之一,但何為公平、怎么實現(xiàn)公平,卻并沒有形成共識。清華大學公共管理學院副教授陳玲指出,各界對算法公平還沒有共同的、可接受的定義。公平可分為起點公平、過程公平、結果公平,應針對不同階段的公平來制定相應的公平準則。其中,結果公平是人們最直觀、最樸素的公平訴求,但它不意味著最終結果的均等,而是指算法推薦結果的可計算、可預期、可解釋。
針對隱私和信息保護,中國科學院自動化研究所研究員曾毅稱,政策和法律規(guī)定用戶有授權撤銷的權利,也就是說,在不使用一款應用軟件后,用戶可以要求企業(yè)刪除數(shù)據(jù),這看似很簡單,但在技術落地上幾乎不具備可行性。這是因為絕大多數(shù)數(shù)據(jù)不是放在數(shù)據(jù)庫里面調(diào)用,而是通過人工智能和機器學習模擬學習用戶特征,以參數(shù)的形式內(nèi)化于人工智能模型當中,如果企業(yè)采用類似于深度學習的神經(jīng)網(wǎng)絡模型,它很難把單個用戶數(shù)據(jù)的影響從模型當中刪除。
清華大學公共管理學院教授、人工智能治理研究中心主任梁正則認為,從技術特性方面看,機器學習目前還處于“黑箱”狀態(tài),在透明性和可解釋性上存在問題。目前,中國已經(jīng)出臺一系列法律法規(guī),包括《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》,建立了基礎機制,一些規(guī)范、指引、準則也在推出,數(shù)據(jù)治理體系正在建設,在基本的制度體系建立后,接下來應該重點研究制定可實施和操作的細則。
報告分析道,算法倫理問題源于技術上的難以解釋性和部分企業(yè)的商業(yè)利益至上,算法技術的復雜性、專業(yè)性和封閉性特點,使得公眾對設計原理及結構、運行參數(shù)、決策依據(jù)、實現(xiàn)機制的認知理解不足,一些企業(yè)從商業(yè)利益出發(fā)違規(guī)搜集數(shù)據(jù)侵犯了用戶隱私和信息安全。
中科院自然科學史研究所副研究員王彥雨。主辦方供圖研討會上,中科院自然科學史研究所副研究員王彥雨回顧了人工智能的發(fā)展歷史,他表示,從哲學角度來講,未來可能會出現(xiàn)人工智能機器自己生產(chǎn)知識的形式,隨著這種知識體量的增大,會對人際關系等帶來新的社會影響。但具有意向性的強人工智能,至少到現(xiàn)在還沒有可行性。
堅持算法向善的價值立場
“倫理立場、算法設計與企業(yè)社會責任”研討會。主辦方供圖報告指出,算法具有價值可塑性特征,可能帶來兩類“道德真空”情境,一是道德無意識,在算法設計中缺失道德或倫理維度考慮;二是道德無規(guī)則,前沿技術發(fā)展涉及的倫理問題超越了傳統(tǒng)道德規(guī)范,新的具體規(guī)范需要重新建立。
同時,算法既受到人類社會價值判斷的影響,也具有價值塑造的作用。由于人的倫理價值立場具有多樣性,包括傷風敗俗、入鄉(xiāng)隨俗、公序良俗、移風易俗四個層次,且在入鄉(xiāng)隨俗層次上的人群分布最多,所以無意識、樸素的價值觀念和倫理立場往往會占據(jù)主導,而算法可能默認其為應當普遍遵守的社會行為準則。
李正風指出,無意識、樸素的價值觀念和倫理立場占據(jù)主導后,會出現(xiàn)倫理責任缺失,反映到技術和社會之間的關系時,會導致技術的“助紂為虐”。因此,不能完全地隨波逐流,好的企業(yè)具有比較值得肯定的價值立場,會成為維護公序良俗的中流砥柱。同時,也希望算法治理能發(fā)揮更重要的作用,源清流凈,開風氣之先。
算法設計的倫理立場則可分為功利論、義務論、契約論、德性論四種。功利主義立場認為,算法設計應以其實際的功效或利益為基本目的,不考慮動機和手段;義務論認為算法設計需要制定某種道德原則或按照某種正當性去行動,強調(diào)算法設計的道德義務和責任以及履行義務和責任的重要性;契約論主張,在企業(yè)和用戶之間建立一種公開透明、平等公正的契約關系;德性論認為,算法設計的倫理水平最終主要由算法設計者和算法企業(yè)的主體德性決定。
李正風稱,從算法治理角度看,新規(guī)則的生成也是某種約束和引導,包括政府部門出臺的規(guī)制手段,更為重要的是要讓相關的行動者能夠具有較高的倫理意識和倫理責任,就是要提高算法設計者、企業(yè)的“德性”,這就上升到德性論的倫理立場。如今,企業(yè)越來越注重社會責任,這是非常值得肯定的。
報告發(fā)現(xiàn),中國企業(yè)在算法倫理“知行合一”方面邁出了步伐,例如,字節(jié)跳動人工智能實驗室已經(jīng)在對機器學習公平性和“負責任的人工智能”的其他方面(包括但不限于可解釋性、可控性、多樣性、真實性、隱私性和魯棒性)進行技術基礎研究,以確保字節(jié)跳動基于機器學習的智能系統(tǒng)惠及所有用戶。
報告提出,算法設計需要突破傳統(tǒng)思維結構和社會觀念,用向善的價值立場推動社會發(fā)展,促進公序良俗和新社會倫理發(fā)展。在國家政策推動和行業(yè)實踐帶動下,“算法向善”在中國已步入實質(zhì)性的倫理規(guī)范階段。算法技術的道德嵌入不能只滿足于既有的倫理框架,還要求迭代、調(diào)整規(guī)范體系來引領社會整體的價值向善。
陳昌鳳認為,新技術確實帶來了各種風險,引發(fā)人們的擔憂,就如同過去所有新技術到來之時一樣,人們都會有疑惑,這是必然的。人們應該學會如何善用新技術,把最核心的有益的部分使用起來,而不是“因噎廢食”。她表示,開發(fā)和使用算法時要有價值觀的指導,從當前看,中國使用算法方面具有優(yōu)勢的企業(yè),都很重視算法善用。
多方協(xié)同治理需秉持“算法友好”
報告稱,任何單一主體的判斷并不具有普遍效力,因而算法治理的邏輯必然是多元化的,包括技治、監(jiān)管和治理網(wǎng)絡三重邏輯。算法技治主義要求尊重和發(fā)揮企業(yè)在算法治理上的主體性,同時要避免單純追求經(jīng)濟效益最大化;監(jiān)管主義要求企業(yè)和政府在發(fā)揮技術監(jiān)管作用的同時注重對數(shù)據(jù)安全和隱私的保護,同時不盲目跟從用戶關于算法問題不當?shù)馁|(zhì)疑和判斷;治理網(wǎng)絡要求政府、企業(yè)、公眾協(xié)同參與治理和對重要問題的商談,既滿足公眾合理價值訴求,也把算法當作各種價值偏見的調(diào)解中介,用算法技術的演變和規(guī)則規(guī)范的更新迭代來解決算法問題。
李正風進一步解釋,“技治主義”強調(diào)的是技術維度重要性,依靠專業(yè)機構、人員在治理中扮演重要角色,強調(diào)自治。但受技術發(fā)展不成熟和利益因素的影響,單純依靠技術維度的治理存在一定困難,所以,后來又發(fā)展到監(jiān)管主義,強調(diào)監(jiān)管機構的作用。慢慢地,人們發(fā)現(xiàn),無論是專業(yè)團體還是政府部門,單獨扮演監(jiān)管角色都非常困難,因此,現(xiàn)在更加強調(diào)“治理網(wǎng)絡”,強調(diào)多元主體參與的治理網(wǎng)絡,政府、專業(yè)機構、團體、企業(yè)及公眾共同參與的協(xié)同治理。
梁正認為,“目前國家出臺的相關法律,把安全、個人權益等敏感問題的紅線都劃出來了,接下來針對各專門應用領域就要提出更具體的要求,算法做到可解釋、可問責,治理中實現(xiàn)分級分類,分場景。同時,過程中有監(jiān)督,事后有補救,以及確定治理的優(yōu)先級,在不同領域應用不同的治理工具,包括對基本底線的把控。”算法治理是一個制度問題,不是技術問題,算法的治理應當重點關注算法使用的過程及其產(chǎn)生的影響。
多位與會專家呼吁,在構建多方參與的算法治理網(wǎng)絡的同時,也要給予企業(yè)一定的發(fā)展空間。陳玲強調(diào),要兼顧創(chuàng)新和數(shù)字經(jīng)濟的發(fā)展,尊重客觀的現(xiàn)實條件,吸引更多的工程師和不同領域的專家參與到規(guī)則制定過程中。
清華大學計算機與科學技術系副教授崔鵬。主辦方供圖清華大學計算機與科學技術系副教授崔鵬也表示,外部對算法的監(jiān)管應秉持對“算法友好”的理念。因為它并不是監(jiān)管某一種客觀事物,而是對未來二三十年經(jīng)濟發(fā)展有重要作用的技術形態(tài)的引導,避免因為一些不恰當?shù)恼{(diào)控而帶來雙輸局面,要給企業(yè)預留足夠的空間,以促進企業(yè)之間的良性競爭,推動算法經(jīng)濟平臺技術的健康發(fā)展。
促進企業(yè)算法倫理實踐和公眾專用智能素養(yǎng)
如何讓算法的應用更契合社會賦予的責任,這就要求企業(yè)采取更加積極的策略響應社會需求,通過多元主體的參與來塑造和提升信任,尊重個體的主動權,加強人機協(xié)同,構建以人為本、感知情境的具有積極促進意義的算法系統(tǒng)。
研討會上發(fā)布的《企業(yè)算法倫理實踐指南》提出,企業(yè)要在構建算法倫理治理體系、加強倫理委員會建設、制定算法倫理治理的基本準則和規(guī)范、加強員工倫理素養(yǎng)培訓四個方面制定具體的工作措施,其中,在企業(yè)算法倫理治理的基本準則規(guī)范方面要重視公平公正、安全透明、平衡與多樣、價值性、可溯源可追責、合規(guī)性。
大連理工大學人文與社會科學學部部長李倫認為,企業(yè)應履行數(shù)字責任,而算法倫理是企業(yè)數(shù)字責任的核心,應將算法倫理嵌入到企業(yè)數(shù)字責任的契約中,使企業(yè)數(shù)字責任從自我約束變成社會約束。
清華大學社會科學學院助理研究員戴思源。主辦方供圖除了企業(yè)責任,個人又應如何更好地參與到算法治理之中呢?清華大學社會科學學院助理研究員戴思源提出了“人工智能素養(yǎng)”概念,它可以拆解為通用智能素養(yǎng)與專用智能素養(yǎng),通用智能素養(yǎng)是人對于產(chǎn)品運用服務消費能力,專用智能素養(yǎng)是人工智能技術研發(fā)與生產(chǎn)能力。在他看來,通用智能素養(yǎng)可能會直接增加信息隱私憂慮,這是因為個人隱私意識的提升,而專用智能素養(yǎng)可能會對信息隱私憂慮有緩解作用,因為它來自于技術信任。
“換句話說,緩解信息隱私憂慮,專用智能素養(yǎng)在全社會的普及勢在必行?!贝魉荚幢硎荆瑢I(yè)技術公司可向公眾進一步打開技術“黑箱”,讓更多人了解到算法等專業(yè)知識?!巴瑫r,我們也應該建立一個人工智能技術治理運用與信息隱私保護的社會共治格局,向公眾科普算法專業(yè)知識,提高他們對于智能產(chǎn)品的技術信任。”(中新經(jīng)緯APP)
中新經(jīng)緯版權所有,未經(jīng)書面授權,任何單位及個人不得轉載、摘編以其它方式使用。