1000部做爰免费视频,婷婷蜜桃国产精品一区小说,家庭乱欲免费阅读全文,2020亚洲熟女在线观看,樱井莉亚全集bt种子,男男体育生乱yin高h肉汁,高辣文h书包网,17岁中国高清免费观看完整版,免费观看已满十八岁的电视剧动漫

中國人權(quán)領(lǐng)域唯一專業(yè)網(wǎng)站
首頁>出版物>《人權(quán)》雜志

人權(quán)保障視野下的算法規(guī)制

——從《多倫多宣言》切入

來源:《人權(quán)》2019年第4期作者:徐斌
字號:默認超大| 打印|

  內(nèi)容提要:人工智能算法在公共服務(wù)中的運用帶來算法歧視與不平等等問題。有關(guān)算法的倫理與規(guī)制的討論反映到法律層面上,其實是智能算法的研發(fā)、使用與人權(quán)保障之間的關(guān)系。針對侵害人權(quán)的算法歧視與偏見,歐美國家陸續(xù)發(fā)布了算法的倫理規(guī)制原則和規(guī)則。2018年《多倫多宣言》將算法理解為規(guī)則,以“正當程序”原則來規(guī)制算法的研發(fā)與使用。2019年歐盟發(fā)布的算法倫理準則側(cè)重算法研發(fā)的參與者因素。美國法院在判例中發(fā)布的算法規(guī)制原則強調(diào)算法的客觀屬性,認為算法是受美國憲法保護的“言論自由”,將算法規(guī)制納入人權(quán)的系列權(quán)利束中進行法律平衡。中國應(yīng)當借鑒國外的算法規(guī)制經(jīng)驗,建立政府監(jiān)管的整體框架,平衡技術(shù)創(chuàng)新、人權(quán)保障與商業(yè)競爭等多元需求。

  關(guān)鍵詞:多倫多宣言 算法 人權(quán) 法律規(guī)制 實用主義

  新技術(shù)的普及將改變原有的社會結(jié)構(gòu),進而改變?nèi)伺c人之間的法律關(guān)系。人工智能在改變?nèi)藱C關(guān)系的同時,已經(jīng)對現(xiàn)有的法律體系產(chǎn)生了一定沖擊。從全球視野來看,一些國家采取保守主義路徑,試圖通過解釋新的人機現(xiàn)象,將人工智能納入傳統(tǒng)法律框架內(nèi)處理。另一些國家則采取積極立法路徑,通過新的立法與行業(yè)標準來規(guī)制算法與倫理。2018年多個國際組織在加拿大發(fā)表的《多倫多宣言》是歐洲國家立法傳統(tǒng)的表現(xiàn),與歐洲國家的大陸法系傳統(tǒng)密切相關(guān)。與此相關(guān)的,麻省理工學(xué)院與其他研究機構(gòu)共同推出的AI倫理研究①,谷歌公司設(shè)立的AI倫理委員會以及2019年發(fā)布的人機倫理原則,為私有機構(gòu)領(lǐng)域的探索奠定了先期標準。美國法院在一系列案件中涉及到言論自由與算法規(guī)制之間的關(guān)系,是普通法體系下保守主義路徑的典型表現(xiàn)。

  當前人工智能的討論對技術(shù)發(fā)展可能引發(fā)的倫理危機予以高度關(guān)注,即人工智能會否導(dǎo)致人類社會的階層分化,沖擊原有的社會關(guān)系,甚至,人工智能成為與原子彈類似的技術(shù)武器而對人類的生命形成巨大威脅。這些倫理討論涉及法律上的生存權(quán)與生命權(quán),屬于人權(quán)的范疇。由此,人工智能的技術(shù)與倫理反映在法律層面,就是人工智能算法與人權(quán)的法律關(guān)系。實踐中,智能算法已經(jīng)出現(xiàn)直接侵犯人權(quán)的事例。人工智能時代的關(guān)鍵是算法,算法規(guī)制成為法律層面界定人機關(guān)系的重要載體與切入點。2017年,中國國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。人工智能等新技術(shù)發(fā)展亟待人機之間的新法律關(guān)系的挑戰(zhàn),即算法與人權(quán)的法律關(guān)系調(diào)整。在算法規(guī)制與人權(quán)保障凸顯出來的緊張關(guān)系上,全球各國采用了何種規(guī)制路徑與法律思考模式?中國在處理算法與人權(quán)關(guān)系方面已經(jīng)或者可能形成怎樣的中國方案?這就是本文關(guān)注的問題。

  一、人工智能發(fā)展中的算法歧視

  算法實際上不斷地與我們的生活融合。公共機構(gòu)與私人機構(gòu)兩種不同的算法使用主體,在其活動中產(chǎn)生了侵害人權(quán)的算法歧視。這些歧視又以直接或間接的形式表現(xiàn)出不同的類型。在公共機構(gòu)領(lǐng)域,智能算法與司法結(jié)合在美國就引起了侵犯人權(quán)的質(zhì)疑。自2014年開始不斷使用的嫌疑人未來犯罪風(fēng)險評估算法(defendant's risk of future crime)被第三方機構(gòu)批評為侵犯了黑人的權(quán)利,有種族方面的算法歧視。這套系統(tǒng)類似科幻電影《少數(shù)派報告》中的設(shè)計,根據(jù)犯罪嫌疑人的年齡、教育經(jīng)歷、祖輩犯罪經(jīng)歷、種族、性別等因素經(jīng)過一整套復(fù)雜的公式計算而得出未來犯罪可能性系數(shù)。這一系數(shù)得分成為法官判處刑罰的依據(jù)之一。美國的亞利桑那州、科羅拉多州、特拉華州、肯塔基州、路易斯安那州、俄克拉荷馬州、弗吉尼亞州、華盛頓州和威斯康星州等都采用了這套犯罪風(fēng)險評估系統(tǒng)。犯罪風(fēng)險與罪犯未來的矯正可能性密切相關(guān)。由此,美國司法部的全國矯正機構(gòu)已經(jīng)建議將犯罪風(fēng)險評估體系用于司法程序的每個環(huán)節(jié)。這套系統(tǒng)也在不斷擴大適用范圍,試圖用于聯(lián)邦犯罪評估,相關(guān)的法案已經(jīng)提交給國會裁決。犯罪風(fēng)險評估系統(tǒng)使用以來,第三方評估機構(gòu)以及一些保守勢力已經(jīng)做出了該系統(tǒng)可能侵犯人權(quán)的警示批評。美國聯(lián)邦司法部總檢察長在2014年就批評犯罪風(fēng)險評估將把歧視注入法庭之中,“盡管這些技術(shù)的研發(fā)初衷是美好的,但是它們不可避免地損害我們所珍視的司法公平”②。諾森特(Northpointe)公司負責該項評估系統(tǒng)的算法研發(fā)。2016年以來,非營利組織ProPublica新媒體就對該公司的算法結(jié)果進行實證分析,顯示算法適用的案件在黑白種族方面確實存在歧視,黑人明顯比白人的評估結(jié)果更差。③

  人工智能的發(fā)展凸現(xiàn)出來的倫理問題已經(jīng)被一些私人機構(gòu)所察覺。谷歌公司與五角大樓合作的軍事項目“Project Maven”旨在通過人工智能來分析無人機拍攝的圖像。④該項目的計算機視覺算法增進了武器的打擊對象精確度。項目啟動后,超過3,000 名谷歌員工簽署公開信反對人工智能及其算法參與戰(zhàn)爭。⑤這一事件也導(dǎo)致了谷歌的人工智能與倫理委員會的成立。成立該倫理委員會的本意在于處理智能算法產(chǎn)生的不同結(jié)果可能導(dǎo)致的歧視及其軍事化用途,但在委員會成員的選擇程序中,數(shù)千名谷歌員工呼吁罷免委員會成員詹姆斯,因為她對變性人的歧視言論以及她所在機構(gòu)對世界氣候變化的懷疑。⑥算法歧視問題導(dǎo)致算法的倫理監(jiān)督機構(gòu)也難以符合人權(quán)保障的需求。

  智能算法的困境不僅來自“獨角獸”企業(yè)的威脅,政府常常通過公私合作或者服務(wù)購買的形式采用大量的算法。在福利國家的背景下,公民生活的方方面面與算法緊密連接。英國近年來應(yīng)用數(shù)字技術(shù)和數(shù)據(jù)工具以大規(guī)模地重新研發(fā)公共服務(wù)。聯(lián)合國赤貧和人權(quán)問題特別報告員認為,英國公共服務(wù)自動化的問題在于不能對公民透明,數(shù)字福利國家正在影響人權(quán),“通用信貸已經(jīng)建立了數(shù)字壁壘,有效地阻礙了許多個人獲得其應(yīng)享權(quán)利”⑦。低收入人群在數(shù)字技能和識字能力方面存在巨大差距。自動化系統(tǒng)一旦上線,英國公共服務(wù)的算法將在階層方面產(chǎn)生歧視。算法不透明成為當前人工智能技術(shù)運用于政府服務(wù)的重要疑慮。在政治與行政領(lǐng)域,政府甚至可以通過技術(shù)操作他們的政治偏好,從而造成不民主的結(jié)果。替代人工判斷是人工智能的目標,算法接管了政府的諸多行政決策。

  人工智能在提升效率的同時,也逐步替代了人類在復(fù)雜事務(wù)中的判斷職能。在行政法治國的背景下,智能算法實質(zhì)上成為法律體系的一部分。算法的治理化意味著人權(quán)、民主、民生等法律價值同樣成為算法規(guī)制的重要原則。由此,近年來,多個國家、機構(gòu)與區(qū)域組織開展了人權(quán)規(guī)制與算法規(guī)制的課題。其中,2018年5月,人權(quán)組織和技術(shù)團體聯(lián)盟在加拿大發(fā)布新的智能算法規(guī)制的新標準。該聯(lián)盟發(fā)表的《多倫多宣言》(全稱是《關(guān)于保護機器學(xué)習(xí)系統(tǒng)中的平等和不歧視權(quán)利的多倫多宣言》)代表了人權(quán)與算法規(guī)制的主流路徑。⑧

  二、《多倫多宣言》的法律邏輯

  早在《多倫多宣言》之前,互聯(lián)網(wǎng)巨頭公司就已經(jīng)開始關(guān)注算法與人權(quán)的關(guān)系。特別是隨著人工智能技術(shù)的飛速發(fā)展,諸多算法與歧視、隱私權(quán)與大數(shù)據(jù)等人權(quán)困境凸顯出來。2018年6月,谷歌公司曾提出七條人工智能應(yīng)用的“道德原則”,確保技術(shù)在正確的軌道上進步。這些原則包括:對社會有益、避免制造或強加不公平的偏見、發(fā)展和利用 AI 技術(shù)時注重隱私等。⑨針對人工智能技術(shù)擴大貧富差距、武器化、技術(shù)濫用等問題,微軟公司也出臺了相應(yīng)的倫理原則。⑩《多倫多宣言》強調(diào)了防止人工智能算法與機器學(xué)習(xí)中出現(xiàn)的歧視,強調(diào)算法可能違反現(xiàn)行人權(quán)法。“我們必須把重點放在這些技術(shù)如何影響個人和人權(quán)上。在機器學(xué)習(xí)系統(tǒng)的世界里,誰會承擔損害人權(quán)的責任?” ?該宣言雖然不具有法律約束力,但卻為處理這些問題的政府和科技公司提供了一個新的指導(dǎo)。

  (一)算法研發(fā)的正當程序

  《多倫多宣言》的主旨在于將國際人權(quán)理念及規(guī)范沿用至人工智能與機器算法領(lǐng)域。在人工智能的實踐過程中,智能算法可能會“犯錯誤”。比如,谷歌照片的圖像識別功能曾將黑人錯誤識別。從結(jié)果上看,這些算法所呈現(xiàn)的效果確實對人權(quán)產(chǎn)生了影響,甚至構(gòu)成法律意義上的客觀行為。但是,在主觀要件上,政府和普通消費者很難察覺機器算法的主觀故意。這也正是算法與人權(quán)之間最為復(fù)雜的關(guān)系。許多算法以技術(shù)中立的表現(xiàn)形式進行特殊形式與隱藏歧視,規(guī)避人權(quán)的審查。

  通常,人權(quán)的法律審查主要集中在法律行為的主觀要件。隱藏或間接的算法以技術(shù)化的特征表現(xiàn)為“技術(shù)中立性”,難以在當前人權(quán)法律框架內(nèi)得以審查。該宣言認為,算法結(jié)果上呈現(xiàn)的偏見其實是由算法的研發(fā)與使用過程中的人為因素導(dǎo)致的。由此,該宣言的主要規(guī)制思路就在于將算法視為一種特殊形式的“立法”,算法規(guī)制的重點在于以“正當程序”來審查研發(fā)與使用。一旦規(guī)制的視角聚焦在算法的程序控制,人權(quán)標準的審查就可以通過追溯延伸至算法形成過程的各個環(huán)節(jié)。機器算法的形成過程包括了架構(gòu)研發(fā)、工程代碼、機器學(xué)習(xí)與算法使用等關(guān)鍵步驟。算法研發(fā)的正當程序原則即是國際人權(quán)理念中的多樣性原則。在多樣性原則的指引下,首先,架構(gòu)研發(fā)與測試環(huán)節(jié)應(yīng)當保障受到影響的群體和專家納入研發(fā)、測試與評估階段。其次,工程代碼常常以技術(shù)中立的形式表現(xiàn)出來,但是在代碼測試環(huán)節(jié),不同人員的測試常常導(dǎo)致算法的隱蔽歧視得以呈現(xiàn)。由此,測試人員的多樣性也是算法偏見得以形成的主因。最后,人工智能的發(fā)展使得算法擁有了機器學(xué)習(xí)的能力,“喂給”數(shù)據(jù)是關(guān)鍵。機器學(xué)習(xí)本身是技術(shù)進步與工作效率提升的表現(xiàn),但是機器學(xué)習(xí)需要人們給予大量標識好的數(shù)據(jù)與材料。這些被“喂給”人工智能學(xué)習(xí)的數(shù)據(jù)如何標識以及由誰來標識也常常成為算法偏見的主要來源之一。由此,多樣性原則也要求“喂給”數(shù)據(jù)的多樣性。?

  (二)算法使用的政府監(jiān)管

  算法偏見起源于算法的“立法過程”。這一視角成為《多倫多宣言》對算法歧視進行事前監(jiān)管與事后救濟的主要理論基礎(chǔ)。如果以過程作為控制的主要方式,那么,過程監(jiān)管最為合適的機構(gòu)就是政府。根據(jù)算法使用主體的不同,該宣言區(qū)了分政府機構(gòu)的機器算法使用與私人機構(gòu)的機器算法使用兩種不同的監(jiān)管責任強度。

  對于使用算法的政府而言,《多倫多宣言》要求政府承擔起強制監(jiān)管的職能,即一種最高強度的責任。具體而言,包括:第一,政府應(yīng)當積極采取多樣化的雇用行為,參與協(xié)商以確保多樣化的觀點能夠進入研發(fā)、執(zhí)行和評估階段,以表達廣泛的個體意見。算法偏見的事前監(jiān)管在于保障整個算法形成過程的多樣化。這并非指的是算法技術(shù)的多樣化,而是參與算法研發(fā)與使用的人的多樣化。但該宣言并沒有詳細表述多樣化體現(xiàn)在膚色、種族還是語言、性別等要素上。第二,確保公共機構(gòu)在人權(quán)方面得以訓(xùn)練,監(jiān)督采購、發(fā)展和使用評估機器學(xué)習(xí)工具的官員。政府機構(gòu)人員代表了國家,在使用智能機器時應(yīng)當保持主觀中立。第三,為政府的一系列機器學(xué)習(xí)相關(guān)的行政行為建立相應(yīng)的評估機制,接受公眾的監(jiān)督。監(jiān)督方式可以是獨立評估、公眾監(jiān)督或司法監(jiān)督。第四,確保機器算法支持的決定符合國際人權(quán)規(guī)范認可的正當程序。機器算法參與的政府決策也應(yīng)當符合當前法律體系下的正當程序標準,如調(diào)研、聽證與民主決策等政府規(guī)章,從而保障算法決策的合法性。

  此外,政府常常依賴私人供應(yīng)商來研發(fā)和使用智能算法技術(shù)。例如,當前許多隨著物聯(lián)網(wǎng)、5G、AI技術(shù)的發(fā)展,人、物、信息等資源逐步轉(zhuǎn)變?yōu)榭晒﹨R集與分發(fā)的數(shù)據(jù)。由此,未來城市注定是一座提供超級算法的“數(shù)字之城”,一座可以精細化運營的數(shù)字城市。“城市大腦”構(gòu)建的一系列數(shù)字城市基礎(chǔ)設(shè)施,可以在網(wǎng)絡(luò)上構(gòu)建一座與現(xiàn)實相映射的“孿生城市”。交通數(shù)據(jù)、食品供應(yīng)鏈管理、醫(yī)療藥品追蹤體系都成為物聯(lián)數(shù)字。如IBM公司在智慧城市戰(zhàn)略初期通過智能井蓋來獲取城市下水道的水位情況,實時監(jiān)控地下城市管網(wǎng)。在地面上,龐雜的交通系統(tǒng)是城市居民每日必然產(chǎn)生的行為數(shù)據(jù),也是眾多智能城市建設(shè)的切入口。最終,智慧城市系統(tǒng)包括水、交通、河流等12個系統(tǒng)。?對此,政府應(yīng)當承擔中等強度的監(jiān)管責任,即要求第三方研發(fā)機構(gòu)能夠執(zhí)行人權(quán)規(guī)范的正當責任以識別、阻止和減少算法歧視?!抖鄠惗嘈浴吩O(shè)置了政府監(jiān)管私人機構(gòu)以減少算法歧視的四個步驟:第一,識別風(fēng)險。政府采購的智能機器應(yīng)當特別注意其中的算法模型研發(fā)、監(jiān)管機制、數(shù)據(jù)處理。第二,使用評估。政府在使用這些算法系統(tǒng)時應(yīng)當通過影響評估采取一些措施來減少人權(quán)損害,如在數(shù)據(jù)和系統(tǒng)中減少被忽視的歧視,運行動態(tài)的測試模型,保障可能受到影響的群體和專家納入研發(fā)、測試與評估階段。政府還應(yīng)當委托第三方獨立機構(gòu)進行人權(quán)標準測評。第三,測試審計。與其他政府項目一樣,政府應(yīng)當使系統(tǒng)處于常規(guī)和動態(tài)的測試與審計中,形成一個偏見發(fā)現(xiàn)與自我修復(fù)的反饋循環(huán)。第四,公開透明。根據(jù)政府信息公開原則,政府應(yīng)當主動公開智能機器的相關(guān)歧視風(fēng)險。

  對于私人機構(gòu)的算法歧視行為,政府應(yīng)當通過立法建立民事領(lǐng)域的基本框架,確保算法研發(fā)前期的盡職調(diào)查的弱監(jiān)管責任,即私人機構(gòu)應(yīng)當主動或委托第三方對公共服務(wù)外包的智能機器進行算法的人權(quán)評估,以確保在公共領(lǐng)域?qū)嵤r不會出現(xiàn)算法偏見。私人領(lǐng)域有責任開展人權(quán)的盡職調(diào)查(due diligence)。盡職調(diào)查的目的包括三個方面。首先,識別潛在的歧視結(jié)果。政府在對私人部門進行算法調(diào)查時不僅要識別直接的歧視,還要對一些間接歧視予以警惕,如在表面上技術(shù)中立,但結(jié)果導(dǎo)致歧視的情況。一些隱形歧視風(fēng)險通常與機器學(xué)習(xí)的數(shù)據(jù)庫有關(guān),如非典型的、不完善的數(shù)據(jù)基礎(chǔ)上的訓(xùn)練系統(tǒng),或者代表歷史性的或系統(tǒng)性偏見的數(shù)據(jù)集庫。私人機構(gòu)應(yīng)當就合適的數(shù)據(jù)庫咨詢相關(guān)人權(quán)專家。其次,政府應(yīng)當采取有效的方式阻止和減少歧視,并追蹤私人機構(gòu)的責任。由于《多倫多宣言》采用了過程控制理論,算法偏見具有了可追溯性。其中最關(guān)鍵的是迅速有效地對出現(xiàn)的歧視現(xiàn)象進行反饋應(yīng)對,使得危險不至于惡化。最后,上述行為應(yīng)當開放透明。算法歧視頗為隱蔽,普通公民的認知成本極高,這就需要政府建立起主動公開的機制。政府應(yīng)當公開風(fēng)險信息和公示已經(jīng)辨識到的具體歧視案例。在有歧視風(fēng)險的地方,公布技術(shù)細節(jié),包括算法的功能,訓(xùn)練數(shù)據(jù)以及數(shù)據(jù)來源等細節(jié)。這一原則與商業(yè)秘密之間需要進行價值權(quán)衡,公開的程度的保密的尺度需要政府根據(jù)不同的算法歧視情況與人權(quán)救濟緊迫度進行區(qū)別。?

  (三)事后的救濟體系

  除了事前的政府監(jiān)管,在算法侵害人權(quán)的結(jié)果發(fā)生時,政府也應(yīng)當提供完整的救濟途徑。個人救濟主要著重三類法律指標:透明度、問責性及有效性。

  透明度既是事前監(jiān)管算法偏見的重要方式,也是為降低普通公民事后救濟的成本、減少訴訟過程中的舉證責任的有效方式。此外,透明度原則還要求機器的使用具有可解釋性與易懂性,由此,受到影響的個體和群體能夠有效地察覺或追溯。對此,政府應(yīng)當公開在哪些公共服務(wù)領(lǐng)域使用了智能算法,清楚地告知算法決策的過程是如何完成的,記錄相關(guān)的識別行為以及相關(guān)的歧視或人權(quán)影響。同時,政府應(yīng)當避免使用“黑箱”數(shù)據(jù),以符合透明度與問責性要求。問責性指的是算法偏見能夠具有追溯性,向算法研發(fā)與使用過程中的各類參與人員進行追責,如模型設(shè)計人員、機器學(xué)習(xí)數(shù)據(jù)樣本的選擇等等。

  救濟的有效性要求較高,一些模糊和隱蔽的算法偏見常常無法引起普通公民的注意。受害人不曉得相關(guān)決策或者程序是否有侵害其人權(quán)。有時,復(fù)雜的算法使得公共機構(gòu)或私人機構(gòu)自身都難以解釋其決策制定過程。司法領(lǐng)域的智能算法容易導(dǎo)致不公平的審判和訴訟權(quán)利。例如,上文提及的美國采用犯罪風(fēng)險評估系統(tǒng)的算法歧視,就隱含著種族與階層歧視。這就要求政府應(yīng)當首先明確在使用機器算法做出決策時,哪些主體具有法律上的責任,并對算法可能造成的歧視負責。在救濟方式上,政府應(yīng)當給予受害者以高效的救濟,包括修復(fù)、道歉、賠償、處罰、保障不再重復(fù)。?

  《多倫多宣言》將算法理解為治理規(guī)則,從“立法過程”的角度進行“正當程序”規(guī)范。例如,對第三方私權(quán)利規(guī)范以“盡職調(diào)查”的法律責任,對“立法主體”以及“委托立法”的算法研發(fā)部門施加以強弱不同的法律職責,要求在算法的研發(fā)過程中充分體現(xiàn)國際人權(quán)法的“多樣性”價值。這些人權(quán)視野的算法規(guī)制具有鮮明的歐洲大陸法系的成文法特點。

  三、歐美國家對算法的人權(quán)規(guī)制路徑

  歐盟在近年來日益介入到新興網(wǎng)絡(luò)市場與人工智能的法律規(guī)制中。如針對谷歌公司的反壟斷展開市場調(diào)查,開創(chuàng)性地創(chuàng)造“被遺忘權(quán)”,豐富了新時代的人權(quán)內(nèi)涵,這是歐盟規(guī)制理念的表現(xiàn)。在智能算法與人權(quán)的關(guān)系處理上,歐盟在《多倫多宣言》中的算法即規(guī)則的基礎(chǔ)上更進一步認識私人機構(gòu)中的算法本質(zhì),認為算法更像眾多私人參與合作的、類似著作權(quán)法上的“匯編作品”或“合作作品”。作為匯編作品,算法的研發(fā)融合了大量的用戶數(shù)據(jù),用以培訓(xùn)智能算法的成長,這些數(shù)據(jù)庫的建立更多的是匯編行為。作為合作作品,算法研發(fā)是眾多編程人員、測試人員乃至用戶共同合作而產(chǎn)生的作品。基于這些全新的理解,算法并不能只是私人機構(gòu)的私有產(chǎn)權(quán),而是包括提供數(shù)據(jù)的用戶、提供市場的政府的共有產(chǎn)權(quán)。由此,歐盟的智能算法的人權(quán)規(guī)制呈現(xiàn)出更為細致的面貌。

  (一)歐盟對算法的“作品”定位與規(guī)制

  2019年4月8日,歐盟委員會發(fā)布人工智能道德準則“Ethics Guidelines for Trustworthy AI”(即《可信賴AI的道德準則》,以下簡稱為歐盟AI道德準則)。歐盟AI通過準則調(diào)整人工智能與人之間的關(guān)系,其范圍不僅包括法律上算法與人權(quán)的關(guān)系,而且包括技術(shù)風(fēng)險、社會公益、環(huán)境保護等更多的道德議題。該準則由歐洲人工智能高級別專家組(High-Level Expert Group on Artificial Intelligence,AI HLEG)起草。專家組由代表學(xué)術(shù)界、工業(yè)界和民間社會的獨立專家組成,從2018年4月開始專門負責撰寫人工智能道德準則。歐盟數(shù)字經(jīng)濟與社會(Digital Economy and Society)專員認為:“今天,我們?yōu)樵跉W盟實現(xiàn)安全和道德的人工智能,邁出了重要一步?;跉W盟的價值觀,在企業(yè)、學(xué)術(shù)界和公民社會的眾多利益相關(guān)方的廣泛和建設(shè)性參與下,我們打下了堅實的基礎(chǔ)。” ?創(chuàng)制歐盟AI道德準則是融合歐盟各界人士與產(chǎn)業(yè)新興力量的一次嘗試。

  與《多倫多宣言》相比,歐盟的規(guī)制思路是從可告知、可選擇的角度來控制人工智能所造成的倫理困境。它同樣注重算法背后的參與人的因素,歐盟AI道德準則與《多倫多宣言》一樣試圖將參與人的多樣性作為人權(quán)規(guī)制的重點。但算法的過程被理解為多元的創(chuàng)作過程。歐盟AI道德準則認為人工智能系統(tǒng)的研發(fā)應(yīng)該以增強、補充人類的認知、社會和文化技能為目的。即人工智能作為一件具有智慧投入的工具作品,用以增強人類對世界的認知。

  總體來看,歐盟提出四項道德準則,即尊重人自主性、預(yù)防傷害、公平性和可解釋性,以及實現(xiàn)可信賴AI的七個關(guān)鍵要素,即人的能動性和監(jiān)督,技術(shù)魯棒性和安全性,隱私和數(shù)據(jù)管理,透明性,多樣性、非歧視性和公平性,社會和環(huán)境福祉,問責性。其中一些原則如問責性、透明性、多樣性等,已經(jīng)在《多倫多宣言》中有所表達。在有關(guān)算法與人權(quán)的法律關(guān)系問題上,道德準則提出兩項重要的法律措施以避免算法歧視:一是進一步強調(diào)和細化算法可解釋性;二是數(shù)據(jù)清洗與完整性。

  猶如合作作品,多方合作者,特別是用戶,對于算法的使用具有知情與認知的能力與權(quán)利,這就要求算法具備可解釋性,從而保障算法的開放與透明。歐盟AI道德準則認為可解釋性對構(gòu)建用戶對人工智能系統(tǒng)的信任是非常關(guān)鍵的,也就是說,整個決策的過程、輸入和輸出的關(guān)系都應(yīng)該是可解釋的。但目前的智能算法和模型都是以“黑箱”的形式運行的。因而應(yīng)當明確的是,第一,應(yīng)確保人工智能系統(tǒng)相關(guān)元素的可追溯性,包括數(shù)據(jù)、系統(tǒng)和商業(yè)模型。第二,人工智能系統(tǒng)產(chǎn)生決策使用的數(shù)據(jù)集和過程都應(yīng)該記錄下來以備追溯,并且應(yīng)該增加透明性,具體包括收集的數(shù)據(jù)和算法使用的數(shù)據(jù)標記??勺匪菪园蓪徲嬓院涂山忉屝?。第三,可解釋性就是要解釋人工智能系統(tǒng)的技術(shù)過程和相關(guān)的決策過程。技術(shù)可解釋性要求智能算法做出的決策是可以被人們所理解和追溯。在人工智能系統(tǒng)會對人類的生命造成重大影響時,就需要人工智能系統(tǒng)的決策過程有一個合理的解釋。第四,人類有權(quán)知道與其通信的是人類還是人工智能系統(tǒng),這就要求人工智能系統(tǒng)是可被識別的。

  猶如匯編作品一般,數(shù)據(jù)在算法的形成過程中至關(guān)重要,是算法結(jié)果可能產(chǎn)生人權(quán)歧視與偏見的重要環(huán)節(jié)。歐盟AI道德準則強調(diào)數(shù)據(jù)質(zhì)量和完整性。數(shù)據(jù)集的質(zhì)量對人工智能系統(tǒng)的性能非常關(guān)鍵。收集的數(shù)據(jù)可能是含有偏見的、不準確的、有錯誤的。這些數(shù)據(jù)在用于訓(xùn)練之前要進行清洗,去除這些有偏見的、不準確的、有錯誤的數(shù)據(jù);同時,還要確保數(shù)據(jù)的完整性。如果給人工智能系統(tǒng)的數(shù)據(jù)是惡意的就可能會改變系統(tǒng)的行為。在規(guī)劃、訓(xùn)練、測試和實現(xiàn)的整個過程中都要對數(shù)據(jù)集進行測試和處理。換言之,在使用數(shù)據(jù)來訓(xùn)練算法時,必須要由人工來參與數(shù)據(jù)清洗工作,清洗標準即是人權(quán)標準,去除數(shù)據(jù)本身可能附帶的人權(quán)歧視標識與歷史。?

  當然,歐盟AI道德準則并非是在著作權(quán)法的意義上將算法定義為“作品”,不過,其采取的法律邏輯類似于著作權(quán)法中的作品概念。以作品為媒介來處理算法與人權(quán)的關(guān)系,這就變?yōu)樽髌返膮⑴c作者與其他人之間的權(quán)利關(guān)系。為了讓作品在公共領(lǐng)域不侵犯他人人權(quán),參與者的多樣性是一方面,更為重要的是,理解為作者一部分的用戶以及參與作品形成的數(shù)據(jù)的重要性。作為算法形成的重要數(shù)據(jù),同樣是用戶的一部分,是用戶各類行為,或者說,各項社會關(guān)系與法律權(quán)利的集合的抽象表現(xiàn)。由此,相比《多倫多宣言》強調(diào)的創(chuàng)作過程,歐盟AI道德準則更加關(guān)注算法的應(yīng)用對象的權(quán)利,即人權(quán)保護的主體——用戶。所以,作品的開放性、可解釋性、可追溯性、數(shù)據(jù)完整性等成為了算法作品得以符合人權(quán)標準的基本法律要求。

  (二)美國對算法的“言論”定位及規(guī)制

  《多倫多宣言》與歐盟AI道德準則將人的責任代入算法的人權(quán)規(guī)制中。但是,現(xiàn)實發(fā)生的算法規(guī)制不可能對偏見與歧視面面俱到。人們看到,強人工智能的發(fā)展可能會出現(xiàn)更多隱蔽與間接的人權(quán)歧視。以谷歌公司為典型標準的美國公司對算法,直接控制軟件開發(fā)工具包,出臺了更嚴格的許可條例。谷歌公司的思路是通過控制開發(fā)工具包與許可證來監(jiān)管算法的開發(fā)。在當前的人工智能發(fā)展與人權(quán)保障價值之間需要追求一個平衡點。比如,其開源的 AI 軟件庫——TensorFlow,如谷歌公司認為使用者沒有“正當”使用自己的研究成果,谷歌將收回使用許可。這一算法規(guī)制的邏輯還是將算法作為一件作品予以許可使用與監(jiān)管,可以看做是歐盟邏輯的延續(xù)。但是,在美國國內(nèi),谷歌等科技公司早已通過美國憲法中的“言論自由”來抵制算法的政府規(guī)制,認為政府對算法的規(guī)制是對言論自由的侵害。算法規(guī)制的初衷是保障人權(quán)免受不透明的“黑箱”算法的偏見與歧視的侵害,但是,美國的算法規(guī)制邏輯將其顛倒為作為人權(quán)之一的言論自由則保護了大企業(yè)的算法免受規(guī)制。

  算法作為一種言論而被賦予權(quán)利的法律邏輯是在美國法院的一系列案件中得以完成的。?2003年的搜索王訴谷歌案中,谷歌主張其網(wǎng)頁排名作為搜索引擎的核心算法受到法律保護。法院判決搜索引擎的算法即是對檢索人的回答,檢索行為正是谷歌與顧客之間的問答。?換言之,算法就是搜索引擎對各類網(wǎng)站的一種“說法”或看法,即意見。美國憲法第一修正案正是保障這類“言論”的自由。此后,該法律邏輯進一步拓展,認為網(wǎng)站或者搜索的算法本質(zhì)是對網(wǎng)絡(luò)信息資源的收集、編輯與整理,如同報紙的編輯加工,體現(xiàn)了編輯者的看法與判斷,是受到保護的言論。?

  由此來看,算法是什么的元問題決定了算法與人權(quán)之間的關(guān)系。美國的算法規(guī)制側(cè)重理解算法的人的元素與特征。作為替代人類進行判斷的算法,美國法院一度將其理解為人及其言論,乃至賦予其人權(quán)的標識,如言論自由。由此,美國算法的規(guī)制常常是人權(quán)權(quán)利束中各類權(quán)利之間的價值沖突與平衡。這類算法理解常常運用于強人工智能之上。算法與人權(quán)之間的關(guān)系處理甚至需要回答人工智能是否是人這樣的哲學(xué)元命題。與此相比,歐盟同樣側(cè)重于算法的人的元素,但是更多地關(guān)注算法背后的人以及算法所蘊含的人工成分。這就體現(xiàn)為《多倫多宣言》中算法形成過程的參與人,或是歐盟AI道德準則中形成算法的各類人工或人工智慧。由此,算法或是眾人合意形成的規(guī)則,或是眾人參與研發(fā)、編碼、測試形成的智慧作品。規(guī)則的算法理解多以政府使用算法或者政府委托私權(quán)利機構(gòu)研發(fā)算法為情形,而作品的算法理解多以私權(quán)利機構(gòu)的算法使用為情形。

  坦誠而言,算法的復(fù)雜性意味著它必然含有人的元素以及人工的勞動成果,它既具有人的主觀性,也具有客觀的工具性?!抖鄠惗嘈浴?、歐盟AI道德規(guī)則、美國判例等為我們展現(xiàn)了算法性質(zhì)與人權(quán)規(guī)制的譜系。在強人工智能時代不斷逼近的當下,我們到底是采取更為主觀的態(tài)度,將算法等同于人,從而納入整體的人權(quán)范疇,還是采取更為客觀的態(tài)度,將算法作為客體與人權(quán)進行效率與權(quán)利的平衡?抑或是有更為實用主義的第三條路徑?

  四、實用主義路徑下的中國算法規(guī)制體系

  有關(guān)算法性質(zhì)的元問題爭論在中國還未完全展開,但已經(jīng)有相關(guān)輿論和少數(shù)文獻開始討論算法與人權(quán)的關(guān)系。隨著用戶接觸新聞的內(nèi)容根據(jù)算法來推送,一些輿論提出新聞不能被算法“綁架”。在早期搜索引擎普及時,搜索呈現(xiàn)的內(nèi)容已經(jīng)被人們質(zhì)疑其背后的非客觀性。換言之,人們逐步被包裹在一個由機器算法所呈現(xiàn)的世界中。在智能設(shè)備日益普及的今天,算法及其信息推送更是逐步從新聞內(nèi)容拓展到了全部的消費新聞。算法與用戶信息隱私權(quán)的問題在中國成為現(xiàn)實亟待處理的問題。

  算法呈現(xiàn)出來的偏見與歧視還未進入中國輿論的中心,但是網(wǎng)絡(luò)的互聯(lián)互通性必然會將這些法律邏輯輸入到中國。中國的互聯(lián)網(wǎng)與人工智能產(chǎn)業(yè)向全球發(fā)展不僅需要應(yīng)對美國與歐洲這些地區(qū)的算法監(jiān)管邏輯,也需要建立一套屬于中國自己的普適性倫理規(guī)則,以掌握新興秩序的話語權(quán)與標準制定權(quán)。此外,在實踐中,中國目前的法律體系,特別是涉及社保、健康、福利分配、就業(yè)、教育等有關(guān)人權(quán)的法律體系中,仰仗算法的人工智能與機器學(xué)習(xí)已經(jīng)逐步開始實踐。例如,一些地方政府的智慧城市建設(shè)已經(jīng)將交通管制權(quán)交由算法來判斷。阿里云于2016年啟動的“城市大腦”通過接管杭州1,300個路口的信號燈,4,500路的視頻,將杭州城市里散落在交通管理、公共服務(wù)等領(lǐng)域的百億級的數(shù)據(jù)匯聚起來,搭建完整的城市交通動態(tài)網(wǎng),實現(xiàn)“城市的方方面面都跟大腦有關(guān)系”。支付寶業(yè)務(wù)的普及也使得“城市大腦”能夠及時調(diào)整消費產(chǎn)品的供應(yīng)鏈,更好地服務(wù)當?shù)鼐用?。網(wǎng)絡(luò)購物已經(jīng)逐步將客服變?yōu)槿斯ぶ悄軄響?yīng)對客戶的售后需求,改變了傳統(tǒng)《消費者權(quán)益保障法》的適用情形。阿里健康等企業(yè)已經(jīng)開始就健康醫(yī)療等居民生活建立新的算法模型。在教育培訓(xùn)領(lǐng)域,特別是在線教育,更多的智能算法使用其中。

  由此,中國人工智能產(chǎn)業(yè)的發(fā)展必然需要處理與建立算法與人權(quán)的倫理規(guī)則體系。在算法規(guī)制的譜系中,中國應(yīng)當首先摒棄美國式的言論自由保護的極端情形。美國的大量公共資源聚焦在算法規(guī)制前的言論自由標準審查中,導(dǎo)致后續(xù)的算法規(guī)制的具體規(guī)則發(fā)展滯后,甚至處于無管制的“自然狀態(tài)”。缺乏政府監(jiān)管的后果就是卡普蘭所說的“高科技封建割據(jù)”(high-tech feudalism),一些大資本、大企業(yè)形成市場壟斷,獨占用戶數(shù)據(jù),算法一家獨大。在這種情況下,企業(yè)算法與普通用戶的人權(quán)沖突最為嚴重。由此,中國應(yīng)當從實用主義的路徑出發(fā),建立政府監(jiān)管算法的整體框架,平衡科技創(chuàng)新、人權(quán)保障與商業(yè)發(fā)展三方面價值之間的關(guān)系,在科技創(chuàng)新的不同階段賦予企業(yè)不同程度的人權(quán)責任。全球產(chǎn)業(yè)鏈重新布局的背景下,算法競爭與科技創(chuàng)新直接決定了民族國家能否取得在新秩序中處于制高點。由此,政府監(jiān)管應(yīng)當賦予企業(yè)以較弱的、事后的算法責任。針對發(fā)展成熟,乃至成為產(chǎn)業(yè)壟斷的“獨角獸”企業(yè)以及境外企業(yè),政府監(jiān)管有必要賦予與其商業(yè)力量相當?shù)纳鐣c倫理責任,接受事前監(jiān)督與過程監(jiān)督,并輔之以較強的事后的司法責任。動態(tài)的、層級的算法倫理責任體系是政府從實用主義角度來協(xié)調(diào)算法與人權(quán)關(guān)系中蘊含的各類價值沖突的有效路徑。

  其次,在算法規(guī)制的整體框架上,政府監(jiān)管的基本法律邏輯應(yīng)當貫徹透明性、可解釋性與問責性三大算法原則。這三大原則也是歐盟AI道德準則與《多倫多宣言》的核心法律邏輯。透明性指的是保障用戶的知情權(quán)。用戶應(yīng)當知曉與其對話或者做出與其相關(guān)決定的是機器算法,從而告知其可能存在歧視與偏見風(fēng)險。對于政府委托的第三方算法決策而言,算法的全流程必須對政府與公眾公開、透明。與透明性相適應(yīng)的是算法的可解釋性。算法實現(xiàn)的功能與算法策略、數(shù)據(jù)收集與使用的方式都應(yīng)當以公眾所能理解的方式進行表達或者備注,而非直接以代碼等技術(shù)形式公開。這樣的要求和做法,一方面有助于實質(zhì)上實現(xiàn)透明性的目的,另一方面也有助于保護私人機構(gòu)的商業(yè)秘密。問責性的要求則更多強調(diào)算法背后的人的因素,摒棄責任規(guī)避,將技術(shù)的使用與人的決策聯(lián)系在一起,使得算法偏見與歧視能夠?qū)崿F(xiàn)追溯問責。問責的實現(xiàn)也是算法倫理的法律表現(xiàn),有助于培養(yǎng)參與算法研發(fā)與使用的人員的職業(yè)倫理與人權(quán)責任。以上三方面法律標準可以通過政府認證的方式為每一個進入公共領(lǐng)域與公共服務(wù)的算法進行認證。

  再次,在算法的使用與執(zhí)行環(huán)節(jié),政府采購和公共服務(wù)委托等事項中的算法使用需要建立高效的反饋回應(yīng)機制。目前的《行政復(fù)議法》與《行政訴訟法》都將因為智能算法在行政事務(wù)中的高效使用而改變。行政決策與行政執(zhí)法中的算法可以單獨作為行政當事人復(fù)議的對象。第三方評估機構(gòu)也可以就政府與公共事務(wù)中的算法進行透明度評估,有助于政府或算法服務(wù)機構(gòu)改進,以符合人權(quán)與法律標準。

  最后,司法的救濟與規(guī)則制定功能有助于政府在新事物中處理價值與效率的關(guān)系。在事后救濟程序上,中國的互聯(lián)網(wǎng)法院可給予人工智能以及算法等關(guān)鍵行為以訴權(quán),以司法的技藝來處理新事物的發(fā)展。2019年5月,北京互聯(lián)網(wǎng)法院判決全國首例人工智能生成內(nèi)容著作權(quán)案,主張計算機軟件智能生成內(nèi)容不構(gòu)成作品,因為智能軟件的開發(fā)與使用環(huán)節(jié)中的智慧投入與作品的思想表達無關(guān)。但法院最終仍然給予算法以保護,認為研發(fā)者與使用者的勞動投入具備了受保護的利益。本案的意義不只是實體上賦予了算法的創(chuàng)作成果以權(quán)益,更是將算法及其所有者、研發(fā)者與使用者作為司法技藝的處理對象。

  當中國的網(wǎng)絡(luò)人工智能產(chǎn)業(yè)走向全球的時候,跟隨產(chǎn)業(yè)的不一定是政府監(jiān)管模式,屬地管轄是民族國家的主要特征。跟隨算法走向世界的,更多的會是自主行業(yè)協(xié)會的標準。由此,在政府監(jiān)管體系建立的同時,中國的網(wǎng)絡(luò)與人工智能行業(yè)應(yīng)主動聯(lián)合,向全球其他提供算法的企業(yè)宣講中國的AI倫理準則,與人權(quán)、民主等普適性的價值進行協(xié)調(diào),從而建立起中國標準與全球話語權(quán)。

  五、余論

  歐盟AI道德準則的出臺,不只是關(guān)于人機關(guān)系的新秩序探索,更是全球秩序的競爭拉開新的序幕。參與其中的數(shù)字單一市場(Digital Single Market)組織認為:“人工智能的道德維度不是一個奢侈的功能或附加組件。只有對它賦予了信任,我們的社會才能充分受益于技術(shù)。合乎道德的人工智能是一個雙贏的主張,它可以成為歐洲的競爭優(yōu)勢——一個可以信賴的以人為本的人工智能領(lǐng)導(dǎo)者。”[21]近年來,各國開始不斷出臺規(guī)范性的人工智能倫理引導(dǎo)指南,規(guī)制人機關(guān)系,日本民間團體曾發(fā)布《下一代機器人安全問題指導(dǎo)方針(草案)》,韓國政府早在2007年就著手擬訂“機器人道德憲章”。人工智能的發(fā)展猶如哥倫布對美洲新大陸的發(fā)展。對于人類而言,美洲大陸的新發(fā)現(xiàn)也許是大航海的直接收獲,但更為重要的是開啟全球秩序的重新分配。人工智能的各類倫理準則的出臺不只是在本國或本區(qū)域內(nèi)協(xié)調(diào)人機關(guān)系,網(wǎng)絡(luò)與科技的普適性意味著人工智能的算法與倫理規(guī)制將推動一場新的全球秩序。在這一全球性的秩序中,算法首先遭遇到的是人權(quán)這一前世界秩序的根基。一旦人工智能技術(shù)本身獲得了有關(guān)“人”的哲學(xué)問題的沖突,人權(quán)的世界秩序也將重新構(gòu)筑。歐盟以及參與《多倫多宣言》的各個國際組織已經(jīng)嗅到了新秩序競爭的硝煙,并展開了行動。中國在人類命運共同體理念的感召下,如何處理算法與人權(quán)的關(guān)系,如何為人工智能的新秩序貢獻中國智慧,這有待后續(xù)實踐中進行更具有創(chuàng)造性的探索。

 ?。ㄐ毂?,中國社會科學(xué)院法學(xué)研究所助理研究員,法學(xué)博士。)

  注釋:

  ①參見蔡映潔:《人工智能,以法律和倫理為界》,載《人民日報》,2017年08月23日。

 ?、贘ulia Angwin,Jeff Larson et al.,ProPublica,Despite Disavowals,Leading Tech Companies Help Extremist Sites Monetize Hate.

 ?、跴roPublica組織了關(guān)于機器偏見的系列專題調(diào)研文章,參見Machine Bias:Investigating the algorithms that control our lives.

 ?、軈⒁奵nBeta:《五角大樓宣布使用大數(shù)據(jù)和機器學(xué)習(xí)打擊ISIS的計劃》,2019年5月31日訪問。

 ?、輩⒁婙P凰網(wǎng)科技:《“不再作惡”:谷歌決定2019年后退出軍事項目Project Maven》,2019年5月31日訪問。

 ?、迏⒁婒v訊網(wǎng)科技:《爭議不斷 谷歌解散人工智能倫理委員會》,2019年5月31日訪問。

 ?、逽tatement on Visit to the United Kingdom,by Professor Philip Alston,United Nations Special Rapporteur on extreme poverty and human rights.

 ?、鄥⒁娝押W(wǎng):《權(quán)益機構(gòu)發(fā)表〈多倫多宣言〉望人工智能技術(shù)遠離歧視與偏見》,2019年5月31日訪問。

  ⑨參見騰訊網(wǎng)科技:《谷歌發(fā)布AI使用七原則 絕不將其應(yīng)用于武器》,2019年5月31日訪問。

 ?、鈪⒁娝押W(wǎng):《微軟攜中國發(fā)展研究基金會發(fā)布〈未來基石〉報告,討論人工智能的社會角色與倫理》,2019年5月31日訪問。

  ?參見注⑧。

  ?The Toronto Declaration:Protecting the Right to Equality and Non-discrimination in Machine Learning Systems,visited on June 5,2019.

  ?參見彭明盛:《智慧的地球》,載《紀實》2009年第17期。

  ?參見注?。

  ?同上注。

  ?搜狐網(wǎng):《歐盟搶先發(fā)布七條人工智能道德原則》,2019年5月31日訪問。

  ?See Ethics Guidelines for Trustworthy AI.

  ?左亦魯?shù)恼撐膶Υ俗髁嗽敿毜氖崂?。參見左亦魯:《算法與言論——美國的理論與實踐》,載《環(huán)球法律評論》2018年第5期。

  ?Search King,Inc.v.Google Tech.,Inc.,No.02-1457,2003 WL 21464568(W.D.Okla.May 27,2003).

  ?Zhang v.Baidu,10 F.Supp.434,SDNY 2014.

  [21]同注?。

Abstract:The application of artificial intelligence algorithms in public services brings problems such as algorithmic discrimination and inequality.The discussion of the ethics and regulation of algorithms,from the legal perspective,is actually the relationship between intelligent algorithms R&D and the protection of human rights.In response to the discrimination and prejudice of algorithmic violations of human rights,European and American countries have successively issued the principles and rules of ethical regulation of algorithms.2018 Toronto Declaration interprets algorithms as rules and regulates the development and use of algorithms with the principle of “due process”.The algorithmic ethics guidelines issued by the European Union in 2019 focused on the participants in algorithm development.The principle of algorithm regulation issued by the US courts in the jurisprudence emphasizes the objective attributes of the algorithm.It believes that the algorithm is a “freedom of speech” protected by the US Constitution,and the algorithm regulation is incorporated into the human rights series of rights for consideration.China should learn from foreign algorithmic regulation experience,establish an overall framework for government regulation,and balance the diverse needs of technological innovation,human rights protection and commercial competition.

  (責任編輯葉傳星)

打印|