摘要:聯(lián)合國(guó)教科文組織的《人工智能倫理問題建議書》是第一部規(guī)范人工智能科學(xué)倫理的全球性國(guó)際文書,提出了人工智能倫理要始終以保護(hù)人權(quán)、人的自由及尊嚴(yán)為核心價(jià)值。本文通過對(duì)其制定的背景、過程、內(nèi)容、意義和作用以及亮點(diǎn)的介紹,探究其確立的倫理規(guī)范對(duì)我國(guó)科技倫理治理的啟示。研究發(fā)現(xiàn),《人工智能倫理問題建議書》以軟法的形式,結(jié)合人工智能動(dòng)態(tài)發(fā)展的特點(diǎn),有效地在國(guó)際層面整合有關(guān)觀點(diǎn),提出人工智能在教育、科學(xué)、文化等領(lǐng)域發(fā)展的價(jià)值觀、原則及政策行動(dòng),形成了動(dòng)態(tài)且具包容性的人工智能倫理問題框架。我國(guó)科技倫理治理的政策實(shí)施和立法可借鑒《人工智能倫理問題建議書》進(jìn)一步細(xì)化,實(shí)現(xiàn)科技倫理的硬法軟法協(xié)同治理,促進(jìn)我國(guó)的科技倫理治理體系不斷發(fā)展與完善。
關(guān)鍵字:聯(lián)合國(guó)教科文組織;《人工智能倫理問題建議書》;人權(quán);人工智能;科技倫理
目錄
引言
一、《建議書》的制定背景、過程和適用范圍
二、《建議書》的主要內(nèi)容
三、《建議書》的主要亮點(diǎn)
四、《建議書》對(duì)我國(guó)科技倫理治理的啟示
結(jié)語
引言
2023年10月,習(xí)近平主席在第三屆“一帶一路”國(guó)際合作高峰論壇開幕式主旨演講中提出《全球人工智能治理倡議》,體現(xiàn)出國(guó)內(nèi)和國(guó)際對(duì)人工智能倫理治理,以及構(gòu)建科技倫理審查及監(jiān)督制度的關(guān)切。2024年7月,中共第二十屆中央委員會(huì)第三次會(huì)議全體通過《中共中央關(guān)于進(jìn)一步全面深化改革推進(jìn)中國(guó)式現(xiàn)代化的決定》,該決定明確要構(gòu)建支持全面創(chuàng)新體制機(jī)制,深化科技評(píng)價(jià)體系改革,加強(qiáng)科技倫理治理。
發(fā)展科技要揚(yáng)長(zhǎng)避短,發(fā)展其長(zhǎng)處,正視其短處。為此,需要制定相應(yīng)的政策并進(jìn)行立法。但是,人工智能、云計(jì)算等科技快速發(fā)展,各國(guó)在相關(guān)領(lǐng)域的具體實(shí)施政策和立法卻差距甚大。這些年,已有一些國(guó)家和區(qū)域性國(guó)際組織出臺(tái)了有關(guān)人工智能的規(guī)范準(zhǔn)則,但是還缺乏一部在全球范圍內(nèi)規(guī)定人工智能發(fā)展倫理框架的規(guī)范性文書。
2021年,《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence,下文簡(jiǎn)稱《建議書》)的頒布填補(bǔ)了上述國(guó)際空白。《建議書》由聯(lián)合國(guó)教科文組織(UNESCO)批準(zhǔn)通過。聯(lián)合國(guó)教科文組織是制定科學(xué)倫理框架以及協(xié)調(diào)國(guó)際社會(huì)各方進(jìn)行磋商的權(quán)威機(jī)構(gòu),它運(yùn)用自己的長(zhǎng)期經(jīng)驗(yàn),充分發(fā)揮其全球性、多元化的優(yōu)勢(shì),會(huì)集眾多國(guó)家、國(guó)際組織和公共及私營(yíng)領(lǐng)域眾多利益攸關(guān)方起草并通過了《建議書》。《建議書》體現(xiàn)了人工智能倫理與人權(quán)的緊密關(guān)聯(lián),能夠有效指導(dǎo)各國(guó)圍繞聯(lián)合國(guó)教科文組織中心領(lǐng)域制定與人工智能相關(guān)的政策和法律,鼓勵(lì)個(gè)人、團(tuán)體、社群、機(jī)構(gòu)和私營(yíng)部門公司將倫理規(guī)范嵌入人工智能系統(tǒng)生命周期的各個(gè)階段,更有效地保護(hù)人權(quán)。
本文將簡(jiǎn)要介紹和梳理《建議書》的制定背景、過程,適用范圍和主要內(nèi)容,總結(jié)聯(lián)合國(guó)教科文組織《人工智能倫理問題初步研究》(以下簡(jiǎn)稱《初步研究》)和《建議書》確立的人工智能倫理價(jià)值觀和原則的重要意義、作用及若干亮點(diǎn),繼而根據(jù)《建議書》得出若干啟示,圍繞貫徹落實(shí)我國(guó)科技倫理的治理進(jìn)行探討。
一、《建議書》的制定背景、過程和適用范圍
(一)《建議書》制定的背景
1.聯(lián)合國(guó)教科文組織關(guān)于生物和科技倫理的研究
聯(lián)合國(guó)教科文組織對(duì)生物倫理和科技倫理進(jìn)行了多方面的思考,在國(guó)際標(biāo)準(zhǔn)制定與合作中發(fā)揮了重要作用,20多年來,其就科技倫理問題提出了許多規(guī)范性建議,例如《世界人類基因組與人權(quán)宣言》(1997年)、《世界生物倫理與人權(quán)宣言》(2005年)、《與氣候變化有關(guān)的倫理原則宣言》(2017年)、《關(guān)于科學(xué)和科學(xué)研究人員的建議書》(2017年)等。
2.國(guó)內(nèi)外學(xué)者關(guān)于人工智能倫理的一些研究
《建議書》出臺(tái)以前,國(guó)內(nèi)學(xué)者已就人工智能帶來的倫理問題及其對(duì)具體政策和法律實(shí)施的挑戰(zhàn)展開了研究,回應(yīng)這些挑戰(zhàn)越來越成為探討的前沿和熱點(diǎn)。目前,國(guó)內(nèi)學(xué)界一些已有的研究圍繞不同視角展開,均涉及人權(quán)問題。本文僅擇其主要者簡(jiǎn)述如下。
首先,是倫理與人權(quán)的關(guān)系。倫理是人權(quán)的道德基礎(chǔ),是關(guān)于道德規(guī)范與人際關(guān)系的評(píng)價(jià)。人權(quán)首先是道德意義上的權(quán)利,也就是說,“人權(quán)是一種在道德上具有強(qiáng)烈正當(dāng)性的權(quán)利,或者說,是一種在道德上具有高度優(yōu)先性的權(quán)利訴求”。有學(xué)者指出,隨著啟蒙時(shí)代的“自然權(quán)利論”和康德的“理性權(quán)利觀”作為人權(quán)論證的主要方式被提出,人權(quán)與倫理學(xué)之間實(shí)現(xiàn)了邏輯和理論的自洽,人權(quán)價(jià)值被廣泛接受為基準(zhǔn)性道德價(jià)值,形成了“一種認(rèn)可每個(gè)人價(jià)值、尊嚴(yán)和權(quán)利的倫理”。根據(jù)這些研究可知,一定的倫理形成了相應(yīng)政策和法律選擇背后的價(jià)值觀,而包括人工智能在內(nèi)的科技倫理是指運(yùn)用道德規(guī)范和一定的價(jià)值觀來約束科技的發(fā)展和使用。
其次,是人工智能如何影響基本人權(quán),如生命權(quán)、健康權(quán)、經(jīng)濟(jì)權(quán)利、政治權(quán)利、文化權(quán)利和發(fā)展權(quán)利等。人權(quán)的抽象性導(dǎo)致其在約束科技發(fā)展中存在一定的局限性,人工智能的發(fā)展也帶來了人權(quán)倫理的困境、沖突和挑戰(zhàn)。例如:人權(quán)的人格主體向人工智能擴(kuò)展的可能性,算法決策的歧視和對(duì)歧視的救濟(jì),個(gè)人隱私權(quán)、表達(dá)自由權(quán)利、人性尊嚴(yán)的保障,科學(xué)技術(shù)的享受權(quán),侵犯發(fā)展中國(guó)家人民的健康權(quán),等等。
再次,是探求“科技和人權(quán)走向倫理和解”的建構(gòu)路徑,即尋求倫理與法律的結(jié)合點(diǎn)以解決科技發(fā)展中的人權(quán)困境。這些觀點(diǎn)包括:立法活動(dòng)中,將倫理學(xué)中的道德因素轉(zhuǎn)化為實(shí)然法,促進(jìn)算法的可解釋性;司法裁判中避免對(duì)人工智能形成依賴,側(cè)重立法中對(duì)人工智能的開發(fā)與運(yùn)行程序的事前審查;在人權(quán)視角下過濾算法可能會(huì)依據(jù)的歧視性和敏感性詞語,使決策符合倫理;不能忽視多方合作制定人工智能法律與倫理規(guī)則的重要性。
最后,國(guó)外學(xué)者提出的一些觀點(diǎn)在我國(guó)也有較大影響力。例如,Jobin定義了以下人工智能倫理原則:透明度(transparency)、公正與公平(justice and fairness)、不傷害(nonmaleficence)、責(zé)任(responsibility)、隱私(privacy)、利他(beneficence)、自由與自治(freedom and autonomy)、信任(trust)、可持續(xù)(sustainability)、尊嚴(yán)(dignity)和團(tuán)結(jié)(solidarity)。上述原則均直接或間接與人權(quán)保障相關(guān)。
但是,上述研究的缺憾之一是未與人工智能相關(guān)的國(guó)際規(guī)則緊密相連,無法從全球?qū)用嫣岢鋈斯ぶ悄軅惱砝Ь车慕鉀Q方法。簡(jiǎn)言之,這是缺乏國(guó)際性和全球性視角,尚未形成解決人工智能倫理問題總括性的、行之有效的全球標(biāo)準(zhǔn)而導(dǎo)致的。因此,在飛速發(fā)展的科技時(shí)代,亟須從全球視角整合各方觀點(diǎn),制定國(guó)際社會(huì)能夠達(dá)成共識(shí)以保障人工智能的發(fā)展遵循倫理規(guī)范的準(zhǔn)則?!督ㄗh書》在很大范圍和程度上彌補(bǔ)了這一缺憾,也提供了人工智能倫理研究的具體指南。
(二)《建議書》采用的人工智能定義及其與倫理和人權(quán)的關(guān)系
2019年2月通過的《初步研究》,在《建議書》出臺(tái)之前就對(duì)“人工智能”的概念進(jìn)行了界定,并且考察了聯(lián)合國(guó)教科文組織職能范圍內(nèi)的人工智能倫理問題,繼而確定了將要擬訂的準(zhǔn)則性文書,即《建議書》的性質(zhì)、內(nèi)容、通用原則和關(guān)注的重點(diǎn)領(lǐng)域。
1.《初步研究》對(duì)人工智能的定義及其與倫理關(guān)系的論述
《初步研究》指出,人工智能在最寬泛的層面上可以分為 “理論型”或“科學(xué)型”,以及“實(shí)用型”或“技術(shù)型”兩大類別。“理論型”或“科學(xué)型”人工智能是指“使用人工智能的概念和模型幫助回答與人類和其他生物相關(guān)的問題”,涉及形而上學(xué)或精神層面的問題,本身具有十分嚴(yán)肅的倫理內(nèi)涵;“實(shí)用型”或“技術(shù)型”人工智能則以工程學(xué)為導(dǎo)向,創(chuàng)造機(jī)器或程序,使其獨(dú)立執(zhí)行本需依靠人類的行動(dòng)?!督ㄗh書》是根據(jù)《初步研究》關(guān)于人工智能“理論型”或“科學(xué)型”定義的類別來提出其倫理框架的,本文也主要根據(jù)這一“理論型”或“科學(xué)型”的人工智能定義來進(jìn)行闡釋論證。
2.《初步研究》對(duì)人工智能倫理與人權(quán)關(guān)系的論述
由于人工智能倫理框架與人權(quán)有緊密的關(guān)聯(lián),所以聯(lián)合國(guó)教科文組織從多學(xué)科、普遍性和整體性的角度出發(fā),在《初步研究》中指出了兩個(gè)可供借鑒的現(xiàn)有人權(quán)框架和倡議。
第一個(gè)是《日內(nèi)瓦原則宣言》提出的倡議。該宣言于2003年在信息社會(huì)世界峰會(huì)上提出,強(qiáng)調(diào)“信息和通信技術(shù)的使用應(yīng)符合相關(guān)的國(guó)際法規(guī),尊重人權(quán)和他人的基本自由(包括個(gè)人隱私)”。此外,此次峰會(huì)還要求政府、私營(yíng)部門、民間團(tuán)體等所有利益攸關(guān)方進(jìn)行有效合作。聯(lián)合國(guó)教科文組織采用了這種多利益攸關(guān)方的方法,負(fù)責(zé)實(shí)施“獲取信息和知識(shí)”(C3)、“電子學(xué)習(xí)”(C7)、“文化多樣性”(C8)、“媒體”(C9)和“信息社會(huì)的倫理問題”(C10)等行動(dòng)方針。
第二個(gè)是2015年聯(lián)合國(guó)教科文組織大會(huì)第三十八屆會(huì)議批準(zhǔn)的“互聯(lián)網(wǎng)普遍性框架”和相關(guān)的 ROAM原則,其涵蓋了人權(quán)、開放性、可獲取性和多利益攸關(guān)方參與等內(nèi)容。此外,教科文組織全民信息計(jì)劃政府間理事會(huì)第十八屆會(huì)議還審議批準(zhǔn)了由全民信息計(jì)劃信息倫理工作組制定的《信息社會(huì)倫理守則》。
《建議書》提出的人工智能倫理以上述兩個(gè)框架和倡議為基礎(chǔ),結(jié)合人工智能技術(shù)動(dòng)態(tài)發(fā)展的特點(diǎn),提出了人工智能倫理的原則和基本價(jià)值觀,并針對(duì)數(shù)據(jù)保護(hù)、禁止大規(guī)模監(jiān)控、倫理影響評(píng)估以及環(huán)境保護(hù)等人工智能適用的不同政策領(lǐng)域提出了具體的建議。
(三)《建議書》的適用范圍
總體而言,《建議書》述及的是與人工智能領(lǐng)域有關(guān)且屬于聯(lián)合國(guó)教科文組織職責(zé)范圍之內(nèi)的倫理問題。具體而言,《建議書》以整體全面多元且不斷發(fā)展的文化框架為基礎(chǔ),可以指導(dǎo)社會(huì)負(fù)責(zé)任地應(yīng)對(duì)人工智能技術(shù)對(duì)人類、社會(huì)、環(huán)境和生態(tài)系統(tǒng)產(chǎn)生的已知影響和未知影響,并且將人工智能倫理作為一種系統(tǒng)性規(guī)范加以考量,從而為是否使用人工智能技術(shù)提供參考。簡(jiǎn)言之,《建議書》以人的尊嚴(yán)、福祉和防止損害為導(dǎo)向,并立足于科技倫理。
因此,與聯(lián)合國(guó)通過的其他國(guó)際規(guī)范性文書一樣,《建議書》的適用范圍并非地域性的,而是全球的人工智能領(lǐng)域,是聯(lián)合國(guó)教科文組織職責(zé)范圍內(nèi)的倫理問題。也就是說,其是僅適用于從屬于倫理、科技倫理下位概念和領(lǐng)域的人工智能倫理的文書。
二、《建議書》的主要內(nèi)容
《建議書》旨在促進(jìn)和平利用人工智能系統(tǒng),是基于全球現(xiàn)有的人工智能倫理框架提出的一部全球公認(rèn)的準(zhǔn)則性文書?!督ㄗh書》圍繞人工智能倫理的價(jià)值觀和原則,通過規(guī)范人工智能具體實(shí)踐領(lǐng)域的政策進(jìn)行落實(shí),同時(shí)著重強(qiáng)調(diào)包容、性別平等以及環(huán)境和生態(tài)系統(tǒng)保護(hù)等問題。由此可見,人工智能倫理與人權(quán)具有十分緊密的關(guān)系。
(一)《建議書》中體現(xiàn)的人權(quán)價(jià)值觀
《建議書》在“尊重、保護(hù)和促進(jìn)人權(quán)和基本自由以及人的尊嚴(yán)”這一主題之中,分層次提出了與人權(quán)相關(guān)的人工智能倫理價(jià)值觀,這些價(jià)值觀均與人權(quán)保護(hù)緊密相關(guān)。
首先,《建議書》重申了與人權(quán)保障有關(guān)的基本價(jià)值觀,即人的尊嚴(yán)構(gòu)成人權(quán)和基本自由這一普遍、不可分割、不可剝奪、相互依存又彼此相關(guān)的體系的基礎(chǔ)。人的尊嚴(yán)系指“承認(rèn)每個(gè)人固有和平等的價(jià)值,無論種族、膚色、血統(tǒng)、性別、年齡、語言、宗教、政治見解、民族、族裔、社會(huì)出身、與生俱來的經(jīng)濟(jì)或社會(huì)條件、殘障情況或其他狀況如何”。因此,尊重、保護(hù)和促進(jìn)包括國(guó)際人權(quán)法在內(nèi)的國(guó)際法確立的人的尊嚴(yán)和權(quán)利,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)都至關(guān)重要。為了保障人的尊嚴(yán)和權(quán)利,《建議書》構(gòu)建了人工智能系統(tǒng)生命全周期的人權(quán)保護(hù),明確了人不應(yīng)受到人工智能的損害或被迫處于從屬地位,且使用人工智能的重要目的是改善人類的生活質(zhì)量。最后,人工智能還應(yīng)幫助保障特殊群體,既包括弱勢(shì)群體,也包括處境脆弱的群體的人權(quán)。
此外,《建議書》還明確規(guī)定:保護(hù)和促進(jìn)環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展;依照國(guó)際人權(quán)法尊重、保護(hù)和促進(jìn)多樣性與包容性,其中包括非歧視、宗教信仰自由和言論自由;人工智能自主決策不得破壞社會(huì)的和平、包容、正義與公平。
(二)《建議書》確立的原則
《建議書》基于上述價(jià)值觀確立了一系列原則,其中包括相稱性和不損害、公平和非歧視、隱私權(quán)和數(shù)據(jù)保護(hù)、透明度和可解釋性、責(zé)任和問責(zé)以及多利益攸關(guān)方與適應(yīng)性治理和協(xié)作等??梢哉f,《建議書》確立的這些原則,都直接或間接與人權(quán)保障和法治相關(guān)。
由于篇幅所限,本文僅以責(zé)任和問責(zé)原則,以及多利益攸關(guān)方原則為例加以闡釋。人工智能產(chǎn)品與服務(wù)的開發(fā)、生產(chǎn)、銷售和使用會(huì)涉及多個(gè)主體,在整個(gè)生命周期的各個(gè)環(huán)節(jié)都會(huì)涉及倫理責(zé)任。這對(duì)責(zé)任的認(rèn)定、分配和承擔(dān)構(gòu)成挑戰(zhàn)。此外,當(dāng)人工智能產(chǎn)品用于行政和司法決策等領(lǐng)域,會(huì)對(duì)個(gè)人權(quán)利和社會(huì)公平正義產(chǎn)生重大影響?!督ㄗh書》聚焦基于人工智能系統(tǒng)做出的決定和行動(dòng),指出相關(guān)的倫理責(zé)任最終都應(yīng)由人工智能行為者根據(jù)其在人工智能系統(tǒng)生命周期中的作用來承擔(dān)。在責(zé)任認(rèn)定方面,《建議書》提出覆蓋人工智能全周期的監(jiān)督、影響評(píng)估、審計(jì)和盡職調(diào)查機(jī)制,確保人工智能系統(tǒng)可審計(jì)和可追溯。在問責(zé)標(biāo)準(zhǔn)方面,《建議書》指出應(yīng)按照人權(quán)規(guī)范和標(biāo)準(zhǔn)以及生態(tài)和環(huán)境保護(hù)準(zhǔn)則進(jìn)行追蹤和審計(jì),確保人工智能系統(tǒng)的運(yùn)行符合人權(quán)規(guī)范,保護(hù)生態(tài)系統(tǒng)的福祉。本文認(rèn)為,這一原則為各國(guó)人工智能倫理立法融入人權(quán)問責(zé)標(biāo)準(zhǔn)提供了較為明確的指導(dǎo),并且強(qiáng)調(diào)在人工智能生命全周期進(jìn)行追溯和監(jiān)測(cè),提升了責(zé)任認(rèn)定和責(zé)任分配的準(zhǔn)確性。
《建議書》的多利益攸關(guān)方原則提出,在依據(jù)國(guó)際法尊重隱私權(quán)以及其他人權(quán)規(guī)范和標(biāo)準(zhǔn)的基礎(chǔ)上對(duì)人工智能利用的數(shù)據(jù)進(jìn)行監(jiān)管時(shí),必須重視不同利益攸關(guān)方在人工智能系統(tǒng)整個(gè)生命周期的參與。該原則明確了利益攸關(guān)方的種類,除了政府、技術(shù)界和研究人員,還包括民間社會(huì)、學(xué)術(shù)界、媒體、教育機(jī)構(gòu)、政策制定者、私營(yíng)部門公司、人權(quán)機(jī)構(gòu)、反歧視檢測(cè)機(jī)構(gòu)及青年和兒童團(tuán)體等。多利益攸關(guān)方進(jìn)行治理與協(xié)作的具體行為標(biāo)準(zhǔn),應(yīng)兼顧技術(shù)的變化和新利益攸關(guān)方的出現(xiàn),采用開放式標(biāo)準(zhǔn)和互操作性原則,以促進(jìn)協(xié)作。
(三)《建議書》涵蓋的政策行動(dòng)領(lǐng)域
在人工智能倫理的實(shí)踐層面,《建議書》基于上述價(jià)值觀和原則,就一些具體的政策領(lǐng)域,包括倫理影響評(píng)估、數(shù)據(jù)政策、環(huán)境和生態(tài)系統(tǒng)、性別、文化、教育、健康、社會(huì)福利、發(fā)展與國(guó)際合作等提出建議和指導(dǎo)。相關(guān)領(lǐng)域的建議有助于指導(dǎo)會(huì)員國(guó)出臺(tái)并實(shí)施相應(yīng)的政策或機(jī)制,并確保各利益攸關(guān)方遵守和落實(shí)。例如,可以鼓勵(lì)所有利益攸關(guān)方根據(jù)包括聯(lián)合國(guó)《工商企業(yè)與人權(quán)指導(dǎo)原則》在內(nèi)的準(zhǔn)則制定人權(quán)、法治、民主以及倫理影響評(píng)估和盡職調(diào)查工具。值得指出的是,《建議書》專門提出的關(guān)于工商企業(yè)與人權(quán)的上述例證,即企業(yè)社會(huì)責(zé)任的研究,目前在中國(guó)已經(jīng)逐漸成為一個(gè)熱點(diǎn)。
同樣由于篇幅所限,本文僅以倫理影響評(píng)估為例?!督ㄗh書》提出,會(huì)員國(guó)應(yīng)針對(duì)人工智能系統(tǒng)出臺(tái)倫理影響評(píng)估框架,并出臺(tái)預(yù)防、減輕和監(jiān)測(cè)風(fēng)險(xiǎn)的措施以及其他保障機(jī)制。此種影響評(píng)估應(yīng)根據(jù)《建議書》提出的價(jià)值觀和原則,確定人工智能對(duì)人權(quán)和基本自由(特別是但不限于邊緣化和弱勢(shì)群體或處境脆弱群體的權(quán)利)、勞工權(quán)利、環(huán)境和生態(tài)系統(tǒng)、倫理以及社會(huì)產(chǎn)生的影響,并促進(jìn)公民的參與。具體來講有三點(diǎn)。一是在數(shù)據(jù)保護(hù)方面,需要確保人工智能的透明度、行動(dòng)力和對(duì)個(gè)人數(shù)據(jù)的控制來保證個(gè)體的權(quán)益。二是禁止使用人工智能系統(tǒng)進(jìn)行侵犯人權(quán)和基本自由的活動(dòng),例如大規(guī)模監(jiān)控。制定監(jiān)管框架的最終責(zé)任和問責(zé)必須始終由人類承擔(dān),人工智能技術(shù)本身不應(yīng)獲得法律人格。三是要通過倫理影響評(píng)估,幫助開發(fā)和部署人工智能系統(tǒng)的國(guó)家和公司評(píng)估該系統(tǒng)對(duì)個(gè)人、社會(huì)及環(huán)境的影響。這一工具將有助于提高各國(guó)機(jī)構(gòu)應(yīng)對(duì)人工智能不利影響的能力,并確保倫理規(guī)范在實(shí)踐中得到遵守。
可見,《建議書》關(guān)注的重點(diǎn)是如何規(guī)避人工智能的負(fù)面影響,而且要特別關(guān)注的是保障某些特殊群體的人權(quán)。
三、《建議書》的主要亮點(diǎn)
《建議書》主要有兩個(gè)亮點(diǎn)。亮點(diǎn)之一是其形式,《建議書》在序言中首先提出要銘記《世界人權(quán)宣言》(1948年)、《殘疾人權(quán)利公約》(2006年)等11個(gè)國(guó)際人權(quán)規(guī)范以及其他一切相關(guān)國(guó)際文書、建議書和宣言;隨后提出又注意到《聯(lián)合國(guó)發(fā)展權(quán)利宣言》(1986年)、《世界生物倫理與人權(quán)宣言》(2005年)等13個(gè)國(guó)際文書、建議書和宣言?!督ㄗh書》與前述國(guó)際文書、建議和宣言一脈相承,從本質(zhì)上繼承并發(fā)展了這些國(guó)際文件確立的人權(quán)精神和人權(quán)理論,同時(shí)也使人們注意到其采取的形式的特點(diǎn)和優(yōu)越性,而且其提及的上述國(guó)際文書、建議、宣言都是有國(guó)際法約束力的。
《建議書》的制定體現(xiàn)出聯(lián)合國(guó)教科文組織積極履行制定宣言、建議書或公約的職能。從內(nèi)容上,《建議書》明確倡議各國(guó)在人工智能倫理的價(jià)值觀和原則的指導(dǎo)下,在實(shí)踐中緊密關(guān)注并踐行聯(lián)合國(guó)教科文組織所關(guān)注的重點(diǎn)領(lǐng)域的人工智能倫理治理。聯(lián)合國(guó)教科文組織的工作組通過初步研究發(fā)現(xiàn),自2018年以來,有關(guān)人工智能倫理問題原則的宣言數(shù)量日益增多。同時(shí),工作組結(jié)合世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)(COMEST)的工作經(jīng)驗(yàn),認(rèn)為相較于上述日漸增多的其他區(qū)域性和國(guó)際性宣言,制定人工智能倫理問題宣言只能促使會(huì)員國(guó)就一般性、抽象性的原則達(dá)成一致意見,無法將各方所提價(jià)值觀整合為更具體的指導(dǎo)原則,因此無法達(dá)到理想的效果。綜合考慮國(guó)際社會(huì)的政治環(huán)境和經(jīng)濟(jì)背景,以及其他國(guó)際組織(如經(jīng)合組織)人工智能專家制定的戰(zhàn)略,教科文組織決定制定人工智能倫理問題建議書,聚焦文化、教育、科學(xué)和傳播等領(lǐng)域的人工智能倫理問題,提出具有創(chuàng)新性且實(shí)操性強(qiáng)的建議,增強(qiáng)會(huì)員國(guó)對(duì)上述領(lǐng)域人工智能問題的干預(yù)。此外,由于人工智能具有快速且非線性發(fā)展的特點(diǎn),所以需要制定可根據(jù)人工智能發(fā)展進(jìn)行靈活調(diào)整,并符合國(guó)際人權(quán)標(biāo)準(zhǔn)的具體倫理框架。相較于形式固定且具有法律約束力的公約以及較為概括抽象的宣言,制定建議書更加符合該要求。
亮點(diǎn)之二是《建議書》的軟法性質(zhì)。聯(lián)合國(guó)教科文組織采取建議書而非宣言的形式來規(guī)范人工智能倫理主要是考慮建議書雖然不具有約束力,屬于國(guó)際法中“最軟的軟法”,但是全球迫切需要尋求一致的立場(chǎng),解決快速發(fā)展的人工智能可能產(chǎn)生的倫理問題,建議書的形式比同樣是軟法的宣言形式更靈活、具體、具有可操作性,因而也更易于為各國(guó)所接受。與前一亮點(diǎn)相聯(lián)系,軟法雖然不具有法律約束力,但被視為生命科技領(lǐng)域國(guó)際規(guī)范形成的最佳形式選擇。通過聯(lián)合國(guó)教科文組織等跨文化國(guó)際組織整合倡議,可以為人工智能倫理規(guī)則在將來發(fā)展為習(xí)慣國(guó)際法或法律一般原則奠定基礎(chǔ)。但《建議書》中某些條款實(shí)際上也具有強(qiáng)制性和義務(wù)性。例如,它重申了人權(quán)法的強(qiáng)制性,并強(qiáng)調(diào)了國(guó)際法義務(wù),在一般性條款中規(guī)定《建議書》的實(shí)施不得妨礙國(guó)際法和人權(quán)義務(wù)。當(dāng)然,相較于國(guó)內(nèi)法,國(guó)際法在整體上仍然還是軟法。在國(guó)內(nèi)人工智能倫理立法的過程中,可以參照《建議書》將某些具有軟法性質(zhì)的建議轉(zhuǎn)化為具有“硬法”性質(zhì)的法律,為未來將人工智能倫理規(guī)則由鼓勵(lì)性轉(zhuǎn)向制度性奠定基礎(chǔ)。
四、《建議書》對(duì)我國(guó)科技倫理治理的啟示
(一)人工智能倫理與科技倫理
目前,中國(guó)在科技倫理治理領(lǐng)域面臨的重大挑戰(zhàn)之一,是仍缺乏一套成熟的體系來規(guī)制科學(xué)技術(shù),包括人工智能發(fā)展和應(yīng)用的潛在風(fēng)險(xiǎn)。如前所述,由于人工智能在科技領(lǐng)域極易產(chǎn)生倫理問題,我國(guó)一直在推動(dòng)加強(qiáng)人工智能倫理的法律法規(guī)和政策標(biāo)準(zhǔn)的研究工作,并且已出臺(tái)《網(wǎng)絡(luò)安全法》《國(guó)家信息化發(fā)展戰(zhàn)略綱要》等法律和規(guī)范性文件,對(duì)某些人工智能侵犯隱私權(quán)的倫理問題進(jìn)行了規(guī)制。但是就人工智能倫理和科技倫理的整體領(lǐng)域而言,具體的政策、立法和規(guī)范仍然缺乏。
黨的十八大以來,中央組建了國(guó)家科技倫理委員會(huì),促進(jìn)科技倫理治理積極發(fā)展。2017年,國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,明確提出人工智能立法的“三步走”戰(zhàn)略。該規(guī)劃為我國(guó)人工智能倫理的立法和政策的出臺(tái)設(shè)立了目標(biāo)。2021年12月,中央全面深化改革委員會(huì)第二十三次會(huì)議提出建立科技倫理審查和監(jiān)督制度,明確要提高科技倫理治理的法治水平,加強(qiáng)科技倫理理論的研究。2022年3月,中共中央辦公廳、國(guó)務(wù)院辦公廳聯(lián)合印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》(下文簡(jiǎn)稱《治理意見》)?!吨卫硪庖姟吩诳傮w要求、明確科技倫理原則、健全科技倫理治理體制、加強(qiáng)科技倫理治理制度保障、強(qiáng)化科技倫理審查和監(jiān)管、深入開展科技倫理教育和宣傳等方面做出了具體部署,為科技倫理規(guī)范的具體標(biāo)準(zhǔn)提供了有價(jià)值的政策性參考依據(jù)。2023年9月,科技部、教育部、工業(yè)和信息化部等部門共同頒布了《科技倫理審查辦法(試行)》,該辦法明確科技倫理治理應(yīng)堅(jiān)持促進(jìn)創(chuàng)新與防范風(fēng)險(xiǎn)相統(tǒng)一,遵循增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、保持公開透明等科技倫理治理原則,并提出設(shè)立科技倫理(審查)委員會(huì),明確了科技倫理審查的重點(diǎn)內(nèi)容與公平、公正、透明、可靠、可控等審查標(biāo)準(zhǔn)。此外,該辦法還明確了審查程序以及科技倫理審查監(jiān)管的主體和責(zé)任。下文將根據(jù)《建議書》的啟示,對(duì)《治理意見》的實(shí)施進(jìn)行探討。
人工智能倫理是從屬于科技倫理的下位概念,也屬于后者治理的領(lǐng)域和范疇?!吨卫硪庖姟访鞔_提出,“十四五”期間重點(diǎn)加強(qiáng)生命科學(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域的科技倫理立法研究。所以,《治理意見》中的科技倫理及其治理,在整體上可以涵蓋人工智能倫理,而在局部上,《建議書》則可以為細(xì)化并落實(shí)《治理意見》提供價(jià)值觀和原則,并以人工智能倫理治理為突破口和重點(diǎn),就具體措施的確定和貫徹實(shí)施提供啟示和借鑒。
所以,未來我國(guó)在人工智能倫理領(lǐng)域具體政策的制定、實(shí)施和立法,應(yīng)借鑒《建議書》的意見,遵循人工智能倫理的國(guó)際法律原則和價(jià)值觀,以及國(guó)家層面的政策制定要求。多邊主義以及人工智能具有的特點(diǎn)要求一國(guó)在制定相關(guān)法律時(shí)遵循規(guī)范性的全球框架協(xié)議,開展國(guó)際合作。我國(guó)作為聯(lián)合國(guó)教科文組織的重要成員國(guó),應(yīng)該率先借鑒和實(shí)施《建議書》提出的價(jià)值、原則、基本政策和具體建議,完善科技倫理治理立法和具體的政策規(guī)定,以體現(xiàn)我國(guó)負(fù)責(zé)任的大國(guó)形象。
針對(duì)具體領(lǐng)域的行動(dòng),《治理意見》結(jié)合我國(guó)的國(guó)情,增加了深入科技倫理理論研究、壓實(shí)創(chuàng)新主體科技倫理管理主體責(zé)任、加強(qiáng)科技倫理教育、推動(dòng)科技倫理培訓(xùn)機(jī)制化發(fā)展的意見。這也呼應(yīng)了《建議書》提出的具體政策行動(dòng)領(lǐng)域,有助于向全球展示我國(guó)的科技倫理治理觀念和實(shí)踐成果。所以,在今后的國(guó)內(nèi)立法中,可以根據(jù)《建議書》的價(jià)值觀、原則和具體領(lǐng)域的政策行動(dòng)完善相應(yīng)的科技倫理規(guī)范,保障治理的有效執(zhí)行。
(二)細(xì)化科技倫理審查的評(píng)估標(biāo)準(zhǔn)
目前,《科技倫理審查辦法(試行)》第15條規(guī)定的科技倫理審查內(nèi)容和標(biāo)準(zhǔn)較為原則化,且與人權(quán)保護(hù)的關(guān)系仍需進(jìn)一步厘清。例如,在實(shí)踐中如何界定科技活動(dòng)的社會(huì)價(jià)值,如何對(duì)接我國(guó)個(gè)人信息保護(hù)規(guī)定與國(guó)際原則,如何判斷數(shù)據(jù)收集、存儲(chǔ)、加工、使用等方案是否得當(dāng)?shù)?,都可以通過參照《建議書》中的內(nèi)容,融入人權(quán)要素,細(xì)化相應(yīng)的審查評(píng)價(jià)標(biāo)準(zhǔn)。例如,目前的科技倫理審查內(nèi)容包括對(duì)個(gè)人隱私侵害、違反平等權(quán)等情形的審查,但未提及侵犯其他基本人權(quán)和自由的類別,例如表達(dá)自由、宗教信仰自由等。此外,其也未區(qū)分人工智能可能造成的特殊倫理問題,例如算法的運(yùn)用加深了已有的歧視和偏見,同時(shí)產(chǎn)生新的歧視情形,應(yīng)體現(xiàn)如何在治理過程中區(qū)分上述兩種情形。在數(shù)據(jù)保護(hù)方面,除《科技倫理審查辦法(試行)》第15條第5款規(guī)定的國(guó)家數(shù)據(jù)安全審查,還應(yīng)在倫理風(fēng)險(xiǎn)評(píng)估方案中考察人工智能的應(yīng)用是否會(huì)造成大規(guī)模監(jiān)控和社會(huì)評(píng)分等侵害人權(quán)的行為。再如,科技倫理審查應(yīng)考量人工智能等科技的運(yùn)用對(duì)不同利益攸關(guān)方的影響,并納入科技倫理審查的內(nèi)容。只有做好這一前期準(zhǔn)備,才能為利益攸關(guān)方后續(xù)參與科技倫理治理奠定基礎(chǔ)。
(三)推動(dòng)制定科技倫理治理的問責(zé)標(biāo)準(zhǔn)
《科技倫理審查辦法(試行)》第47、48條分別規(guī)定了科技活動(dòng)的承擔(dān)單位,以及科技倫理(審查)委員會(huì)違反審查辦法的追責(zé)情形,但并未明確科技產(chǎn)品或服務(wù)的開發(fā)者、生產(chǎn)者、銷售者和使用者分別應(yīng)承擔(dān)何種責(zé)任。應(yīng)制定覆蓋科技產(chǎn)品的研發(fā)、生產(chǎn)、銷售和使用等各個(gè)環(huán)節(jié)的監(jiān)督和盡職調(diào)查機(jī)制,確保責(zé)任可追溯。在問責(zé)標(biāo)準(zhǔn)方面,也應(yīng)強(qiáng)調(diào)人權(quán)并將其細(xì)化加入條款內(nèi)容當(dāng)中,目前的規(guī)定僅限于違反程序準(zhǔn)則,即科技活動(dòng)承擔(dān)單位造假獲得科技倫理審查批準(zhǔn),未獲科技倫理審查批準(zhǔn)或超出批準(zhǔn)范圍擅自開展科技活動(dòng)等。應(yīng)在科技倫理審查辦法中引入人權(quán)規(guī)范和標(biāo)準(zhǔn)以及環(huán)境保護(hù)和保障人類健康的準(zhǔn)則,針對(duì)人工智能等對(duì)社會(huì)正義產(chǎn)生較大倫理挑戰(zhàn)的技術(shù)運(yùn)用,還應(yīng)該結(jié)合現(xiàn)有的《人工智能法(學(xué)者建議稿)》,提升人工智能產(chǎn)品用于自動(dòng)化行政、司法決策中的倫理審查標(biāo)準(zhǔn)和責(zé)任認(rèn)定標(biāo)準(zhǔn)。
值得注意的是,《治理意見》和《科技倫理審查辦法(試行)》都屬于軟法。在科技倫理審查制度發(fā)展之初,采用軟法的形式可以最大程度減少分歧,達(dá)成科技倫理治理原則的共識(shí)。但由于缺乏強(qiáng)制力,可能無法有效進(jìn)行問責(zé),也無法督促企業(yè)等主體落實(shí)針對(duì)人工智能等科技的運(yùn)用開展的倫理影響評(píng)估。所以,應(yīng)推動(dòng)軟法向硬法的轉(zhuǎn)化,逐步出臺(tái)強(qiáng)制性法律,明確人工智能等科技的倫理問責(zé)標(biāo)準(zhǔn)和機(jī)制,保障科技倫理主體切實(shí)遵循相關(guān)義務(wù),避免人權(quán)、環(huán)境權(quán)等遭受不利影響。
(四)加強(qiáng)人工智能倫理和科技倫理領(lǐng)域的國(guó)際合作
《治理意見》提出了“堅(jiān)持開放發(fā)展理念,建立多方協(xié)同合作機(jī)制進(jìn)行科技倫理治理,貢獻(xiàn)中國(guó)智慧和中國(guó)方案”這一總體的治理要求,這與聯(lián)合國(guó)教科文組織《建議書》中的第四個(gè)政策領(lǐng)域即“發(fā)展與國(guó)際合作”是完全一致的。我國(guó)可以借鑒《建議書》的相關(guān)建議,努力促進(jìn)人工智能研究和創(chuàng)新方面的國(guó)際合作,鼓勵(lì)在人工智能領(lǐng)域開展技術(shù)交流和磋商,通過向中低收入國(guó)家提供資金、技術(shù)、知識(shí)等,彌合地緣技術(shù)差距。在國(guó)際司法方面,我國(guó)法院也應(yīng)加強(qiáng)對(duì)國(guó)際法和未來的科技倫理法律的解釋,并爭(zhēng)取將我國(guó)的司法經(jīng)驗(yàn)加以推廣。
近年來,中國(guó)在聯(lián)合國(guó)教科文組織中的影響力日益增大。2014年3月,習(xí)近平主席和夫人彭麗媛訪問了聯(lián)合國(guó)教科文組織總部。在聯(lián)合國(guó)教科文組織的歷史上產(chǎn)生了巨大的影響。不僅如此,隨著中國(guó)成為世界第二大經(jīng)濟(jì)體,從2019年起,中國(guó)所繳聯(lián)合國(guó)教科文組織的會(huì)費(fèi)已經(jīng)排世界第1位,占會(huì)員國(guó)所繳會(huì)費(fèi)總數(shù)的近6%。當(dāng)然,這也與美國(guó)退出聯(lián)合國(guó)教科文組織有關(guān)??梢哉f中國(guó)在尊重和保障人權(quán)等方面的巨大發(fā)展和進(jìn)步,得到了國(guó)際社會(huì)的廣泛認(rèn)可。
國(guó)際人權(quán)規(guī)范是各國(guó)處理科技倫理問題的根本價(jià)值判斷標(biāo)準(zhǔn)。人工智能技術(shù)以認(rèn)知能力為基礎(chǔ),且處于動(dòng)態(tài)的發(fā)展變化中,為科技時(shí)代帶來了更深層次的倫理困境,各國(guó)和有關(guān)組織從國(guó)際層面探尋解決困境的方法勢(shì)在必行。所以,通過借鑒《建議書》,切實(shí)貫徹執(zhí)行《治理意見》,努力使我國(guó)的科技倫理治理觀念和實(shí)踐成為全球范圍內(nèi)的模板。
結(jié)語
《治理意見》提出,科技倫理體系的構(gòu)建以習(xí)近平新時(shí)代中國(guó)特色社會(huì)主義思想為指導(dǎo),科技活動(dòng)應(yīng)堅(jiān)持以人民為中心,尊重生命權(quán)利(包括生命安全、心理健康、人格尊嚴(yán)、個(gè)人隱私等),堅(jiān)持公平公正,堅(jiān)持公開透明等倫理原則。《建議書》注重人的尊嚴(yán)和人權(quán)保護(hù),確立了性別平等、社會(huì)正義與發(fā)展、身心健康、多樣性、互聯(lián)性、包容性、環(huán)境和生態(tài)系統(tǒng)保護(hù)等準(zhǔn)則。由此可見,《建議書》的基本價(jià)值觀和原則與《治理意見》的指導(dǎo)思想和倫理原則是基本吻合的。
《建議書》明確了人工智能倫理的根本價(jià)值判斷標(biāo)準(zhǔn)是使人工智能技術(shù)立足于基本人權(quán)和自由,并兼顧創(chuàng)新和發(fā)展。作為第一部規(guī)范人工智能科學(xué)倫理的國(guó)際性規(guī)范文書,《建議書》采取軟法的形式,在各國(guó)共同目標(biāo)的基礎(chǔ)上構(gòu)建了人工智能倫理框架,有力維護(hù)了多邊主義。我國(guó)積極響應(yīng)聯(lián)合國(guó)教科文組織的建議,遵循并實(shí)施《建議書》中規(guī)定的基本價(jià)值觀、原則及政策行動(dòng),出臺(tái)多個(gè)國(guó)家層面的科技倫理治理指導(dǎo)文件,推動(dòng)科技倫理和人工智能倫理的治理,并以積極、開放和包容的態(tài)度在全球范圍內(nèi)開展合作,向世界展現(xiàn)了負(fù)責(zé)任的大國(guó)形象。未來,我國(guó)可以借鑒《建議書》中的內(nèi)容,細(xì)化科技倫理審查中的人權(quán)要素,加強(qiáng)多利益攸關(guān)方合作,細(xì)化問責(zé)標(biāo)準(zhǔn),進(jìn)一步完善科技倫理影響的評(píng)估和監(jiān)督機(jī)制,實(shí)現(xiàn)科技倫理治理的硬法與軟法協(xié)同立法,促進(jìn)我國(guó)的科技倫理治理體系不斷發(fā)展與完善。
(本文是在筆者為中國(guó)人權(quán)研究會(huì)、奧地利奧中友好協(xié)會(huì)于2022年5月10日舉辦的“2022·中歐人權(quán)研討會(huì)”所提交論文的基礎(chǔ)上修改而成的。論文英文版已經(jīng)于2023年2月載入奧地利Bacopa Verlag出版社的Science,Technology and Human Rights—Collected Papers of 2022 China Europe Seminar on Human Rights一書。本文亦是教育部中國(guó)聯(lián)合國(guó)教科文組織全國(guó)委員會(huì)《聯(lián)合國(guó)教科文組織的公約與建議委員會(huì)工作機(jī)制和我國(guó)關(guān)于人權(quán)來函的應(yīng)對(duì)策略研究》系列課題(2022—2024年度)的階段性研究成果,相關(guān)前期的中文研究成果已在《人權(quán)研究》2022年第4期以《聯(lián)合國(guó)教科文組織〈人工智能倫理問題建議書〉的借鑒啟示及其中國(guó)貢獻(xiàn)——以人權(quán)保障為視角》為題發(fā)表,特此說明。本文原載《發(fā)展權(quán)研究》2025年第1輯第99-116頁。)
【作者簡(jiǎn)介:朱力宇,中國(guó)人民大學(xué)法學(xué)院教授,人權(quán)研究中心學(xué)術(shù)委員會(huì)秘書長(zhǎng),教育部中國(guó)聯(lián)合國(guó)教科文組織全國(guó)委員會(huì)咨詢專家。胡曉凡,中國(guó)政法大學(xué)外國(guó)語學(xué)院講師,美國(guó)范德堡大學(xué)法律博士(JD)】
(因篇幅較長(zhǎng),已略去原文注釋,本文轉(zhuǎn)自華中大Humanrights微信公眾號(hào))