1000部做爰免费视频,婷婷蜜桃国产精品一区小说,家庭乱欲免费阅读全文,2020亚洲熟女在线观看,樱井莉亚全集bt种子,男男体育生乱yin高h肉汁,高辣文h书包网,17岁中国高清免费观看完整版,免费观看已满十八岁的电视剧动漫

中國人權領域唯一專業(yè)網站
首頁>出版物>《人權》雜志

人權與人工智能:一個亟待解決的議題

來源:《人權》2019年第5期作者:[美]馬蒂亞斯·里塞
字號:默認超大| 打印|

  內容提要:人工智能的日益普及為人權帶來巨大的挑戰(zhàn)。短期挑戰(zhàn)包括科技參與《世界人權宣言》涵蓋的所有權利的方式,例如有效的歧視性算法的使用。中期挑戰(zhàn)包括工作性質的變化,這種變化可能會引起對很多人作為社會參與者地位的質疑。從長期來看,人類可能不得不與在智力上和在道德上更優(yōu)越的機器共存,即使這只是高度推測性的。人工智能也賦予了曾經被許多人認為晦澀的道德辯論新的關聯性。

  關鍵詞:人權 人工智能 道德性

  
人工智能給人權帶來新的挑戰(zhàn)。人類生活的不可侵犯性是人權背后的中心概念。一個潛在的預設是,相對于其他生命形式,人類具有等級上的優(yōu)越性,與人類相比其他的生命形式都只配獲得較少的保護。這些基本假設因為將到來的存在物而飽受質疑,這些存在物并不以我們熟悉的方式活著,但是它們可能是具有感知能力的,并且在智力上,或許最終在道德上,比人類更優(yōu)越。誠然,這些假設的景象或許永遠不會成真,并且無論如何都是人無法把握的未來的一部分,但是將該問題提上議事日程至關重要??萍冀o各個人權領域帶來的威脅或挑戰(zhàn)已經非常普遍。本文分別從短期、中期、長期的角度來分析這些挑戰(zhàn)。本文的主要目的是激起人們在人權領域內對人工智能的興趣。①

  一、人工智能(AI)與人權

  
人工智能(AI,Artificial Intelligence)在我們的日常生活中越來越常見,這反映出我們越來越傾向于在算法中尋找建議或是直接依賴算法進行抉擇。“智能”是對未來做出預測以及能夠解決復雜問題的能力。AI就是通過機器所展示出的這種能力,如智能手機、平板電腦、筆記本電腦、無人機、自動駕駛汽車或機器人等機器。從家庭的支持以及陪伴(包括性伴侶)到警務與戰(zhàn)爭的各類任務,此類機器可能均可以承擔。只要可以獲得所需要的數據,算法可以按我們所要求的速度做任何能夠被寫成編碼的事情,并且可以在設計框架中執(zhí)行據此所確定的任務。在所有這些領域中的進步都是非常顯著的。算法的有效性通過“大數據”不斷得到提升:大量的關于全世界人類活動和其他進程的數據都可以被獲得。這種數據使得一種特殊的被稱為“機器學習”的人工智能類型可以通過模式檢測推斷接下來會發(fā)生什么。算法在任何測試中都比人類表現更好,盡管人類的偏見也滲透其中:任何人類設計的系統(tǒng)都會反映人類的偏見,并且算法所依賴的數據反映過去,從而將現狀自動化,除非采取預防措施。②但是算法是不受干擾的:與人類不同,當同樣的問題出現兩次時算法都能就同樣的問題得出同樣的結論。③

  哲學辯論似乎有種脫離現實的感覺,但在人工智能的背景下,許多此類辯論帶著緊迫性重新出現。以“電車難題”為例,它迫使個人面對失控的電車做出選擇,根據個人做出的不同選擇電車會殺死不同數量的人。它通過這種方式挑戰(zhàn)人們關于義務論道德與結果主義道德的直覺。這些選擇不僅決定了誰死亡,而且決定了一些否則不會受到影響的人是否被用作工具去拯救他人。許多大學教師都展示了這些案例只是為了讓學生質疑他們的相關性,因為在現實生活中,選擇永遠不會是這種模式化。但是,一旦需要對自動駕駛車輛(剛剛第一次在路邊造成不幸)進行編程,這些問題就會產生新的公共關聯性和緊迫性。

  另外,哲學家們長期以來一直對心靈(mind)的本質感到困惑。其中一個問題是,心靈在大腦之外是否還有更多東西。不管它是什么,大腦也是一個復雜的算法。但是,大腦是否就由此被充分描述完全了呢,還是這種說法并未認識到那些使人類與眾不同的東西,比如意識(consciousness)?意識是作為某人或某物的智性經驗,如人們所說的“像那樣是一種什么感覺”。如果說心靈除了大腦什么都沒有,那么在大數據時代,算法很快就會在幾乎所有事情上超越人類:他們會更準確地預測你會喜歡哪本書或下一次去哪里度假;比人類更安全地駕駛汽車;在人類大腦發(fā)出警報之前預測健康狀況;給諸如接受哪些工作、在哪里生活、收養(yǎng)哪種寵物、對于某些人成為父母是否合理以及與現在在一起的人交往下去是否明智等事項提供中肯的建議。網絡廣告則通過評估一個人訂購過什么以及之前點擊了什么來預估該展示什么廣告,以迎合人們的偏好。

  如果心靈只是一個復雜的算法,那么人類似乎除了給予某些機器與人類共同的道德地位沒有多少其他選擇。“動物”的道德地位問題之所以會被提出是由于人類與其他物種之間的連續(xù)性:在道德相關屬性方面,一個物種越與人類相似,就越應該被視為共同生活中的一個同行者,正如蘇·唐納森(Sue Donaldson)和威爾·金里卡(Will Kymlicka)在《動物政治學:動物權利的政治理論》中做的那樣。④這類推論可能最終也會被應用在機器身上。誠然,機器上設有開關是事實,但人們不應該由此而轉移注意力。為了測試某些可能性,未來的機器可能以一種不那么容易被關上的方式被組裝或者連接互聯網。更重要的是,他們可能會通過情緒或者某種行為來表達他們的情感:他們甚至可能擔心會被關掉,并會急切地為此想做些什么?;蛘?,未來的機器可能會以半機械人的形態(tài)出現,即其一部分由有機體組成,而同時人類尋求以非有機體來改變提升自己。人類和非人類的區(qū)別可能日益模糊。一旦將大腦電子化并且在電腦上上傳和存儲成為可能,就像人類胚胎現在可以被儲存那樣,人們關于人的觀念可能會發(fā)生改變。⑤

  即便在此之前,新一代人也將以新的方式與機器一起成長。如今典型的計算機用戶在電腦不好用的時候可能會毫不猶豫地砸碎筆記本電腦而不會感到一點不安。但是,那些與機器人保姆一起成長的人可能會對機器人有不同的態(tài)度,因為其學習能力使其能夠以遠遠超出父母通常所做的方式照顧他們。早在2007年,一名美國上校就取消了一次機器人地雷清掃演習,因為有一次一個機器人喪失一條腿后仍然繼續(xù)向前爬行,他認為這種行動是不人道的。⑥像《西部世界》或《善地》這樣的科幻小說展示了人與機器一起生活,且只能通過切開它們才能將它們與人類辨別開的世界是什么情形。一個由 Hanson Robotics公司研發(fā)的、擁有參與訪談能力的、名為索菲亞的類人機器人在2017年10月份成為沙特阿拉伯的一名公民;后來,索菲亞被評為聯合國開發(fā)計劃署(UNDP)首位創(chuàng)新冠軍,也是第一位擁有聯合國頭銜的非人類。⑦未來可能會記住這些歷史性的時刻。寵物世界也不甘落后。亞馬遜公司的創(chuàng)始人及首席執(zhí)行官貝佐斯近期剛收養(yǎng)了一只名為SpotMini的寵物犬。這是一種多功能的機器人寵物,能夠打開門,自己動手,甚至可以裝洗碗機,并且如果貝佐斯愿在亞馬遜上購物的話,SpotMini也不需要外出。

  如果確實心靈除大腦之外還有更多東西,處理人工智能以及其他類人機器人會更容易。意識,或者對大腦和良心的同時擁有,可能會使人類與眾不同。如何理解質性經驗以及如何理解意識,是一個開放性問題。但即使關于意識的考慮可能與人工智能系統(tǒng)具有道德性的觀點相矛盾,他們也不會阻礙這些系統(tǒng)成為法律參與者,比如擁有自己的財產,犯罪,并以法律上可執(zhí)行的方式負責。畢竟,公司也同樣缺乏意識,但我們已經以這種方式對待它們很長時間了。正如將公司的責任與涉及其中的人的責任區(qū)分開存在巨大的困難一樣,很可能在智能機器方面也會出現類似的問題。

  二、純智能的道德性

  
另一個長期存在而最近獲得關注的哲學問題是理性與道德之間的聯系。當人們對純智能的道德性進行思考的時候就會提出這個問題。“奇點”這個術語經常用來指代機器在智力方面超越人類的時刻。⑧從那時起,人類就成功地創(chuàng)造出比自己更聰明的東西,而這種新型大腦很可能會產生比它自身更聰明的東西,以此類推發(fā)展下去,而且速度可能還會很快。這種情況可以持續(xù)多長時間將會有限度的。但是在過去的幾十年中由于計算能力的迅速增長,超級智能的能力范疇超出了人們現在所能理解的范圍。一些參與人工智能辯論的人著重強調了奇點和超級智能,而其他人則認為與更緊迫的現實問題相比,它們無關緊要。確實,奇點可能永遠都不會出現,即使出現也可能是幾十年或幾百年后的事情。但是,過去數十年的數字技術發(fā)展仍然將這些主題(奇點和因為超級智能的存在而產生的道德后果)納入人權議程。⑨

  為了解決人工智能潛在的道德問題,哲學家們最好考慮一下大衛(wèi)·休謨和伊曼努爾·康德之間關于理性能否決定價值的爭論。休謨的代表學說認為理性不能決定價值:一個理智的存在物、理性或智慧(假設這些都具有相似性),可能會有任何目標以及任何一種態(tài)度,特別是對人類的態(tài)度。⑩如果是這樣的話,超級智能(或者說任何人工智能,但尤其是超級智能)可能會有任何類型的價值承諾,包括那些會讓人類感到相當荒謬的價值觀(如一些文獻中提到的將宇宙中的回形針數量最大化的價值承諾)。?如果我們認可這樣一個超級智能會比人類聰明得多,并因此可能會優(yōu)先考慮與人類不同的價值承諾,那么人們又怎么知道這些想法是錯誤的呢?

  與此相反,康德的觀點認為道德源于理性??档碌?ldquo;絕對命令”要求所有理性存在物永遠都不要以純粹工具的方式去利用自己或任何其他理性存在物的理性能力。尤其是對其他理性存在物的無理暴力和欺騙(這對康德來說總是太像純粹的工具化)。?思考絕對命令的另一種方式要求每個人的行動都要通過一般化測試(generalization test)。某些行動是不被允許的,因為當每個人都這樣做的話他們根本行不通。比如偷竊和欺騙是不可普遍化的,因此不能被允許。如果每個人都有偷竊的權利,就不會有財產;如果每個人都有說謊的權利,就不會有溝通??档峦茖У囊c是,任何有智慧的存在物都會因為侵犯其他理性存在物而陷入與其自身的矛盾。粗略地說,僅僅是我們的理性選擇給予了任何事物以價值,這同樣意味著我們通過給某些事物賦值也給予了我們賦值這個能力本身以價值。這個觀點是說我們周圍世界的事物并不是以某種獨立的方式就有了價值。他們可能是有價值,假設我們知道上帝存在并且上帝賦予他們以價值,或者假設我們有理由認為事物天生就是有價值的,就像物理定律應用于它們一樣。但根據康德所探索的人類理性的局限性,這些選擇并不存在。所以這讓人類理性本身成為任何價值的唯一來源。但是,如果是這樣,那么我們必須感激我們自身這種進行價值判斷的能力。因此,為了追求自己的利益而貶低其他理性存在物反過來也會貶低他們價值判斷的能力,而這些能力與我們必須珍視的自身的價值判斷能力是相同的。因此,某些錯誤對待他人的方式會導致一個人與自己產生矛盾,就像數學推理中的缺陷一樣。如果康德是對的,一個超級智能可能是道德行為的真正榜樣。由于人類的本性在判斷和價值承諾上非常狹隘,人工智能可能會縮小人類與他們在石器時代形成的小群體導向的基因試圖在全球背景下運作時所造成的鴻溝。?

  如果像這樣的論點能夠成立——當然也存在疑問——我們就沒有理由擔心超級智能??梢哉f,在一個智能機器發(fā)展的時代,人類有足夠的理性來為卑微的人類提供保護。但是,由于許多從當代標準來說很聰明的哲學家反對康德的觀點,這個問題遠未得到解決。人類的理性無法從超智能的角度想象這些事情會是什么樣子。

  當然,即使價值不能僅僅從理性中獲得,某種道德也可以由超級智慧來掌控。還有一種霍布斯式的方法,設想在沒有共同權威的自然狀態(tài)下,以某種屬性為特征,以自我保護為目標的人類會發(fā)生什么。?霍布斯認為,這些人不會像康德所設想那樣,僅僅通過頭腦清晰的思考,就按照共同的價值觀行事,他認為如果沒有共同的權威,人們很快就會體驗到生活的骯臟。他們絕不是卑鄙無恥的人,作為個體,他們會因為對未來遭受侵犯的預測而感到有必要互相攻擊。畢竟,即使他們知道自己應該合作,給懷疑的另一方以利益,他們也不能保證對方會給他們同樣的好處,并考慮到自己承擔的風險而感到必須要首先進行攻擊。除非只有一個超級智能,或者所有的超級智能都是緊密相連的,不過這樣的推理可能也同樣適用于這樣的機器,它們將受制于某種共同的權威?;舨妓沟淖匀粻顟B(tài)描述了超級智能對于其他智能的初始狀態(tài)。這種共同的權威是否也會給人類帶來好處還不清楚。?

  或許T.M.斯坎倫(T.M.Scanlon)關于對價值的適當回應的觀點會有所幫助。?超級智能在對它觀察到的周遭事物會做出適當回應,在這個意義上超級智能可能是“道德的”。既然人類大腦的能力確實令人震驚,并能在人類身上激發(fā)出值得尊敬的能力,那么人類或許就有機會獲得一些保護,甚至可以在一個由人類和機器組成的混合社會中獲得某種程度的解放。?但是,動物的能力也是如此,而這通常不會導致人類以適當尊重的方式對待它們或者對待環(huán)境。人類沒有表現出一種開明的人類中心主義,而是常常將自然工具化。希望在這類問題上,超級智能可以比人類理性表現得更好,這將意味著獨特的人類生命將得到一些保護,因為它值得尊重。我們沒有辦法確切地知道這一點,但也沒有理由過于悲觀。

  三、人權與價值一致性問題

  
所有這些事情都是未來的一部分,我們無法知道它何時會實現甚至是否會實現。但從人權的角度來看,這些設想很重要,因為人類需要習慣與新類型的生物共享他們數千年來建立的社會世界。到目前為止,其他生物從未長期阻礙人類的發(fā)展,它們所能期待的最好的結果是一些共生的安排,比如寵物、牲畜或動物園的展覽。所有這一切都可以解釋為什么會有一份以貌似值得保護的獨特的人類生活為基礎的《世界人權宣言》(UDHR),這種保護是在個體層面上的,而人類不愿給予其他物種這種保護。從哲學的角度來看,我們也許可以論證以個人權利形式給予人類特殊保護是合理的,而不用明確說對其他動物或環(huán)境做任何事情都是可以的。但如果是智能機器,情況就完全不同了。人類控制動物,因為人類可以打造一個動物處于從屬地位的環(huán)境。但這么對待人工智能也許是不可能的。在一個某些智能玩家是機器的世界里,需要制定一些規(guī)則。這些智能玩家必須被設計得尊重人權,即使他們足夠聰明和強大到可以侵犯人權。與此同時,他們也必須被賦予適當的保護自己的能力。最終《世界人權宣言》的規(guī)則同樣適用于這些智能機器也不是不可能的。?

  當務之急是確保這些發(fā)展有一個良好的開端。與此相關的挑戰(zhàn)是價值取向的問題,這個問題的出現要遠遠地早于何為純粹智能的道德這樣的問題變得相關之前。無論人工智能系統(tǒng)究竟是如何生成的,重要的是要確保它們的價值觀與人類價值觀一致,以盡可能地避免超級智能具有與我們截然不同的價值觀帶來的風險?!堵摵蠂虡I(yè)和人權指導原則》(UN Guide Principles on Business and Human Rights)也暗示我們現在需要解決價值一致問題?!堵摵蠂髽I(yè)和人權指導原則》的宗旨是將人權納入企業(yè)決策。這些原則也適用于人工智能。這意味著我們要解決諸如“最嚴重的潛在影響是什么”,“誰是最脆弱的群體”以及“如何確保獲得救濟”等問題。?早在1942年,人工智能界就認識到了艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《東奔西跑》(Runaround)中指出的價值取向的問題。在小說中,阿西莫夫闡述了他著名的“機器人三定律”(Three Laws of Robotics),在該小說中“三定律”來自2058年的一本指南。所謂“三鐵律”,是指:(1)機器人不得傷害人類,也不得因不作為而讓人類受到傷害;(2)機器人必須服從人類的命令,但與第一定律相抵觸的除外;(3)機器人必須保護自己的存在,只要這種保護不違反第一或第二定律。?

  不過,長期以來這些定律都被認為太不具體,而且很多人做出各種努力來取代這些定律,這些努力與《聯合國商業(yè)和人權指導原則》或人權運動的任何其他部分可能并沒有任何聯系。例如,在2017年,劍橋的未來生命研究所(the Future of Life Institute)與由麻省理工學院物理學家馬克斯·特格馬克(Max Tegmark)和Skype聯合創(chuàng)始人賈恩·塔林(Jaan Tallinn)創(chuàng)辦的MA在加州Asilomar會議中心舉辦了一場關于有益的人工智能的會議,旨在提出指導人工智能未來進一步發(fā)展的原則。在由此產生的23條《阿西洛瑪原則》(Asilomar Principles)中,有13條列在“倫理和價值觀”的標題下。這些原則堅持認為,無論人工智能在哪里造成傷害,它應該能夠確定它為什么會這樣做,并且當一個人工智能系統(tǒng)涉及司法決策時,它的推理應該能夠被人類審計人員驗證。這些原則回應了人們的擔憂,即人工智能可以以非??斓乃俣韧评?,并能夠接觸到非常廣泛的數據,以至于人工智能的決策越來越不透明,如果分析出錯它們也不可能被發(fā)現。這些原則還堅持價值取向一致性,敦促“高度自治的人工智能系統(tǒng)應該以能夠確保它們的目標和行為在整個運行過程中與人類價值觀保持一致的方式被設計”(原則10)。這些人類價值觀在原則11中表現得很明確,包括“人的尊嚴、權利、自由和文化多樣性”[2]。

  堅持人權的前提是我們假設某些哲學爭論已經被解決了:存在以權利的形式存在的普世價值,并且我們大致知道有哪些權利。正如《阿西洛瑪原則》所表明的,人工智能領域中有一些人相信人權已經以某種方式被確立起來。但其他人則急于避免他們所認為的道德帝國主義。他們認為價值一致性問題應該以不同的方式解決,例如,通過一種群策群力的方式,教會人工智能吸收來自世界各地的輸入。因此,這又是一個哲學問題呈現出新的相關性的例子:在決定是否愿意將人權原則納入人工智能設計的過程中時,關于人在哲學上對元倫理學的偏向性理解必然發(fā)揮作用。[22]

  人權也有其優(yōu)勢,因為在世界各地有許許多多人權本土化形式,而且對這些權利的全球支持是實質性的。同樣,盡管《聯合國商業(yè)和人權指導原則》已經出臺,但有可能的是,某些將會成為領先的人工智能生產國的國家,并無意以人權精神解決價值一致性的問題。不過,這并不一定會阻礙其他地方為推動人權問題的解決而作出的努力。也許有一天,人工智能系統(tǒng)可以就如何最好地與人類保持一致交流想法,但前提是人類自身能夠以統(tǒng)一的方式設計人工智能,并對價值一致問題提出相同的解決方案。然而,即使是人權也會繼續(xù)有詆毀者存在,所以這種情況發(fā)生的希望也很小。

  無論如何,我們需要的是人權界和人工智能界更多的互動,這樣所創(chuàng)造出的未來才不會缺少在人權領域的投入(很明顯,所創(chuàng)造的未來如果沒有人工智能領域并不會有任何風險。)朝著這個方向邁出的重要一步是,一些國際人權組織決定在人權事業(yè)中廣泛使用人工智能設備。在這一階段,一些人權組織正在試驗在人權調查中使用機器學習,并且也在關注使用機器學習中可能產生的歧視,尤其是在警察、刑事司法和獲得基本經濟和社會服務方面。更廣泛地說,一些人權組織關注的是自動化對社會的影響,包括工作和謀生的權利。在人權運動和這一發(fā)展背后的工程師之間需要有更多這樣的互動,而這種互動最好是雙向的。

  四、“人工愚蠢”與公司權力

  
現階段有很多比未來的智能機器更緊迫的問題。《世界人權宣言》中的每一項人權的行使都以某種方式受到科技的影響。例如,如果在醫(yī)療保健、保險承保、假釋決定等領域中使用的算法是種族歧視或性別歧視的,反歧視條款就會受到威脅,因為這些算法的學習借鑒了性別歧視或種族主義;言論和表達自由,以及任何個人自決自由,都會受到大量假新聞的侵蝕,包括制作任何人在做任何事的假視頻,包括從未發(fā)生或由不同人犯下的恐怖主義行為。人工智能參與了這些假新聞作品的創(chuàng)作和傳播。

  政治參與越是依賴于互聯網和社交媒體,它們同樣越是受到技術進步的威脅,從部署甚至更復雜的網絡機器人參與網絡辯論的可能性,到對計算票數的設備的黑客攻擊,或對政府公共行政或設施的黑客攻擊以制造混亂。人工智能與“人工愚蠢”(Artificial Stupidity)總是如影隨形:對手所做的努力不僅是要破壞人工智能可能帶來的成果,而且是要把它們變成它們的對立面。某國通過網絡操縱選舉是一個警鐘,更糟的情況可能還會發(fā)生。如果人工智能的使用缺乏足夠的透明度和人類監(jiān)督的可能性,司法權利可能受到威脅。一個人工智能系統(tǒng)已經預測了歐洲人權法院(European Court of Human Rights)數百起案件的結果,預測結果的準確率達到79%[23];隨著準確率的提高,使用人工智能來做出決定的做法也更具吸引力。在法庭訴訟中使用人工智能可能有助于為窮人提供法律咨詢(一些國際組織在印度等國已推行了這類法律援助項目);但是,如果算法給出的法律建議令人費解,并且其算法的基礎超出了現有的(或者可能是任何)人類的審查能力,也可能導致卡夫卡式的情況。算法的公平性開始引起大量的關注。[24]

  不僅通過無人機或機器人士兵,還通過因人類活動和存在被電子記錄而提高的個人的易理解性和可追溯性,人類有關安全與隱私的任何權利都有可能受到損害。關于人類的可用數據量可能會大幅增加,尤其是一旦生物特征傳感器能夠監(jiān)測人類健康。比如,它們可能會在人們沐浴時進行檢查并提交數據,這或許是符合一個人的切身利益的,因為它們可以在某些疾病成為真正問題之前將他們診斷出來。這些數據的存在本身就可能給人們公民權利和社會權利帶來挑戰(zhàn),而且這些數據很可能是私家占有,不是被數據主體占有,而是被生成這些數據的實體之外的實體占有。如今,人工智能領域的領先企業(yè)比以往任何時候的石油公司都更強大,而且這可能只是它們崛起的開始。

  過去,人在復雜社會中的地位首先由土地所有權決定,工業(yè)革命之后則是由工廠所有權決定的。隨之而來的高度不平等的結構給許多人帶來不利后果。不平等的數據所有權也會給社會上的許多人同樣帶來不利后果。如果諸如Alphabet公司(谷歌的母公司及其子公司)、蘋果公司、Facebook公司,或者特斯拉公司等的威力不受公共利益的約束,人類可能最終淪落到一個由公司主導的世界,如瑪格麗特·阿特伍德(Margaret Atwood)的小說《羚羊與秧雞》(Oryx and Crake)或大衛(wèi)·福斯特·華萊士(David Foster Wallace)的《無盡的玩笑》(Infinite Jest)中所描述的那樣。“劍橋分析”(the Cambridge-Analytica)的丑聞給我們敲響了警鐘。馬克·扎克伯格(Mark Zuckerberg)2018年4月10日對美國議員做出的證言揭示出資深立法者對互聯網公司依賴市場數據的經營模式多么無知。這種無知為公司走向權力鋪平了道路。請考慮一個相關的觀點:政府在網絡安全方面需要私營部門的幫助。一些相關專家很聰明、報價高昂,但他們從不會為政府工作。鑒于政府在這方面的過度擴張,人們只能希望可以為了政府的安全指派他們?yōu)檎?。如果這些努力不能奏效的話,那么只有企業(yè)才能提供最高級別的網絡安全。

  五、巨大的脫節(jié):科技和不平等

  
本文所要討論的最后一個話題是人工智能和不平等,以及其與人權的聯系。2018年是《世界人權宣言》發(fā)布70周年。這是一個好時機,可以來思考在許多情況下技術是如何具有創(chuàng)造社會不平等的潛力,或其無意中成功創(chuàng)造了不平等,并從而對人權產生影響。首先,托馬斯·皮凱蒂(Thomas Piketty)警告稱,在和平時期放任資本主義自生自棄,會導致越來越嚴重的經濟不平等。那些掌握經濟的人比那些僅僅在其中工作的人從中獲利要大。因此,隨著時間的推移,人生中的機遇將越來越依賴于出生時的社會地位。[25]

  此外,越來越清楚的是,那些要么創(chuàng)新技術,要么知道如何利用技術擴大影響的人可以爭取到越來越高的工資。人工智能只會強化這些趨勢,讓各領域的領導者們以更容易的方式擴大自己的影響力。這反過來又使人工智能生產商成為價格更高昂的技術供應商。最近,沃爾特·謝德爾(Walter Scheidel)指出,從歷史上看不平等現象的大幅減少只是在應對一些如流行病、社會崩潰、自然災害或戰(zhàn)爭等災難時才會發(fā)生;否則,人們很難凝聚足夠的要求變革的政治意愿。[26]

  在19世紀的英國,最初的勒德分子因為擔心就業(yè)問題而搗毀了織布機。但到目前為止,每一次的技術創(chuàng)新最終創(chuàng)造的就業(yè)崗位都超過了它所摧毀的崗位。雖然技術變革并非對每個人而言都有利,但其對社會整體和全人類而言是一件好事??赡芪磥頃泻芏喙ぷ鲘徫?,比如那些開發(fā)、監(jiān)督或以創(chuàng)新方式使用技術的人,以及那些不可替代的創(chuàng)造性職業(yè),這些崗位數量最終將超過那些因人工智能而失業(yè)的人。但是,空抱著這種希望是很天真的,因為它的前提是對教育體系進行徹底改革以使人們具有競爭力。另一種替代選擇是,人們希望一種既創(chuàng)造就業(yè)機會又縮短工作時間的結合,以實現更多人共享工作、提高工資來使人們過上體面的生活。無論哪種方式,歐洲國家都比美國有更大的希望,因為在美國很多人在技術與教育的競爭中落后,而且美國在國家層面上的團結非常薄弱,薄弱到甚至連全民醫(yī)保都存在爭議。[27]而在制造業(yè)和廉價勞動力方面具有相對優(yōu)勢的發(fā)展中國家將如何應對這一切,誰也說不準。

  在這種背景下,我們有理由擔心人工智能會在社會中造成越來越大的技術鴻溝,會將數百萬人排除在外,使他們成為多余的市場參與者,進而潛在地削弱他們在政治生活中的地位。在土地所有權作為財富的標志的時代,富人是需要普羅大眾的,因為土地所有權的意義在于收取租金。在財富由工廠的所有權決定的時代,所有者需要平民大眾來操作機器和購買東西。但對于那些在技術分化中處于劣勢的人來說,他們可能根本就不會被需要。F.司各特·菲茨杰拉德(F.Scott Fitzgerald)在他1926年的短篇小說《富家子弟》(The Rich Boy)中有一句名言:“讓我來告訴你一些跟富豪有關的事。他們跟你我非常不一樣”。人工智能可能會以一種驚人的方式證實這一說法。

  正如種族隔離制度下的南非一樣,最終可能會出現新的班圖斯坦人,或者更有可能出現的情況是,獨立由公司擁有的城鎮(zhèn)里提供有完善的社會服務,而其他人則無權享有?;蛟S他們也會給予這些“其他人”剛剛夠的供給,以確保他們不會忽然公然反抗。只要任何意義上比實際需要的人數多的人作為參與者,社會結構就可能解體。盡管那時的世界可能有足夠的財富以為人們提供體面的生活,但只要有辦法避免暴力沖突破壞現在的生活狀態(tài),特權階層可能就沒有政治意愿去那么做。所有這些從人權的角度而言都是極壞的消息。與人類生活中不斷增長的算法所帶來的更直接的擔憂相比,類似這樣的場景是在更遙遠的未來才會出現的,但可能不會像超級智能的到來那樣遙遠。不平等加劇帶來的機遇和挑戰(zhàn)將在《世界人權宣言》的下一個七十年間到來。

  盡管美國是包括人工智能在內的全球技術中心,但在打造一個全國性大團結的社會環(huán)境方面,美國的實踐遠遠少于許多歐洲國家,而這種團結結合持續(xù)不斷的努力,將會使人工智能造福于全體人民。美國的社會流動性低得驚人。研究發(fā)現,現在多達50%的工作容易受到自動化影響,包括傳統(tǒng)被認為安全的職業(yè),如法律、會計和醫(yī)學。[28]或者正如聯合國極端貧困和人權問題特別報告員菲利普·阿爾斯通(Philip Alston)在談到2017年對美國的正式訪問時所指出的:“自動化和機器人化已經使許多中年工人失去了他們曾自認為有保障的工作。在21世紀的經濟環(huán)境下,只有很小的一部分人能夠避免因為他們無法控制的惡劣情況而陷入貧困的可能。”[29]

  人們常說應該只有當技術變革所產生的好處能夠被廣泛地共享時,該變革才可以被允許繼續(xù)下去。[30]但正如剛剛提到的,反對不平等的激進措施只有在亂世才會發(fā)生,不然人們不會希望生活在這樣的時代。近幾十年來不平等的深化,以及選舉當選總統(tǒng)的人心懷貪婪與仇恨,完全缺乏正常的同理心,這些因素在使更多人享受美國的財富方面并不是一個好兆頭,不論情況在會議和政治活動中聽起來有多好。

  不平等的深化給人權也帶來很不好的影響,對于我們所面臨的風險再怎么強調也不為過。馬克思在《論猶太人問題》中的觀點是正確的,完全以權利為基礎的解放是沒有吸引力的。[31]一個建立在以權利為基礎的理想之上的社會錯失了太多。在過去70年中,人權運動通常沒有能夠重視一個更大的話題,即國內和全球的分配正義,而對于這個話題而言,人權必須成為其中一部分。人工智能可能最終會危及啟蒙運動的遺產,因為在大數據和機器學習的時代個性日益受到來自四面八方的威脅。同樣,因為這里受到威脅的是對社會整體的關注,而這種關注體現在現代關于分配或社會正義的思考中,人工智能同樣有可能會這樣做。只有在啟蒙精神和工業(yè)化帶來的技術可能性的引領下,這種關于分配和社會正義的現代思考才有可能實現。

  六、結論

  本文分別從短期、中期和長期角度探索了在人工智能越來越普及的環(huán)境下,人權可能面臨的諸多挑戰(zhàn)。其中一些挑戰(zhàn)已然現實存在,另一些挑戰(zhàn)則需要我們現在給予關注,即使它們可能在很長一段時間內無關緊要。日益加劇的不平等以及人工智能的產生很可能成為《世界人權宣言》下一個七十年的禍根。人類社會有充分的理由將人工智能置于其關注事項的首位。

  ([美]馬蒂亞斯·里塞(Mathias Risse),哈佛大學Lucius N.Littauer哲學和公共管理教授、哈佛大學約翰肯尼迪政府學院Carr人權政策中心主任。原文為:Mathias Risse,“Human Rights and Artificial Intelligence:An Urgently Needed Agenda”,41 Human Rights Quarterly,No.1(2019),pp.1-16.譯者:張馨月,中國人民大學法學院碩士研究生;校對者:陸海娜,中國人民大學法學院副教授,法學博士。)

  注解:

  
①For introductory discussions of AI,see Keith Frankish & William M.Ramsey eds.,The Cambridge Handbook of Artificial Intelligence,Cambridge University Press,2014;Jerry Kaplan,Artificial Intelligence:What Everyone Needs to Know,Oxford University Press,2016;Margaret A.Boden,AI:Its Nature and Future,Oxford University Press 2016.For background on philosophy of technology much beyond what will be discussed here,see David M.Kaplan ed.,Readings in the Philosophy of Technology,Rowman & Littlefield Publishers,2009;Robert C.Scharff & Val Dusek eds.,Philosophy of Technology:The Technological Condition:An Anthology,Blackwell Publishers 2014;Don Ihde,Philosophy of Technology:An Introduction,Paragon House(1998);Peter-Paul Verbeek,What Things Do:Philosophical Reflections on Technology,Agency,and Design,Pennsylvania State University Press,2005.See also Sheila Jasanoff,The Ethics of Invention:Technology and the Human Future,W.W.Norton & Company,2016.Specifically on philosophy and artificial intelligence,see Matt Carter,Minds and Computers:An Introduction to the Philosophy of Artificial Intelligence,Edinburgh University Press,2007.For an early discussion of how the relationship between humans and machines may evolve,see Norbert Wiener,The Human Use Of Human Beings:Cybernetics And Society,Coubleday,1956.

  ②See Daniel Kahneman,Discussion at Beneficial AI Conference:What Makes People Happy?(2017).On this subject,see also Julia Angwin et.al.Machine Bias,ProPublica(2016).On fairness in machine learning,also see Reuben Binns,“Fairness in Machine Learning:Lessons from Political  Philosophy”,81 Proceedings of Machine Learning Res.149(2018);Brent Daniel Mittelstadt et al.,“The Ethics of Algorithms:Mapping the Debate”,3 Big Data Soc.1(2016);Osonde A.Osoba & William Welser,An Intelligence in Our Image:The Risks of Bias and Errors inArtificial Intelligence,RAND Research Report 2017.

  ③On Big Data,see Viktor Mayer-Schnberger & Kenneth Cukier, Big Data:A Revolution That Will Transform How We Live,Work,and Think,Hodder,2014.On machine learning,see Pedro Domingos,The Master Algorithm:How the Quest for the Ultimate Learning Machine Will Remake Our World,Basic Books,2018.On how algorithms can be used in unfair,greedy,and otherwise perverse ways,see Cathy O'Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Penguin Books,2017.That algorithms can do a lot of good is of course also behind much of the potential that social science has for improving the lives of individuals and societies,see e.g.,J.D.Trout, The Empathy Gap:Building Bridgesto the Good Life and the Good Society,Viking,2009.

 ?、躍ue Donaldson and Will Kymlicka,Zoopolis:A Political Theory of Animal Rights,Oxford University Press,2013.

  ⑤For exploration of these possibilities,see Yuval Noah Harari,Homo Deus:A Brief History of Tomorrow,Harper,2017.

 ?、轜endell Wallach & Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford University Press,2010.

 ?、逽ee Sophia(Robot),Wikipedia.

 ?、郌or one author who thinks the singularity is near,see Ray Kurzweil,The Singularity is Near:When Humans Transcend Biology,Penguin Books,2005.

 ?、酓avid J.Chalmers,“The Singularity:A Philosophical Analysis”,17 J.of Consciousness Stud.,7(2010);Nick Bostrom,Superintelligence:Paths,Dangers,Strategies Oxford University Press,2016;Amnon H.Eden et al.eds.,Singularity Hypotheses:A Scientific and Philosophical Assessment,Springer 2012.

  ⑩David Hume,An Enquiry Concerning the Principles of Morals(J.B.Schneewind ed.,1983)(1751).

  ?First apparently in Nick Bostrom,“Ethical Issues in Advanced Artificial Intelligence”,in George Eric Lasker et al eds.,Cognitive,Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence,International Institute for Advanced Studies in Systems Research and Cybernetics,2003.

  ?Immanuel Kant,Groundwork for the Metaphysics of Morals(Arnulf Zweig trans.,Thomas E.Hill,Jr.& Arnulf Zweig eds.,(2002)(1785).

  ?Steve Petersen,“Superintelligence as Superethical”,in Patrick Lin,Keith Abney,Ryan Jenkins eds.,Robot Ethics 2.0:From Autonomous Cars to Artificial Intelligence,2017,p.322;Chalmers,supra note ⑨.See also Kahneman,supra note ②.

  ?Thomas Hobbes,Leviathan(1651).

  ?For the point about Hobbes,see Peter Railton,“Talk at New York University:Machine Morality”(2017).

  ?T.M.Scanlon,“What is Morality?”,in Jennifer M Shephard et al eds.,The Harvard Sampler:Liberal Education for the Twenty First Century Harvard University,2011.

  ?For speculation on what such mixed societies could be like,see Max Tegmark,Life 3.0:Being Human in the Age of Artificial Intelligence,Allen Lane,2017,p.161.

  ?Margaret Boden argues that machines can never be moral and thus responsible agents;she also thinks it is against human dignity to be supplied with life companions or care givers of sorts that are machines.See Margaret Boden,Panel at Beneficial AI Conference:AI and Ethics(2017).For impact of technology on human interaction,see also Sherry Turkle,Alone Together:Why We ExpectMorefrom Technology and Less from Each Other,Basic Books,2017.Others argue that certain types of AI would have moral rights or deserve other types of moral consideration;for Matthew Liao's and Eric Schwitzgebel's views on this,see S.Matthew Liao,Presentation,New York University Ethics and Artificial Intelligence Conference:Intelligence and Moral Status(2017).

  ?John Gerard Ruggie, Just Business:Multinational Corporations and Human Rights,W.W.Norton & Company,2013.

  ?Isaac Asimov,I,Robot,“Three Laws of Robotics”(1970)(1942).

  [2]Asilomar AI Principles,Future of Life Inst.(2017),How Do We Align Artificial Intelligence with Human Values?,Future of Life Inst.(2017).

  [22]On how machines could actually acquire values,see Bostrom,supra note ⑨,185-227;Wallach & Allen,supra note ⑥.

  [23]Nikolaos Aletras et al,“Predicting Judicial Decisions of the European Court of Human Rights:A Natural Language Processing Perspective”(2016).

  [24]Jane Wakefield,“AI Predicts Outcome of Human Rights Cases”,BBC News,23 Oct.2016.

  [25]Thomas Piketty,Capital in the Twenty-first Century,The Belknap Press of Harvard University,2014.

  [26]Walter Scheidel,Great Leveler:Violence and the History of Inequality from the Stone Age tothe Twenty-First Century,Princeton University Press,2017.

  [27]Claudia Goldin and Lawrence Katz,The Race Between Education and Technology,Belknap Press of Harvard University Press,2008.

  [28]Cate Brown,The Rise of Artificial Intelligence and the Threat to Our Human Rights,Rights Info(2017).

  [29]United Nations Office of High Commissioner for Human Rights,The Rise of Artificial Intelligence and the Threat to our Human Rights(2017).On the technological divide,see also Nancy Scola,Is Tech Dividing America?How an Engine of Prosperity Split the Haves From the Have-Nots—And how we can fix it,Politico(2018);see also Nicolas Yan,Automated Inequality,Harv.Pol.Rev.(2 Oct.2016).On AI and the future of work,see also Erik Brynjolfssonand Andrew McAfee,The Second Machine Age:Work,Progress,and Prosperity in a Time of BrilliantTechnologies,W.W.Norton & Company,2016;Jerry Kaplan,Humans Need Not Apply:A Guide to Wealth and Work inthe Age of Artificial Intelligence,Yale University Press,2016.

  [30]See,e.g.,AI and the Future of Work Congress.

  [31]Karl Marx,On the Jewish Question(Helen Lederer trans.,1958)(1844).

Abstract:The increasing presence of artificial intelligence creates enormous challenges for human rights.Among the short-term challenges are ways in which technology engages just about all rights on the UDHR,as exemplified through use of effectively discriminatory algorithms.Medium-term challenges include changes in the nature of work that could call into question many people's status as participants in society.In the long-term humans may have to live with machines that are intellectually and possibly morally superior,even though this is highly speculative.Artificial intelligence also gives a new relevance to moral debates that used to strike many as arcane.

  (責任編輯葉傳星)

打印|