當(dāng)前,人工智能技術(shù)迅猛發(fā)展,且已被廣泛用于生產(chǎn)生活場(chǎng)景,從智能家居到汽車(chē)的自動(dòng)駕駛,從醫(yī)療診斷的精準(zhǔn)輔助再到具有劃時(shí)代意義的生成式人工智能等。人工智能技術(shù)為人類社會(huì)生活帶來(lái)了巨大便利,同時(shí)伴隨人工智能的發(fā)展也引發(fā)出一系列關(guān)于人權(quán)風(fēng)險(xiǎn)的隱憂。
“人工智能的人權(quán)風(fēng)險(xiǎn)”是一個(gè)復(fù)雜而敏感的議題,不僅涉及到技術(shù)層面的倫理考量,也觸及人類社會(huì)對(duì)于公平、正義和尊嚴(yán)的深層次追求。在人工智能技術(shù)快速發(fā)展的同時(shí),必須深入思考人工智能的人權(quán)風(fēng)險(xiǎn),利用法制手段約束和引導(dǎo)人工智能技術(shù)的發(fā)展。
人工智能帶來(lái)哪些人權(quán)風(fēng)險(xiǎn)?
當(dāng)前人工智能正處于弱人工智能時(shí)代,關(guān)于人工智能的人權(quán)風(fēng)險(xiǎn)可以分為三類,分別是一般人權(quán)風(fēng)險(xiǎn),潛在人權(quán)風(fēng)險(xiǎn),以及強(qiáng)人工智能和超人工智能的人權(quán)風(fēng)險(xiǎn)。

仿生機(jī)器人吸引參觀者注意。佟郁 攝
一般人權(quán)風(fēng)險(xiǎn)涉及與數(shù)據(jù)有關(guān)的人權(quán)風(fēng)險(xiǎn),以及算法偏見(jiàn)和歧視性決策。
如果說(shuō)石油是工業(yè)的“血液”,那么數(shù)據(jù)就是人工智能的“神經(jīng)系統(tǒng)”,數(shù)據(jù)對(duì)于人工智能的發(fā)展至關(guān)重要,然而與數(shù)據(jù)有關(guān)的各個(gè)環(huán)節(jié)都存在著一定的人權(quán)風(fēng)險(xiǎn)。
在數(shù)據(jù)收集階段,未經(jīng)用戶明確同意的收集,超過(guò)必要限度的收集會(huì)侵犯用戶的隱私權(quán);人臉識(shí)別技術(shù)利用人臉進(jìn)行監(jiān)控、追蹤或識(shí)別身份等,增加了隱私權(quán)被侵犯的風(fēng)險(xiǎn)。
在數(shù)據(jù)處理階段,脫敏技術(shù)的不完善,用戶的隱私無(wú)法得到保護(hù),系統(tǒng)自身的網(wǎng)絡(luò)漏洞,將會(huì)造成被攻擊之后數(shù)據(jù)泄露的后果。
在數(shù)據(jù)使用階段,很多技術(shù)公司在獲取用戶信息之后又將其轉(zhuǎn)手賣(mài)出,這是對(duì)普通民眾個(gè)人信息權(quán)的嚴(yán)重侵犯;而近期大火的生成式人工智能,在驚艷世人的同時(shí),也會(huì)產(chǎn)生虛假信息,從而侵犯他人的名譽(yù)權(quán),隨意使用和重組他人作品,可能會(huì)構(gòu)成對(duì)他人知識(shí)產(chǎn)權(quán)的侵犯。
在數(shù)據(jù)存儲(chǔ)階段,集中存儲(chǔ)增加了使用便利性,也增加了泄露風(fēng)險(xiǎn)。例如近年來(lái)發(fā)生的某平臺(tái)的信息泄露事件,不僅嚴(yán)重侵犯了相關(guān)當(dāng)事人的隱私權(quán),更影響了社會(huì)的穩(wěn)定。
算法偏見(jiàn),是指在信息的生產(chǎn)、分發(fā)及核查的過(guò)程中對(duì)用戶造成的非中立立場(chǎng)影響,導(dǎo)致片面、失實(shí)等信息觀念的傳播。算法偏見(jiàn)可能是由于算法設(shè)計(jì)和開(kāi)發(fā)者自身的偏見(jiàn),也可能是訓(xùn)練數(shù)據(jù)的偏見(jiàn),更有可能是在人機(jī)交互的過(guò)程中,機(jī)器無(wú)意識(shí)且不加選擇地習(xí)得人類的一切倫理與喜好,包括偏見(jiàn)。
從技術(shù)角度來(lái)看,算法偏見(jiàn)無(wú)法避免。算法偏見(jiàn)會(huì)使人的平等權(quán)在無(wú)形之中被侵害,某些群體將逐漸成為機(jī)器歧視的對(duì)象,壓縮了他們的網(wǎng)絡(luò)生存空間。同時(shí),算法偏見(jiàn)引發(fā)的歧視性決策,會(huì)使某些群體的權(quán)益受到嚴(yán)重侵害。
潛在人權(quán)風(fēng)險(xiǎn)方面,隨著人工智能的進(jìn)一步發(fā)展,其決策的正確性和高效性已超越了人類主體,可以預(yù)見(jiàn)的是,在未來(lái),許多領(lǐng)域的決策主體都將從人變?yōu)闄C(jī)器。在提升效率的同時(shí),更極大地增加了人權(quán)風(fēng)險(xiǎn),最為棘手的就是責(zé)任承擔(dān)問(wèn)題。如,智能駕駛普及后,出現(xiàn)交通事故該由誰(shuí)承擔(dān)責(zé)任,這引發(fā)了學(xué)界和實(shí)務(wù)界爭(zhēng)論。傳統(tǒng)法學(xué)的主體均為人,如果機(jī)器決策成為常態(tài),人的主體地位會(huì)受到極大沖擊,這會(huì)影響法學(xué)的發(fā)展方向。
人工智能極大地提升各行各業(yè)的效率,同時(shí)也可能引發(fā)史上最嚴(yán)重“下崗潮”。人工智能技術(shù)能夠高效完成許多重復(fù)性、低技能的工作,這種現(xiàn)象將導(dǎo)致大量從事這類工作的勞動(dòng)力失業(yè)。
未來(lái)的社會(huì)是高度互聯(lián)化的社會(huì),具備一定技術(shù)素養(yǎng)才能在社會(huì)中立足,可是人工智能技術(shù)具有一定的門(mén)檻,對(duì)于無(wú)法掌握這些技術(shù)的民眾,可能就很難適應(yīng)社會(huì),這會(huì)影響社會(huì)的平等,影響部分民眾基本人權(quán)的實(shí)現(xiàn)。
強(qiáng)人工智能和超人工智能將對(duì)人類社會(huì)產(chǎn)生極大的沖擊。當(dāng)前最為先進(jìn)的生成式人工智能也只是弱人工智能的一種,其所能進(jìn)行的文本生成技術(shù),也只是人類大腦功能的一部分,并沒(méi)有達(dá)到真正像“人類思考”(強(qiáng)人工智能),更不會(huì)超越人類(超人工智能)。在未來(lái),人工智能不僅能像人類一樣思考和工作,更能夠?qū)W習(xí)人類的撒謊、貪婪等品質(zhì),作出對(duì)人類有危害的決策,如果機(jī)器演化出人類主宰世界的意識(shí),更可能通過(guò)各種手段清除人類而主宰整個(gè)世界。任何技術(shù)的發(fā)展都應(yīng)當(dāng)“以人為本”,更好地促進(jìn)人類的發(fā)展。

人工智能沉浸式體驗(yàn)項(xiàng)目“AI之夢(mèng)”吸引參觀者體驗(yàn)。湯彥俊 攝
如何約束人工智能技術(shù)應(yīng)用?
當(dāng)前,人工智能發(fā)展的速度已超出預(yù)期,縱觀全球各個(gè)主體的立法速度,落后于人工智能技術(shù)發(fā)展的速度。也就是說(shuō),如果任憑人工智能技術(shù)的發(fā)展,很快就會(huì)出現(xiàn)人工智能領(lǐng)域無(wú)法可依、亂象叢生的局面。
對(duì)人工智能進(jìn)行法律規(guī)制,可從以下幾個(gè)方面進(jìn)行。
首先,加強(qiáng)行政監(jiān)管式規(guī)制方案。
應(yīng)當(dāng)建立實(shí)質(zhì)性的人工智能算法人權(quán)保護(hù)標(biāo)準(zhǔn),及其相配套的審查和懲罰機(jī)制。通過(guò)標(biāo)準(zhǔn)化的方法實(shí)現(xiàn)算法決策機(jī)制一定程度的可視化乃至量化,并以此為基礎(chǔ)對(duì)算法應(yīng)用進(jìn)行進(jìn)一步規(guī)制。
通過(guò)行政方式收集信息和數(shù)據(jù),評(píng)估人權(quán)的保護(hù)狀況。因?yàn)樗惴ㄌ峁┱邲](méi)有足夠動(dòng)力,而算法使用者雖有動(dòng)力卻無(wú)實(shí)力負(fù)擔(dān)信息收集成本。
以行政介入方式確保少數(shù)群體權(quán)益得到充分表達(dá),以規(guī)范形式給予少數(shù)群體訴求表達(dá)的渠道和正當(dāng)性,可降低其表達(dá)訴求的行為成本并提高其訴求得到采納的機(jī)會(huì)。
其次,完善數(shù)據(jù)、算法等相關(guān)立法。
數(shù)據(jù)作為人工智能時(shí)代最重要的資源,對(duì)數(shù)據(jù)的規(guī)制應(yīng)當(dāng)進(jìn)一步細(xì)化,對(duì)于數(shù)據(jù)的收集、流動(dòng)、跨境流動(dòng),數(shù)據(jù)的存儲(chǔ)、處理,數(shù)據(jù)的使用、刪除及銷毀等,都應(yīng)當(dāng)建立相關(guān)的法律規(guī)制。
進(jìn)行算法有關(guān)的立法,應(yīng)要求AI系統(tǒng)的設(shè)計(jì)者和使用者公開(kāi)其算法的工作原理、數(shù)據(jù)來(lái)源及決策邏輯,特別是對(duì)于影響個(gè)人權(quán)益的重大決策;應(yīng)確保AI決策過(guò)程可以被人類理解和審查,提供決策理由的解釋,尤其是當(dāng)決策結(jié)果對(duì)個(gè)人產(chǎn)生重大影響時(shí);應(yīng)建立定期審查與審計(jì)流程,檢測(cè)并糾正算法中的偏見(jiàn),確保決策過(guò)程的公正性和無(wú)歧視性。
再次,通過(guò)市場(chǎng)進(jìn)行規(guī)制。
市場(chǎng)自發(fā)秩序驅(qū)動(dòng)算法用戶自主選擇,促使人工智能算法與傳統(tǒng)服務(wù)競(jìng)爭(zhēng),用戶最終選擇在人權(quán)保護(hù)方面表現(xiàn)最佳的服務(wù)。在充分競(jìng)爭(zhēng)的市場(chǎng)中,用戶可選擇其他提供公平服務(wù)的競(jìng)爭(zhēng)者,這使得不公正的算法服務(wù)提供者逐漸被淘汰。由于算法服務(wù)的邊際效應(yīng)遞減,公平服務(wù)提供者可因更多用戶而降低平均成本,增強(qiáng)競(jìng)爭(zhēng)力。在市場(chǎng)規(guī)范中,行政管理問(wèn)題得以解決,不需要復(fù)雜的歧視還原和監(jiān)管體系。市場(chǎng)主體自發(fā)調(diào)整,以滿足用戶選擇,實(shí)現(xiàn)價(jià)值沖突的均衡,替代低效的自上而下監(jiān)管,促進(jìn)算法服務(wù)的人權(quán)保護(hù)。
最后,保障知情、選擇與申訴權(quán)。
應(yīng)當(dāng)確保用戶了解服務(wù)的人工智能屬性、服務(wù)提供方身份、采集的信息、隱私保護(hù)政策和申訴渠道等實(shí)質(zhì)性權(quán)利。服務(wù)提供方也有義務(wù)解釋說(shuō)明其條款。
確保公共部門(mén)場(chǎng)景中,至少提供“2+1”的選項(xiàng)(兩個(gè)以上不同的人工智能程序及傳統(tǒng)方案)。商業(yè)行為場(chǎng)景中,至少要求提供傳統(tǒng)解決方案或選擇不接受服務(wù)。
確保能夠向算法提供方要求重新判斷和提供判斷依據(jù)等。在人權(quán)范疇內(nèi)權(quán)利受到侵害時(shí),主張停止侵害和侵權(quán)賠償?shù)?。同時(shí)有向政府指定行政機(jī)關(guān)說(shuō)明情況尋求救濟(jì)的權(quán)利。
人工智能的發(fā)展速度迅猛,其存在的“技術(shù)黑箱”,也讓人工智能專家對(duì)很多現(xiàn)象無(wú)法解釋??梢哉f(shuō),人工智能像是一個(gè)強(qiáng)有力的推進(jìn)器,讓人類社會(huì)再一次經(jīng)歷騰飛,在這美好的背后,更要警惕其帶來(lái)的人權(quán)風(fēng)險(xiǎn),通過(guò)法律規(guī)制引導(dǎo)保障人工智能技術(shù)健康、向善發(fā)展。(完)
受訪者簡(jiǎn)介:

肖君擁,北京理工大學(xué)法學(xué)院教授、博士生導(dǎo)師,國(guó)家人權(quán)教育培訓(xùn)基地北京理工大學(xué)科技人權(quán)研究中心執(zhí)行主任。中國(guó)法學(xué)會(huì)法理學(xué)研究會(huì)和憲法學(xué)研究會(huì)理事。著有《人民主權(quán)論》《國(guó)際人權(quán)法講義》《人權(quán)的道德維度》等。主講《國(guó)際人權(quán)法》獲北京市高校優(yōu)質(zhì)本科課程。曾數(shù)次參加聯(lián)合國(guó)人權(quán)理事會(huì)大會(huì)和邊會(huì)發(fā)言,多次赴美國(guó)、歐洲等地參加國(guó)際人權(quán)對(duì)話交流。