1000部做爰免费视频,婷婷蜜桃国产精品一区小说,家庭乱欲免费阅读全文,2020亚洲熟女在线观看,樱井莉亚全集bt种子,男男体育生乱yin高h肉汁,高辣文h书包网,17岁中国高清免费观看完整版,免费观看已满十八岁的电视剧动漫

中國人權領域唯一專業(yè)網站

張新寶 魏艷偉:我國人工智能立法基本問題研究

2025-02-19 10:49:33來源:數(shù)字法治微信公眾號作者:張新寶 魏艷偉
字號:默認超大| 打印|

摘要:我國人工智能立法需要解決立法目的、立法技術進路和主要利益關系等方面的基本問題。這一立法應以發(fā)展與安全并重為指導思想,以促進研發(fā)應用與防范主要風險為二元立法目的,構建具有體系性的發(fā)展促進制度,明確賦能增效的正面激勵規(guī)則和提供減負支持;構建重點突出的風險防范制度,動態(tài)科學研判風險、包容審慎規(guī)制風險。立法在技術進路上,應以實現(xiàn)體系化立法為基本方向、以優(yōu)化立法層次為當前主要目標;發(fā)揮顯現(xiàn)國家法治發(fā)展能力的立法特色;適用以搭建框架型秩序為準的立法技術,增強立法的體系性和協(xié)調性。立法在主要利益關系方面,應堅持以人為本的基本立場,建立反歧視、權益保障、數(shù)字教育和數(shù)字信息獲取等方面的規(guī)則;應建立與人工智能發(fā)展相適應的個人信息處理、知識產權保護等方面的協(xié)調規(guī)則;應建立并維護主體多元、利益分化、市場開放的人工智能競爭秩序;應在積極開展人工智能治理的國際合作、提升反制水平中,穩(wěn)步推進人工智能涉外法治。

關鍵詞:人工智能立法;風險治理;體系化立法;利益關系;以人為本

引  言

當前,我國人工智能步入了以大模型開發(fā)為主導的發(fā)展階段。在國家戰(zhàn)略引領下,我國人工智能產業(yè)構建了以應用需求為牽引、立足自主創(chuàng)新的完整技術體系和產業(yè)創(chuàng)新生態(tài)。面對全球日益激烈的人工智能治理之爭,我國一直高度重視構筑人工智能領域的規(guī)則優(yōu)勢,早在2017年《新一代人工智能發(fā)展規(guī)劃》提出的“三步走”的戰(zhàn)略目標中就明確了立法步調,近幾年來,國家立法規(guī)劃和工作計劃也持續(xù)布局人工智能領域立法。2024年3月13日,歐洲議會審議通過了全球首部人工智能監(jiān)管法規(guī)《人工智能法》(EU AI Act)。該法案以防范人工智能風險為主要定位,標志著全球人工智能監(jiān)管新浪潮的到來,也掀起了對人工智能監(jiān)管路徑選擇、方案建構的新一輪討論。

綜合來看,當前,我國已初步具備并不斷積累人工智能專門立法的一定基礎。在治理規(guī)則方面,我國已初步形成了以國家政策文件為引領,以網絡信息等領域立法為主體,以針對“生成式人工智能服務”“深度合成”“算法推薦”等問題的部門規(guī)章、地方性法規(guī)和國家標準等為枝干的規(guī)則框架,具有一定相關制度上的立法準備。同時,國內學界就是否對人工智能進行專門立法已達成初步共識,涌現(xiàn)了大量對人工智能治理問題(目標、原則和方法等)和部分對人工智能立法問題(立法定位、法律屬性和制度架構等)的討論研究,并已出現(xiàn)了兩部人工智能立法建議稿,具有相當?shù)睦碚搩洹?/p>

盡管關于人工智能的統(tǒng)一立法呼之欲出,但面對技術控制的科林格里奇困境(Collingridge's Dilemma),如何讓我國的人工智能立法更好地適應技術的動態(tài)發(fā)展、產業(yè)迭代、風險治理的不確定性以及背后復雜的利益關系等,仍需要進一步研究?;诖?,本文立足于我國國情和制度特點,對當前人工智能立法在立法目的、立法技術進路以及主要利益關系等方面的基本問題進行研究,提出學術建議供參考。

一、二元立法目的

(一)堅持發(fā)展與安全并重的二元立法目的

習近平法治思想指出,既要善于運用發(fā)展成果夯實國家安全的實力基礎,又要善于運用法治方式塑造有利于經濟社會發(fā)展的安全環(huán)境。發(fā)展和安全是數(shù)字經濟的根本支柱,作為辯證的整體,安全是發(fā)展的前提,發(fā)展是安全的保障。“統(tǒng)籌發(fā)展和安全”是我國當前科技法治的重要目的和原則,對于我國人工智能立法具有根本意義。

我國人工智能立法應當以習近平新時代中國特色社會主義思想特別是習近平法治思想為指導,以統(tǒng)籌發(fā)展與安全為基本遵循,不宜以單純的風險防范為單一的立法目的,而應以促進研發(fā)應用與防范主要風險為二元立法目的。首先,在全球人工智能競爭格局下,促進發(fā)展與防范風險實為秉要執(zhí)本的一體兩面,發(fā)展即最優(yōu)和最穩(wěn)定的風險防范路徑,風險防范亦是發(fā)展的底線要求,二元立法目的是契合我國人工智能治理需求的價值定位。其次,面對人工智能技術發(fā)展和風險樣態(tài)的高度不確定性,僅憑借單一的風險管制式立法或產業(yè)政策激勵立法,都無法有效應對顛覆性技術帶來的挑戰(zhàn),立法應當在尊重人工智能科技進步、鼓勵創(chuàng)新的背景下,通過法律規(guī)范的合理預期引導人工智能發(fā)展的方向和限度,發(fā)展激勵和風險治理應當協(xié)同互補。最后,我國在人工智能領域,既有技術先發(fā)優(yōu)勢,亦有國家制度優(yōu)勢,將促進發(fā)展作為人工智能立法的基本目的之一,有利于發(fā)揮立法在增進科技治理和產業(yè)發(fā)展政策的效能、激勵科技成果轉化、推動關鍵要素供給方面的體系性與規(guī)范性優(yōu)勢;同時,將防范主要風險作為人工智能立法的基本目的之一,是“以人為本”理念下保障公民合法權益的必然要求,既符合法律作為傳統(tǒng)風險控制手段的特性,也有利于在非傳統(tǒng)風險領域中引導建構相應的動態(tài)敏捷治理范式。

(二)“發(fā)展”:促進研發(fā)應用

1. 構建具有體系性的發(fā)展促進制度

作為發(fā)展數(shù)字經濟的主要路徑,人工智能創(chuàng)新發(fā)展需要建構切合產業(yè)特點、回應實踐需求的促進制度,其應當具備一定的體系性。第一,促進制度大致體現(xiàn)為“賦能”與“減負”兩個方向,即人工智能立法一方面應當規(guī)定正面激勵人工智能研發(fā)和應用的制度,另一方面應當提供包括減少合規(guī)成本、適當在稅收上給予扶助等在內的減負支持。第二,促進制度應當考慮人工智能產業(yè)的分層業(yè)態(tài)特點以及產業(yè)鏈的結構和價值屬性,能夠涵蓋數(shù)據(jù)、算力、模型、硬件、應用場景等關鍵要素和環(huán)節(jié),既包括宏觀機制上國家機關對人工智能科技資源的供給和合理配置,也包括具體制度上對關聯(lián)利益主體的權益保護、協(xié)調和行為激勵。第三,在具體的制度設計上,促進制度應當在吸收國內外科技激勵法治有益規(guī)則的基礎上,基于人工智能科技的特點和治理需求來探索、適用開放性的新制度。

2. 賦能增效激勵

具體而言,正面激勵措施主要包括:

第一,構建數(shù)據(jù)、算力、算法和模型等基礎要素和技術以及關鍵軟硬件研發(fā)等方面的基礎設施保障制度和創(chuàng)新發(fā)展規(guī)則。明確各級政府機關應科學制定人工智能發(fā)展規(guī)劃,建立和完善相關宏觀協(xié)調機制(如設置專門機關等),合理配置人工智能科技資源,促進重要科技資源(如公共數(shù)據(jù)、開源模型等)開放共享,推動產學研深度融合。

第二,專門制定促進人工智能創(chuàng)新與科技成果轉化的稅收優(yōu)惠政策和規(guī)則。一般而言,包括豐富稅收優(yōu)惠方式、推動稅收優(yōu)惠環(huán)節(jié)前置、建立風險投資上的稅收激勵機制、加強對中小型創(chuàng)新企業(yè)的稅收激勵力度等。除此以外,也可以對人工智能公共利益屬性明顯的特定環(huán)節(jié)(如安全治理、開源研發(fā))等提供一定的稅收優(yōu)惠激勵。

第三,加大對人工智能領域基礎科學研究和應用技術研發(fā)方面經費的財政補貼。例如,對特定領域內安全可靠的人工智能應用提供政府采購支持,同時拓寬增加科技投入的渠道和方式,例如允許技術研發(fā)機構向社會募集資金,鼓勵設置各類科學、創(chuàng)業(yè)與創(chuàng)新基金等。

第四,在人才培養(yǎng)與激勵層面,建立合理的科技獎勵法律制度,提升國家與地方各級政府對科技人員和轉化人員的評定機制和激勵水平,推動相關科研單位對科技成果轉化人員激勵措施的規(guī)范化,健全科技成果轉化獎勵方式(如股權獎勵)等;加強人工智能領域高端人才的交流引進,完善人才服務保障機制;明確并保障科技成果的知識產權歸屬,豐富人工智能科學技術成果轉化途徑,簡化科研單位和科技人員轉化科技成果的程序,優(yōu)化科技成果轉化效益的分配方式。

此外,還可以基于特定目的綜合應用上述措施,例如支持應用于公益領域的人工智能的研發(fā),加大對中小型創(chuàng)新企業(yè)的激勵力度等。同時,應支持引導適應人工智能治理需求和特點的新型機制,包括以技術促進技術發(fā)展等,如開發(fā)人工智能保險產品,推進人工智能在政務服務等領域的示范應用,建設人工智能應用場景聯(lián)合研發(fā)平臺,建立人工智能需求響應平臺等。

3. 提供減負支持

人工智能立法應通過明確相關主體的權利、合理設定相應的義務和責任規(guī)則、豐富包容審慎監(jiān)管工具以及鼓勵引導行業(yè)自治等方式,降低研發(fā)主體等的合規(guī)成本。除稅收抵免等具體優(yōu)惠措施之外,減負支持主要體現(xiàn)為:首先,人工智能立法應合理界定規(guī)制范圍,明確相關主體的權益、義務和(尤其是研發(fā)環(huán)節(jié)的)相應利益協(xié)調規(guī)則,減少研發(fā)主體在研發(fā)過程中不必要的義務門檻。其次,研發(fā)應用環(huán)節(jié)相關主體的義務和責任應當成比例,與其權益和控制能力相稱。最后,善用包容審慎的監(jiān)管工具。例如,利用監(jiān)管沙盒制度,通過在開發(fā)和投放市場前建立受控的實驗和測試環(huán)境,雙向加強研發(fā)應用主體和監(jiān)管機關對人工智能應用的利益、風險和影響的理解,從而促進人工智能創(chuàng)新。

(三)“安全”:防范主要風險

1. 構建重點突出的風險防范制度

“安全”同樣是人工智能立法的重要目的。一般而言,“安全”至少涉及個人利益、公共利益和國家利益等維度的考量,包括國家安全、公共安全(程度上可進一步區(qū)分為重大和一般等)、非公共安全等分類。人工智能立法在安全目的上的最大挑戰(zhàn)即建構風險治理規(guī)則,然而人工智能風險不限于傳統(tǒng)可計量的物理風險,其具有高度的不可預見性,故立法不能寄希望于“畢其功于一役”實現(xiàn)對人工智能風險的完整規(guī)制,而應構建重點突出的風險防范制度。第一,風險防范制度既要基于“風險”本身的性質出發(fā),考慮風險的發(fā)生概率、危害范圍和程度等,也要考慮風險的事前和事后規(guī)制效益,合理配置義務和責任規(guī)則。第二,應基于人工智能研發(fā)和應用的特點,既要明確當前需重點防范的風險,同時也要動態(tài)開放地研判、防范新的潛在風險。第三,“安全”目標的實現(xiàn),并非旨在百分之百地規(guī)避風險,而是旨在將風險控制在合理的范圍內,故風險規(guī)制應從單一的具體風險管控,轉向促進多元主體協(xié)同治理、風險有效分級分類規(guī)制、全周期治理和形成有效的可問責機制。

2. 動態(tài)科學研判風險

在法律語境中,“風險”一詞通常被限制于“科學”證實的范圍內,因此,過去法律重點聚焦于健康、環(huán)境等領域的“物理風險”,并形成了穩(wěn)定的調整范式;但人工智能等數(shù)字技術的發(fā)展,改變了(或者說延展了)傳統(tǒng)“物理風險”的范圍、程度甚至樣態(tài),如產生更難以控制的公共風險,且這種變化是動態(tài)的。同時,人工智能發(fā)展并非簡單線性的,其中最復雜的并非沒有人類參與的技術,而是深深嵌入相應人類網絡的技術,換言之,人工智能風險存在相當?shù)膫惱砘厔荨?/p>

由此,人工智能立法應明確當前需重點防范的風險,同時設置有利于動態(tài)開放識別、防范新風險的規(guī)則接口。第一,人工智能立法應當對危害國家安全、公共安全的風險以及違反公序良俗的倫理風險等進行研討和界定,設置專門的制度進行防范,提升預防風險與化解風險的能力。第二,人工智能立法應當設置預防人工智能風險的通?;鶞?,明確關于人工智能的穩(wěn)健性和網絡安全水平的一般規(guī)則和基本要求,以及通過后續(xù)立法等對人工智能安全的標準化要求,增強系統(tǒng)與應用的安全性與可靠性。第三,基于人工智能與產業(yè)發(fā)展融合并為高質量發(fā)展提供新動能的實踐特點與需求,人工智能立法可以設定不同領域或場景下的一般規(guī)則或基礎風險防范要求,以及為加強對潛在風險的預防能力,對于系統(tǒng)性風險等新的潛在風險,人工智能立法可以留予一定的授權立法口徑。

3. 包容審慎規(guī)制風險

歐盟《人工智能法》基于風險分類的監(jiān)管邏輯,根據(jù)風險發(fā)生危害的可能性和程度,將人工智能的相關對象(包括實踐、系統(tǒng)和模型,并以系統(tǒng)為主要規(guī)制對象)分為禁止的人工智能實踐,高風險的人工智能系統(tǒng)、特定(意圖與自然人直接互動的)人工智能系統(tǒng)和其他人工智能系統(tǒng),以及通用人工智能模型。除禁止具有不可接受的風險的人工智能實踐外,歐盟《人工智能法》主要針對高風險的人工智能系統(tǒng)實施上游治理,規(guī)定了嚴格的審查要求以及事前、事中和事后的規(guī)制義務等,對高風險的人工智能系統(tǒng)以外的人工智能系統(tǒng)僅規(guī)定有限的合規(guī)義務或允許自由開發(fā)使用,同時對通用人工智能模型規(guī)定了特定的風險防控規(guī)則。當前,國內學界對歐盟風險監(jiān)管方案不足之處的討論主要包括:一是認定標準和監(jiān)管成本過高,二是針對人工智能系統(tǒng)、通用性大模型的一體化分類不符合人工智能風險治理的特點,三是整體上風險防控方案不夠全面充分且責任部分失衡。

對人工智能技術風險存在技術主義和制度主義兩類認知方式。技術主義視角更側重于人工智能風險和人的互動過程,主張關注風險于應用中的場景化特征;制度主義視角更關注風險與基于組織的決策、行為之間的內在關聯(lián),更偏向于整體上的全面橫向監(jiān)管。歐盟的風險監(jiān)管方案明顯體現(xiàn)出了制度主義視角下全面橫向強制性監(jiān)管的特征,當前對此風險分級分類方案的批評意見也多基于對此方案效能的質疑或主張風險場景化治理的偏好。相較于歐盟的風險分級分類方案,當前國內專家學者起草的兩部人工智能立法建議稿都試圖建構更符合我國國情的風險分級分類方案,在分級上主要采用更為寬松的兩分思路,同時,在分類上還考慮對特殊應用場景予以特別規(guī)定,體現(xiàn)了既具備宏觀協(xié)調的統(tǒng)一規(guī)制規(guī)則,也考慮重點領域和應用場景的風險規(guī)制立場。

總體而言,為打造可審核、可監(jiān)督、可追溯和可信賴的人工智能技術,我國人工智能立法在風險規(guī)制上應當堅持包容審慎的態(tài)度:第一,風險治理無法僅依賴于行政監(jiān)管,而應當以多元主體協(xié)同治理為準,構建以政府監(jiān)管為主導、行業(yè)企業(yè)自律、社會協(xié)同參與的多元治理體系,故除必要的監(jiān)管規(guī)則外,應更多鼓勵行業(yè)制定更及時和敏捷的自律規(guī)范、標準,公開有利于企業(yè)自我合規(guī)的示范性案例等。第二,科學設置風險分級分類管理規(guī)則,動態(tài)科學研判風險,明確對重點風險的監(jiān)管要求,并且通過科技倫理審查、強制性風險評估或管理備案、動態(tài)監(jiān)測預警和響應等機制,強化對風險的動態(tài)敏捷監(jiān)管。第三,遵循人工智能全生命周期治理的邏輯,引導全流程中相關主體的風險管理應對機制的建立,并且針對人工智能應用的特點,加強相關主體對投入市場后的人工智能應用的監(jiān)測管理義務。第四,盡管受預防性法治理念影響,相較于事后救濟,對數(shù)字技術風險的規(guī)制更關注事前預防,但在事前規(guī)制機制以外,還應當建立有層次的問責機制,設立專門機關增強監(jiān)督效能。同時,綜合使用軟硬法手段,不同人工智能義務主體承擔的責任應當與其投放人工智能的目的、其對人工智能的控制能力、人工智能涉及領域等相稱,從而合理設置責任和留予適當?shù)呢熑位砻饪臻g。

二、立法技術進路

(一)“人工智能法”的立法層次

綜合考察當前全球人工智能領域的立法實踐,以歐盟為代表的統(tǒng)一監(jiān)管立法模式,通過更具體系性的規(guī)范內容和由專門機構統(tǒng)一監(jiān)管等方式,實現(xiàn)對人工智能領域的整體規(guī)制;而以美國為代表的以創(chuàng)新驅動為基準、主要依靠軟性規(guī)則引導市場主體行動的模式,則主要依賴較為分散的各類法案實現(xiàn)對人工智能重點場景或相關問題的專門治理。為構筑人工智能發(fā)展的制度優(yōu)勢,我國應當在人工智能這一新興領域實現(xiàn)立法的體系化,而在立法技術上,跨法律部門的領域性立法,需要具有整體性、符合多元治理方向的立法設計。相較于歐盟體量龐大、過細過嚴的《人工智能法》,當前我國人工智能立法并不追求一次性形成囊括所有人工智能問題的“大而全式”的法律,而應當考慮,如何推動形成立法層次合理的規(guī)則框架。

關于我國人工智能領域的立法布局,當前主要有如下五類觀點:(1)主張人工智能立法分為兩個層次,基礎層次為具有公法面向的國家安全、網絡安全和個人信息保護等現(xiàn)有涉及人工智能關鍵要素的立法,第二層次為基礎層次之上的人工智能法內容層次。(2)主張人工智能立法應遵循現(xiàn)有的科技法制框架,形成包含科技市場法、風險管制法和科技政策法在內的專門科技立法層,以及針對應用領域和功能的人工智能具體應用立法。(3)主張人工智能立法應為包含風險規(guī)制、產業(yè)促進、技術標準三個層次的領域法,形式上表現(xiàn)為,以基本法(以風險規(guī)制為主要內容)為主體,以產業(yè)促進法和技術標準法為分支。(4)主張人工智能立法應按照“總—分”式層次,現(xiàn)階段應先行制定具有統(tǒng)領性、總綱性的人工智能法律總則。(5)主張人工智能立法包含產業(yè)促進法和風險治理法兩組規(guī)范類型,前者包括市場法和政策法兩個方面,后者包含人工智能科技、人工智能要素和人工智能應用三個基本層次。前述觀點在人工智能立法基本范疇上差異不大,基本都認同人工智能立法至少應當包含產業(yè)促進和風險治理兩個方面,但在具體層次或構造上有所不同。若不拘泥于如何劃分具體的立法文本,前述建議皆可以為規(guī)則的體系化提供一定參考。

目前,我國對于新興科技問題的治理具有較明顯的治理事項分散、專門規(guī)則急用先行且層次不高(多為部門規(guī)章)的特點,這既是科技立法需面對的適應性和連續(xù)性挑戰(zhàn),也是應對技術更新、產業(yè)迭代等帶來的不確定性時的慎重使然。由此,也釋放出現(xiàn)階段人工智能立法最大的需求,即優(yōu)化立法層次,統(tǒng)合并協(xié)調涉及人工智能要素的已有規(guī)范,為人工智能領域的立法體系化提供具有方向性的基本規(guī)則,同時厘清人工智能治理的本質邏輯。由此,現(xiàn)階段擬制定的“人工智能法”一方面應當具有一定的統(tǒng)一性和專門性,能夠明確人工智能法律規(guī)范的基本范疇、統(tǒng)合人工智能治理的基本需求,另一方面應結構科學、內容適當,能夠為后續(xù)立法或進一步細化規(guī)則提供指引和充分的調適空間。具體而言,“人工智能法”應當是我國人工智能領域的基本法律,旨在定基調、明方向,僅對立法目的、調整對象、基本原則、重要制度以及一般規(guī)則(包含權利、義務和責任)等基礎性問題予以明確,具體的細節(jié)制度應在時機成熟時、實踐檢驗下通過行政法規(guī)、部門規(guī)章等規(guī)范性文件以及國家標準等確定。

(二)“人工智能法”的立法特色

現(xiàn)階段,全球人工智能治理處于從軟性規(guī)則治理轉向硬性規(guī)則建構的浪潮中。歐盟在成文立法上的積極態(tài)度與“領跑”身姿,包含了其對在人工智能領域借由規(guī)則制定能力再現(xiàn)數(shù)據(jù)領域《通用數(shù)據(jù)保護條例》的“布魯塞爾效應”的期待;但鑒于其立法對人工智能技術創(chuàng)新發(fā)展的限制程度,現(xiàn)階段似乎難以實現(xiàn)其旨在通過法律理念、法律制度上的潛在影響形成的超國家法律效應。除此之外,美國、新加坡等國家以及地區(qū)尚未出現(xiàn)綜合性或全面性的立法文本,仍以政策、文件或軟性規(guī)則為主。就本質而言,立法與否以及如何立法是一國法治發(fā)展需求和能力的問題。我國在人工智能技術發(fā)展上具有一定優(yōu)勢和影響力,在已有制度基礎和理論儲備上顯現(xiàn)出綜合性立法之可行性。人工智能立法在建構治理規(guī)則、制度等時,應當融通本國自主知識體系和部分國外經驗資源。現(xiàn)階段擬定的“人工智能法”,可以發(fā)揮顯現(xiàn)我國當前法治發(fā)展能力的立法特色,具體而言,體現(xiàn)為以下三方面:

第一,現(xiàn)階段擬制定的“人工智能法”,應當旨在解決深嵌于中國本土社會的人工智能治理問題,體現(xiàn)中國特色的法治理念。發(fā)展與安全并重是對中國人工智能治理需求的精準概括。因此,不同于以防范風險為主要目的的強監(jiān)管立法路徑,也不同于以市場理性為主要工具的弱立法路徑,我國人工智能立法應當充分發(fā)揮本國的制度優(yōu)勢和已有的通過法治激勵科技的經驗,探索建立和完善具有體系性的發(fā)展促進制度。在防范主要風險的問題上,我國人工智能立法亦應充分考慮本土社會語境。例如,在國家安全方面,生成式人工智能領域的技術滲透風險以及現(xiàn)代數(shù)字技術和資本的緊密結合,會在生成式人工智能技術的價值預設、傳播以及應用過程中給國家意識形態(tài)帶來安全風險,立法應當關注構建保障主流意識形態(tài)安全的機制。再如,我國在科技應用綜合治理思路上有高度的“以人民為中心”的追求,針對大眾關切的問題和領域,形成了未成年人互聯(lián)網特別保護、一鍵關閉算法推薦服務、深度合成生成內容標識義務等制度。人工智能立法應當繼續(xù)堅持以解決人民的直接、現(xiàn)實利益問題為實踐路徑,吸納、提煉和建構適應本土治理需求的規(guī)則和制度。

第二,現(xiàn)階段擬制定的“人工智能法”,應當在本國產業(yè)和技術實踐需求、實在法體系與規(guī)范的牽引下,立足于中國自主的法學知識體系,同時適當將域外的法律實踐經驗作為研判本國問題的一定論據(jù)。在中國自主的法學學科體系的自我革命和自我完善過程中,數(shù)字法學等新興“領域法學”學科,具有對應法治實踐不同領域的“實用性”,顯示出從“部門法學”向“綜合法學”發(fā)展的轉變。“人工智能法”作為新興領域立法,在立法背后的知識供給上,同樣應定位于領域法學的特點,以問題導向和目標導向為主,回應如何引導人工智能發(fā)展和如何因應人工智能沖擊的雙向挑戰(zhàn),并且適應我國已有的網絡治理、個人信息保護、數(shù)據(jù)安全保護等方面的法律制度。同時,一般認為,法典化、體系化程度較低的部門法(或領域法)往往受比較法的體系約束更弱,即不會特別偏向于已有的成文法文本,而更多功能性地觀察動態(tài)的法律和實踐,與其說依賴形式論據(jù)上的借鑒,毋寧說利用域外法治中有用的分析框架。例如,過去我國在個人信息保護領域,就于防御性的隱私權和支配性的個人信息自決權的傳統(tǒng)路徑中,建構了適宜本土、平衡個人信息保護和數(shù)字經濟發(fā)展的個人信息保護制度。人工智能立法在規(guī)則設計上需要平衡共性和個性之間的關系,即以中國實踐經驗為基礎,通約具有相同特質的認知、判斷和行為方式,沉淀和明晰適宜本土的個性規(guī)則。

第三,現(xiàn)階段擬制定的“人工智能法”,應當具有國際視野、彰顯本國理念,釋放出規(guī)則形成在人工智能治理上的域外效應。就具體規(guī)則而言,受限于現(xiàn)實要求、效力層級等因素,當前已有規(guī)則針對的僅為在中國境內提供相應服務的情形,而“人工智能法”應當在相應規(guī)定中合理擴大域外管轄范圍,以增強規(guī)則的域外效力。此外,釋放出我國人工智能立法的域外效應,并非指刻意地推廣法律制度和理念,而是以法律制度層面的包容性為基準,發(fā)揮我國在人工智能科技實力、市場體量以及企業(yè)影響力等方面的優(yōu)勢,在積極參與國際規(guī)則制定的同時,促使國際性大企業(yè)等主體改變過去以西方規(guī)則為主的合規(guī)策略。在人工智能發(fā)展的不確定性前,治理規(guī)則同樣形塑于主權國家間的平等互動。對于發(fā)展人工智能,立法應當堅持以人為本、智能向善的立場,通過推動人工智能能力建設方面的國際合作、加強面向發(fā)展中國家的合作與援助等,促進技術和價值觀上的相互理解。

(三)“人工智能法”的立法技術

“人工智能法”的立法技術,應既體現(xiàn)對一般意義上構建人工智能領域法律秩序的考量,也包含對具體規(guī)則的結構安排、概念選擇、語詞使用等的斟酌考慮。一般而言,粗放型立法技術有助于快速構建框架型秩序,而精細化立法需要更長期、反復的立法實踐,適用于構建更高程度的類型化行為模式。鑒于人工智能立法的實踐需求和技術條件,當前立法處于構建框架型秩序以使人工智能在一定方向和合理限度內發(fā)展的階段。面對人工智能發(fā)展的巨大潛力和潛在風險,一方面,應當慎重考慮如何從初期的軟性規(guī)范過渡到硬性規(guī)則,以真正構建人工智能發(fā)展的基本秩序;另一方面,此種外部秩序的構建,應當從技術發(fā)展不確定性的前提預設出發(fā),旨在提供最基本的制度環(huán)境和可預期的信息支撐,從而為數(shù)字社會留予合適的發(fā)展空間??蚣苄土⒎ㄏ乱?guī)則的修改成本往往會更高,故更需要發(fā)展具備動態(tài)性和彈性空間的條款。當前人工智能立法的難題同樣包含立法技術上的挑戰(zhàn),制定“人工智能法”應當注意以下三方面:

第一,“人工智能法”應當凝練實質法律問題。數(shù)字社會發(fā)展會產生新的治理需求和模式。過去,與人工智能問題相關的立法實踐和研究范式大多集中或定位于數(shù)據(jù)、算法以及特定應用場景,多利用急快靈的小切口立法;但當前體系化立法的定位意味著,需要在更宏觀、統(tǒng)一的視角下建構人工智能治理框架,而非亦步亦趨地回應每一個新興技術。立法應善于在已有的立法資源中識別、提煉或吸收成熟的原則和規(guī)則,同時適當借鑒域外成功經驗。

第二,“人工智能法”應當著力于實現(xiàn)有效的規(guī)范性指引。當前,人工智能立法的重點在于提供基本的指引和預測,需要明確技術內涵、安全要求以及可以融入法律制度的倫理基礎等,立法行文、措辭應當明確、有針對性。在立法的陳述體系中,概念的一般性與概念特征的融貫性程度正相關。一方面,人工智能立法中存在法律概念界定上的問題,這一點對建構我國數(shù)字法學話語體系亦有重要影響。最基本的問題是,如何基于人工智能的本質屬性和核心特征等明確“人工智能”的法律定義?人工智能的法律定義會明確法律規(guī)范的適用范圍,影響法律秩序的涵攝范疇。例如,歐盟《人工智能法》利用了“系統(tǒng)”“實踐”“模型”等屬性表述,加之對關鍵特征(如自主性、適應性等)的描述,意圖在大的法律框架內實現(xiàn)對專用人工智能系統(tǒng)和通用人工智能模型的分別規(guī)制。目前在我國,“人工智能”這一詞匯的語用駁雜,缺少一致的法律定義。然而,法律定義并非一味追求教義學上的精準,關鍵在于能確立恰當?shù)母拍钔庋?,故需要在內在邏輯、譜系脈絡、價值理念和現(xiàn)有立法素材中作有效梳理。法律定義的選擇可以形成界分“人工智能法”與關于人工智能相關要素的法律規(guī)則的實質性標準。而對相關(義務)主體的概念選擇或建構、定義,亦是如此。另一方面,對相關主體的權利、義務以及責任的設置應當比例相稱,在考慮人工智能發(fā)展業(yè)態(tài)和傳統(tǒng)的監(jiān)管機制之間銜接效率的同時,基于相關主體既是規(guī)制對象亦是激勵對象的特點,明確不同技術風險類型、強度下的主體義務。

第三,“人工智能法”應當體現(xiàn)立法的體系性和協(xié)調性。一方面,立法的體系性意味著,“人工智能法”應當在統(tǒng)合人工智能的研發(fā)和應用過程以及各類關鍵要素等的邏輯下,形成以人工智能治理為核心的規(guī)則框架。人工智能領域立法涉及網絡安全、數(shù)據(jù)、算力、算法和實踐應用等多個方面,并關系到個人信息、數(shù)據(jù)、算法、深度合成、生成式人工智能等領域的諸多已有規(guī)則,故當前的“人工智能法”應當從人工智能的屬性和特征出發(fā),以識別、建立人工智能治理邏輯下的規(guī)則為核心,對于跨領域的特性下不可避免地涉及到的僅與人工智能某一要素有關的規(guī)則,妥當適用援引的立法技術,在減少法律的不確定性的同時,避免法律規(guī)范無用的重復。另一方面,立法的協(xié)調性意味著,應考慮人工智能治理實踐的特殊需求,尤其是在牽涉到與在先權益保護規(guī)則的協(xié)調問題時。例如,當前,對于人工智能數(shù)據(jù)訓練階段的數(shù)據(jù)獲取問題,剛性適用現(xiàn)有的個人信息保護、知識產權保護等方面的規(guī)則,可能會對人工智能的研發(fā)應用質量的提升構成法律障礙,且此等障礙亦并非在利益衡量的基礎上保護私人權益的最佳方式,故仍應通過建構例外規(guī)則或特別規(guī)定等方式,協(xié)調平衡不同利益主體之間的關系。此外,“人工智能法”作為領域性立法,會橫跨傳統(tǒng)部門法,而法律規(guī)范的橫向銜接效率亦是法律融貫性之重要基準。例如,涉及人工智能的部分責任規(guī)則可能會體現(xiàn)在其他已有的精細化立法(例如民法、刑法等)以及之后續(xù)造的細節(jié)性制度中,因此,應盡可能保持法律語言的一致和通順,降低法律適用成本。

三、主要利益關系與制度設計

(一)堅持以人為本

“以人為本”是我國對人工智能發(fā)展的基本立場,其應當是貫穿我國人工智能立法始終的價值目標。在過去以軟法為人工智能治理主要路徑的階段,以人為本的人工智能(Human-Centric Artificial Intelligence, HAI)是全球通行的人工智能治理原則,亦被表述為人工智能發(fā)展的核心倫理原則。其通常包含兩方面:一是,人工智能發(fā)展的本質目的應當是服務人類、尊重人類尊嚴和個人自主權;二是,人工智能的運行方式應可由人類適當控制和監(jiān)督。其隱含了兩條實施路徑:一是,人工智能的設計、開發(fā)和應用的內部過程應當合乎倫理和法治;二是,應當通過外部的硬性法律規(guī)則或軟性規(guī)范以及相應的審查監(jiān)督機制等,使人工智能的發(fā)展過程可被人理解和控制。

“以人為本”的理念對于人工智能立法基本原則的確立具有重要意義,無論是以權利保護為基準的治理原則,還是以滿足應用領域的實質需求為基準的治理原則,本質上都要求人工智能發(fā)展的實質目的是增進人類福祉,都要求人工智能以可持續(xù)和環(huán)境友好的方式被研發(fā)和應用。當前國內學界發(fā)布的人工智能立法建議稿在基本原則設計中,大多參考了倫理治理路徑下對于建立可信賴人工智能的原則性要求,如公平公正、公開透明、可解釋、人工可控、安全、可問責等。同時,鑒于人工智能倫理融入法律的路徑包含軟法化方式以及利用關于共同體倫理的自我規(guī)制機制,“以人為本”作為倫理原則的展現(xiàn),還會被直接填充入人工智能法,典型如被直接規(guī)定為一項原則和關于綠色原則的規(guī)定等。

同樣,在個人與自動化(或自主性)機器及其背后的利益主體之間,存在愈發(fā)巨大的數(shù)字信息、資源和技能上的差異,進而產生公平、非歧視以及弱勢群體保護等層面的問題,人工智能立法應關注這種差異和背后潛在的社會風險。當前學界也愈發(fā)關注技術、倫理與法律之間的融貫性規(guī)則的建構,尤其是凝結內在體系中價值理念的一般原則,應當具備真正的可操作性而非僅停留在價值宣示層面,即原則的規(guī)則化問題。由此,在“以人為本”的理念下,人工智能立法至少還應具備以下三方面的規(guī)則設計:

第一,人工智能立法應建構應對算法歧視等長遠、隱蔽的倫理風險的規(guī)則。相較于人類主觀意圖造成的顯性歧視,人工智能算法等造成的隱性歧視將會產生更大的倫理風險。因此,在確定公平公正的基本原則的基礎上,還須設立有效的反歧視機制規(guī)則,包括明確針對人工智能算法歧視的審查機制,在風險影響評估等中增強歧視識別基準的可用性,如動態(tài)建構差異化的受保護特征清單等,在后續(xù)的細節(jié)制度或示范性流程化規(guī)范中都應貫穿此價值要求。

第二,人工智能立法應當在切實保障相關主體合法權益的同時,確保人工智能可問責、可救濟。充分尊重并保障各群體的合法權益,既包括明確人工智能研發(fā)者、運營者等利益主體的合法權益、義務和法律責任,還包括利用有效的救濟機制保障人工智能使用者和其他受影響者的合法權益,以及對基于年齡、生理狀況和人工智能的特殊社會影響等產生的數(shù)字弱勢群體的權益進行特別保護,如鼓勵、支持適應數(shù)字弱勢群體接入能力的人工智能產品或服務,規(guī)定針對未成年人使用者的防沉迷規(guī)則等。

第三,人工智能立法應當回應數(shù)字鴻溝下的數(shù)字教育和數(shù)字信息獲取問題,一方面明確國家機關在提升國民數(shù)字素養(yǎng)、分享人工智能風險信息和應對方法等方面具有提供服務或作出一定行動的職能,另一方面通過設置合理的信息披露義務(亦稱透明度義務),要求具備人工智能技術能力的主體在開發(fā)、應用等階段對受影響者提供必要的信息和說明。當前,已有規(guī)范就自動化決策、算法推薦、深度合成、生成式人工智能等問題規(guī)定了相應的信息披露義務,主要在于解決服務提供者與使用者之間的信息不對稱問題。人工智能立法應當吸收并進一步補充、完善,建構更具有體系性的信息披露義務規(guī)則,既包括特定主體對使用者、社會公眾以及監(jiān)管機關等的合理信息披露義務(將更多體現(xiàn)為硬性規(guī)則),也適當考慮人工智能價值鏈中的相關參與者之間的必要(主要是與風險相關的)信息披露義務。

(二)協(xié)調相關權益

人工智能的研發(fā)和應用必然涉及多元主體的利益。為發(fā)揮立法在人工智能治理領域的積極效用,人工智能立法應協(xié)調好多元主體間復雜的利益關系。人工智能立法協(xié)調相關主體權益,以促進人工智能的研發(fā)和應用、防范人工智能主要風險的二元立法目的以及以人為本的理念為基本指引。面對數(shù)據(jù)質量會對人工智能的性能和效果產生決定性影響的現(xiàn)實,人工智能立法應協(xié)調人工智能研發(fā)者、運營者在人工智能數(shù)據(jù)訓練等方面的利益與在先的知識產權、個人信息權益之間的關系,已有的權益保護制度不足以適應人工智能的研發(fā)和應用現(xiàn)實中利益主體的需求。人工智能立法應當在保障個人私權免受不當侵蝕的前提下,支持人工智能算法和基礎模型等的創(chuàng)新發(fā)展,針對當前數(shù)據(jù)獲取等方面的難題,適當建立例外規(guī)則或責任豁免規(guī)則,建構適應人工智能發(fā)展需求的新制度:

第一,建立適應基礎模型數(shù)據(jù)訓練和模型發(fā)展的個人信息處理制度。促進人工智能發(fā)展需要減輕傳統(tǒng)個人信息保護領域對個人同意的路徑依賴,如適度放寬個人信息處理的目的限制原則,建立個人信息處理同意的集中獲取規(guī)則,強化告知的有用性以適當減輕同意的形式要求,引入新的個人信息處理合法性事由等,將個人信息保護的重點從收集端的事前限制,適當轉移至強化人工智能責任主體合規(guī)處理信息、利用數(shù)據(jù)的環(huán)節(jié),如實施強制性個人信息影響評估并進行全周期監(jiān)管。

第二,建立與人工智能發(fā)展相適應的知識產權規(guī)則與配套制度。當前人工智能的研發(fā)和應用過程中既涉及數(shù)據(jù)獲取階段使用作品的合法性問題,如在輸入端使用他人作品時能否構成合理使用,也涉及后續(xù)利用階段人工智能生成內容的著作權問題,如生成內容的可版權性判斷、版權歸屬,以及當人工智能生成內容與他人作品相同或實質性相似時是否構成侵權。立法可以通過增加“數(shù)據(jù)挖掘”作為合理使用的特定情形等方式,減少提升人工智能數(shù)據(jù)訓練質量的法律障礙,但此等使用不應當影響對作品的正常使用,不應當損害著作權人的合法權益。同時,應通過相應的技術措施和信息披露等方式降低侵權風險??梢酝ㄟ^建構一定的法定許可(或強制許可)規(guī)則并完善相應配套規(guī)則,支持利用人工智能生成內容進行科學研究和文化創(chuàng)作活動。

第三,探索建構促進人工智能產業(yè)發(fā)展的權益分配或利益分享機制。例如,針對高質量數(shù)據(jù)供給不足問題,探索建立公平公正的人工智能訓練數(shù)據(jù)開放使用機制,保障人工智能領域的數(shù)據(jù)要素供給,鼓勵相關主體開展大數(shù)據(jù)與人工智能技術的協(xié)同研發(fā)、大數(shù)據(jù)與人工智能產業(yè)的應用融合。再如,針對對研發(fā)主體的激勵不足問題,明確人工智能研發(fā)者、運營者等相關主體在人工智能的研發(fā)和應用過程中的合法權益,如知識產權、數(shù)據(jù)財產權益等。又如,構建人工智能生成內容的多方權益共享機制和算法模型流通中的利益分享機制等。

(三)維護競爭秩序

“競爭”是預設了競爭主體的存在、多元化和相互之間的利益沖突和爭奪的動態(tài)開放過程。只有確保競爭者的多元和市場的開放,競爭的“對抗”特性才會在“知識發(fā)現(xiàn)”上形成對競爭者的激勵機制,創(chuàng)造一個有可能刺激創(chuàng)造性突破的環(huán)境。在集中度高的市場環(huán)境中,純壟斷者往往缺少進行最優(yōu)水平創(chuàng)新的激勵。但如果競爭性市場中的企業(yè)能呈現(xiàn)出多元化趨勢,那么,即使市場中不可避免地存在規(guī)模巨大的企業(yè),此類企業(yè)受對創(chuàng)新的激勵的程度也會更高。同時,競爭性市場中的創(chuàng)新水平也取決于企業(yè)享有創(chuàng)新成果的程度。因此,為確保人工智能產業(yè)生態(tài)的良性發(fā)展,需要構建主體多元、利益分化、市場開放的競爭秩序,推動市場主體走向效率和技術進步。

當前,人工智能發(fā)展存在潛在的技術壟斷風險。整體來看,一方面,人工智能研發(fā)的投入成本高,加之專業(yè)芯片、算力、大規(guī)模數(shù)據(jù)和專業(yè)技術等關鍵要素多被集中控制于少數(shù)科技巨頭企業(yè)手中,降低資源質量和賦能價值的同時,易形成相關產業(yè)的進入壁壘;另一方面,在當前人工智能的“模型—服務”業(yè)態(tài)下,前端開發(fā)的累積優(yōu)勢會通過規(guī)模經濟和網絡效應等進一步輻射至下游應用市場,使優(yōu)勢方在人工智能相關市場中得以鞏固或擴大市場力量,進一步加劇市場壁壘、損害競爭。此外,人工智能應用也會帶來對競爭秩序的挑戰(zhàn),尤其是算法共謀行為,即經營者利用算法在信息獲取、傳遞、分析以及自動化決策等方面的優(yōu)勢,以更隱蔽的方式達成合意。算法共謀會引發(fā)市場失靈等負外部性問題,典型情況如,通過基于高級分析或機器學習技術的定價算法,經營者可以對市場需求、競爭對手的行為以及市場趨勢作出快速回應并優(yōu)化定價,此種動態(tài)定價技術在提升決策效率的同時,也強化了經營者之間的相互依賴效率,便于其在市場上形成隱性共謀。壟斷行為的長期后果不僅包括價格提高,更包括失去創(chuàng)新。盡管針對算法帶來的新型壟斷難題,當前已出現(xiàn)一些專門應對措施,但在當前的反壟斷規(guī)制框架下,對此類共謀行為仍然存在認定和歸責方面的難題。對于此難題,學界關注到了相關法規(guī)應擴大主體認定范圍、明確共謀信息交流認定方式、確立算法壟斷行為規(guī)制標準、形成算法透明度要求規(guī)則和專門性監(jiān)管執(zhí)法工具等應對方法,這些都需要人工智能立法在治理規(guī)則上先作一般性統(tǒng)籌。

保護良好的人工智能生態(tài)系統(tǒng)、維護人工智能市場的競爭秩序應當考慮:第一,在宏觀層面制定并完善競爭政策,推動智能要素的基礎設施建設和形成數(shù)字資源調度利用制度,有效降低市場進入成本。第二,人工智能立法應充分考慮人工智能產業(yè)分層業(yè)態(tài),形成鼓勵公平交易、自由選擇的基本競爭原則,對利用人工智能實施的壟斷行為、不正當競爭行為作出一定專門性規(guī)定,并授權細化規(guī)則的制定,在鼓勵實施包容審慎監(jiān)管的同時,善用軟性規(guī)則加強對企業(yè)進行自我審查和合規(guī)整改的引導。第三,提高反壟斷和反不正當競爭執(zhí)法水平,綜合運用事前、事中及事后規(guī)制工具,提升市場監(jiān)管措施的區(qū)分度和顆粒度。第四,探索新的動態(tài)監(jiān)管機制(如監(jiān)管沙盒),通過適當監(jiān)管、一定豁免和引導企業(yè)自律管理,降低中小型創(chuàng)新企業(yè)風險合規(guī)的成本,鼓勵研發(fā)、應用與監(jiān)管機制上的雙向創(chuàng)新。

(四)推進涉外法治

人工智能的機遇、風險和挑戰(zhàn)本質上是全球性的,人工智能治理需要(尤其是在基本安全層面)形成全球共識和加強國際合作。在日益復雜的地緣政治背景下,人工智能發(fā)展也被賦予了國家間競爭的意義,人工智能技術先發(fā)國家具有將技術優(yōu)勢轉化為制度權力的機會,當前人工智能國際治理邁向了主權國家戰(zhàn)略博弈的新階段。人工智能立法應妥善應對國際競爭與合作的內在張力。我國一直積極參與人工智能全球治理,先后發(fā)表或參與簽署了《全球人工智能治理倡議》《布萊切利宣言》《中法關于人工智能和全球治理的聯(lián)合聲明》《加強人工智能能力建設國際合作決議》等文件,彰顯了我國堅持發(fā)展以人為本、智能向善的人工智能和相互尊重、平等互利的立場,表明了我國積極參與推動形成具有廣泛共識的全球人工智能治理框架和標準規(guī)范的態(tài)度。

我國對推動人工智能治理國際合作的立場包括:第一,在人工智能治理框架層面,倡導建立全球范圍內的人工智能治理機制,支持在充分尊重各國政策和實踐的基礎上,形成具有廣泛共識的全球人工智能治理框架和標準規(guī)范。參與推動確立與人工智能安全相關的硬性規(guī)則;鼓勵符合發(fā)展需求的各類倡議、原則共識、技術標準指南等軟性規(guī)則共用共享;推動跨國技術合作,分享人工智能的測試、評估、認證與監(jiān)管政策實踐,確保人工智能技術的安全可控可靠。第二,在人工智能能力建設方面,推動人工智能能力建設方面的國際合作,同時加強面向發(fā)展中國家的合作與援助,彌合智能鴻溝和治理差距。第三,在促進基于技術和價值觀的相互理解層面,尊重各國在開發(fā)和利用人工智能技術方面的權利平等、機會平等、規(guī)則平等,反對任何形式的歧視;堅持在相互尊重、平等互利的基礎上推動制定數(shù)據(jù)保護規(guī)則,加強各國數(shù)據(jù)與信息保護政策的互操作性;在人工智能技術、產品和應用的國際合作中,互相遵守對象國的法律法規(guī)和適用的國際法,尊重其文化傳統(tǒng)和價值理念。

同時,在人工智能治理領域的主權國家戰(zhàn)略博弈中,面對不友好國家干涉我國內政、針對我國實體和個人實施單邊制裁或其他歧視性的禁止、限制等措施,我國根據(jù)實際情況采取相應反制或對等措施。當前“人工智能法”可以對此制定一般性規(guī)則,統(tǒng)籌指引后續(xù)立法和執(zhí)法等。一般而言,制度型反制措施包括立法型反制措施、執(zhí)法型反制措施和司法型反制措施。在法律和政策框架層面,我國當前已有《反外國制裁法》《出口管制法》以及商務部發(fā)布的《不可靠實體清單規(guī)定》《阻斷外國法律與措施不當域外適用辦法》等,并需在實施中提升威懾力,尤其是改變國際性大企業(yè)行為的后果參數(shù)和合規(guī)策略。同時,在立法型反制措施短時間內無法迅速實施的情況下,應當提升執(zhí)法型反制措施的效能,在實踐中通過適當行使自由裁量權,合理解釋法律法規(guī)及部門規(guī)章,妥當厘定其域外效力,增強中國法域外適用的實效性和威懾力,推動人民法院跨國司法治理權的發(fā)揮;進一步完善反制裁工作協(xié)調機制、具體執(zhí)法程序等方面的相關配套制度。提升反制能力與水平,防治數(shù)字霸權,維護國家安全。

四、結論

面對全球日益激烈的人工智能治理之爭,在大規(guī)模集中立法浪潮下,如何找到適應中國國情和需求的人工智能立法方案,是亟待明確的重要問題。當前,統(tǒng)一的人工智能規(guī)范闕如,而現(xiàn)有規(guī)則面對人工智能問題僅能分散、碎片化適用,需專門立法回應社會關切、引導科技治理。在人工智能技術發(fā)展具有不確定性的前提預設下,現(xiàn)階段應優(yōu)化人工智能立法層次,以推動人工智能領域立法的體系化為方向,堅持問題導向和目標導向,先搭建人工智能領域的框架型法律秩序,釋放法律規(guī)則在提供穩(wěn)定的制度環(huán)境和可預期的信息供給方面的基本效用,為容納、適應日益智能化和自主化的人工智能應用實踐以及后續(xù)動態(tài)科學立法留予空間。

我國的人工智能立法,應當在推動人工智能創(chuàng)新發(fā)展和風險治理深度協(xié)同的基礎上,形成契合定位的規(guī)則框架。應以發(fā)展與安全并重為指導思想,以促進人工智能研發(fā)和應用、防范人工智能主要風險為二元立法目的,既規(guī)定促進人工智能研發(fā)和應用的正面激勵制度,亦在簡化合規(guī)、責任適當豁免等方面為相應主體提供減負支持,并且不囿于一體性的規(guī)制方案,建立符合我國國情的風險防范機制。在人工智能立法涉及的主要利益關系上,“以人為本”是人工智能立法應當堅持的基本理念和倫理原則,并且貫穿于涉及倫理治理、私權保障等方面的規(guī)則建構中;應協(xié)調好人工智能相關主體之間的權益;應構建并維護主體多元、利益分化、市場開放的人工智能競爭秩序;應積極開展國際合作,統(tǒng)籌推進關于人工智能的國內法治和涉外法治。

(作者:張新寶,中國人民大學法學院教授;魏艷偉,中國人民大學法學院博士研究生。 來源:《法制與社會發(fā)展》2024年第6期(第5-21頁) 轉載對注釋與參考文獻進行了省略。本文轉自數(shù)字法治微信公眾號)

打印|
返回頂部