1000部做爰免费视频,婷婷蜜桃国产精品一区小说,家庭乱欲免费阅读全文,2020亚洲熟女在线观看,樱井莉亚全集bt种子,男男体育生乱yin高h肉汁,高辣文h书包网,17岁中国高清免费观看完整版,免费观看已满十八岁的电视剧动漫

中國人權(quán)領(lǐng)域唯一專業(yè)網(wǎng)站

張海燕:網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法的異化及其矯正

2024-06-05 11:54:56來源:《政治與法律》2024年第5期作者:張海燕
字號:默認(rèn)超大| 打印|

摘要:經(jīng)由算法賦能、私法制度提供合法性的網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法,借助公權(quán)力體系肆意擴(kuò)張,正在架構(gòu)新的社會關(guān)系和催生新的社會規(guī)范。算法的設(shè)計(jì)缺陷和法律規(guī)制的缺失使得網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法存在異化為私主體的利益實(shí)現(xiàn)工具的風(fēng)險(xiǎn),可能造成對網(wǎng)絡(luò)用戶合法權(quán)益的侵犯,具體體現(xiàn)為侵蝕用戶表達(dá)權(quán)利、擠壓公眾合理使用空間、剝奪用戶經(jīng)濟(jì)利益等。權(quán)力與權(quán)利的平衡應(yīng)成為矯正網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法異化的規(guī)制目標(biāo),循著公權(quán)力合理限制私權(quán)力、增益私權(quán)利對抗私權(quán)力的規(guī)制思路,通過立法建立限權(quán)與賦權(quán)的制度體系,具體應(yīng)建立算法審查制度、基本權(quán)利保護(hù)責(zé)任制度以及算法問責(zé)制度,配置用戶算法解釋權(quán)和申訴權(quán)等,可激發(fā)最大制度性合力,實(shí)現(xiàn)多元主體的利益平衡。

關(guān)鍵詞:“通知—屏蔽”;算法私人執(zhí)法;異化;利益失衡;法律規(guī)制

目    次

一、算法賦能:著作權(quán)私人執(zhí)法的擴(kuò)張

(一)從“通知—刪除”到“通知—屏蔽”

(二)擴(kuò)張基礎(chǔ)與異化動因

二、網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法的異化

(一)侵蝕網(wǎng)絡(luò)用戶表達(dá)權(quán)利

(二)擠壓公眾合理使用空間

(三)剝奪網(wǎng)絡(luò)用戶經(jīng)濟(jì)利益

三、網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法異化的矯正

(一)明確規(guī)制算法私人執(zhí)法的基本原則

(二)建立算法審查法律制度

(三)構(gòu)建算法私人執(zhí)法問責(zé)機(jī)制

(四)確立基本權(quán)利保護(hù)責(zé)任制度

(五)配置用戶算法解釋權(quán)和申訴權(quán)

(六)完善規(guī)制網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法的規(guī)范體系

四、結(jié)論

權(quán)力是指一主體影響甚至支配另一主體的能力或者機(jī)會。美國法學(xué)家霍菲爾德從法律概念的邏輯內(nèi)涵揭示了權(quán)力并不為公主體所獨(dú)有的特性。網(wǎng)絡(luò)空間中的私權(quán)力隨著科技發(fā)展正在崛起。憑借技術(shù)資源、平臺和信息優(yōu)勢,網(wǎng)絡(luò)服務(wù)提供者具備了相對于網(wǎng)絡(luò)用戶的優(yōu)勢地位,有能力影響他們的選擇乃至設(shè)定規(guī)則,網(wǎng)絡(luò)用戶則在某種程度上淪為被影響乃至被支配的對象。權(quán)力是執(zhí)法的基礎(chǔ),執(zhí)法是權(quán)力的表現(xiàn)。私權(quán)力的崛起為網(wǎng)絡(luò)治理注入了新的動力,據(jù)此著作權(quán)人尋求與網(wǎng)絡(luò)服務(wù)提供者合作以打擊網(wǎng)絡(luò)著作權(quán)侵權(quán)行為,并探索出了“通知—刪除”規(guī)則。區(qū)分于公權(quán)力執(zhí)法,網(wǎng)絡(luò)服務(wù)提供者代替公權(quán)力機(jī)構(gòu)處理著作權(quán)侵權(quán)的執(zhí)法被稱為“私人執(zhí)法”。“私人執(zhí)法”不同于“私力救濟(jì)”,前者是權(quán)利人借助第三方的力量尋求“他救”,后者是權(quán)利人利用自己的力量進(jìn)行“自救”。

智能算法可以為私人執(zhí)法賦能。有學(xué)者創(chuàng)造性地使用了“算法私人執(zhí)法”這一概念來描述由智能算法自動完成私人執(zhí)法的過程,傳統(tǒng)的“人工通知—人工處置”演變?yōu)?ldquo;算法通知—算法處置”模式。隨著算法私人執(zhí)法對不同權(quán)力間關(guān)系的重塑,諸多“創(chuàng)造性破壞”也隨之產(chǎn)生,如數(shù)據(jù)濫用、算法歧視、侵蝕公共權(quán)力等。算法私人執(zhí)法存在異化為私主體的利益實(shí)現(xiàn)工具的風(fēng)險(xiǎn)。“算法暴政”可能使著作權(quán)的網(wǎng)絡(luò)治理陷入困境。為此,有必要警惕算法私人執(zhí)法的擴(kuò)張風(fēng)險(xiǎn),正確辨析算法私人執(zhí)法的異化表象,詮釋其異化的內(nèi)在軌跡,提出有針對性的矯正方案,以促進(jìn)算法私人執(zhí)法走向正義。

一、算法賦能:著作權(quán)私人執(zhí)法的擴(kuò)張

著作權(quán)私人執(zhí)法的擴(kuò)張建立在技術(shù)的事實(shí)性基礎(chǔ)以及私法規(guī)則授權(quán)允許基礎(chǔ)之上,探究算法私人執(zhí)法的擴(kuò)張基礎(chǔ)和異化動因,是規(guī)制算法私人執(zhí)法的前提所在。

(一)從“通知—刪除”到“通知—屏蔽”

算法私人執(zhí)法對傳統(tǒng)私人執(zhí)法的擴(kuò)張,集中體現(xiàn)為從“通知—刪除”規(guī)則到“通知—屏蔽”規(guī)則的升級。以“通知—刪除”規(guī)則為核心的傳統(tǒng)私人執(zhí)法被動而范圍有限。在“通知—刪除”規(guī)則下,網(wǎng)絡(luò)服務(wù)提供者需要在收到著作權(quán)人有關(guān)著作權(quán)侵權(quán)的通知之后,迅速采取刪除、屏蔽、斷開鏈接等必要措施;在收到異議用戶發(fā)出的反通知之后轉(zhuǎn)送至著作權(quán)人,并在著作權(quán)人未在合理期限內(nèi)提起訴訟的情況下恢復(fù)相應(yīng)的內(nèi)容和鏈接。在此過程中,網(wǎng)絡(luò)服務(wù)提供者承擔(dān)著被動的角色,以著作權(quán)人的侵權(quán)通知或者用戶的反通知為觸發(fā)條件,在特定情況下、特定范圍中解決著作權(quán)侵權(quán)糾紛。“通知—刪除”無法有效解決重復(fù)侵權(quán)的問題,移除侵權(quán)內(nèi)容就像無休止的“打地鼠”游戲。并且由于過去的互聯(lián)網(wǎng)技術(shù)尚不能支持全自動化,再加之侵權(quán)數(shù)量有限、侵權(quán)通知不多,人工處置是網(wǎng)絡(luò)服務(wù)提供者處理著作權(quán)侵權(quán)糾紛的主要形式,人工審查速度逐漸落后于著作權(quán)侵權(quán)發(fā)生的速度。然而,“通知—刪除”規(guī)則較好地平衡了三方利益:著作權(quán)人能以非訴方式保護(hù)著作權(quán),控制作品在網(wǎng)絡(luò)中的使用,降低定位侵權(quán)主體、調(diào)解、起訴的巨大成本;網(wǎng)絡(luò)服務(wù)提供者在收到通知或者明知侵權(quán)采取行動之后就可以獲得安全港規(guī)則的庇護(hù),免除法律責(zé)任,有利于技術(shù)的發(fā)展進(jìn)步;人工審查使得用戶上傳內(nèi)容被誤刪的可能性較低,再加上反通知程序的保障,用戶合法權(quán)益和社會公共利益也能得到較好保護(hù)。

以“通知—屏蔽”規(guī)則為核心的算法私人執(zhí)法相對于傳統(tǒng)私人執(zhí)法,具有以下特點(diǎn)。首先,處置過程算法化。智能算法為識別出所有包含著作權(quán)作品的信息和內(nèi)容提供了技術(shù)支持,導(dǎo)致著作權(quán)侵權(quán)形勢日益復(fù)雜的同時(shí),自動發(fā)送的侵權(quán)通知數(shù)量不斷攀升。因此在人工智能時(shí)代,成本高、效率低、標(biāo)準(zhǔn)不一的人工審查舉步維艱,算法處置成為應(yīng)對算法通知的必行之舉。其次,內(nèi)容審核補(bǔ)救措施多元化。將侵權(quán)程度不同的情形同等處理有失公允,智能算法為針對性補(bǔ)救措施的采取提供了可能,由此將“或刪除或保留”的二元制補(bǔ)救措施發(fā)展為多元化的補(bǔ)救措施,如限制流量、變現(xiàn)等措施。最后,介入階段提前化。內(nèi)容過濾制度使得著作權(quán)私人執(zhí)法的介入階段從事后延伸至事前。為了解決重復(fù)侵權(quán)的問題,網(wǎng)絡(luò)服務(wù)提供者被要求承擔(dān)更為積極主動的義務(wù)——內(nèi)容過濾,力圖在源頭上制止著作權(quán)侵權(quán)內(nèi)容的上傳。內(nèi)容過濾作為算法私人執(zhí)法的特有制度,將著作權(quán)私人執(zhí)法的介入階段從事后擴(kuò)展至事前事后全過程,極大地拓展了私人執(zhí)法的覆蓋范圍。

“通知—屏蔽”規(guī)則提高了著作權(quán)保護(hù)水平,但容易使網(wǎng)絡(luò)服務(wù)提供者歸責(zé)滑向過錯推定,只要有漏判的內(nèi)容即推定網(wǎng)絡(luò)服務(wù)提供者未盡過濾義務(wù)。這加重了其責(zé)任,在面對“灰色空間”、合理使用等性質(zhì)復(fù)雜的內(nèi)容時(shí),以利益為導(dǎo)向的網(wǎng)絡(luò)服務(wù)提供者會趨于從緊從嚴(yán)屏蔽或移除,在私人執(zhí)法過程中傾向于過度執(zhí)法,導(dǎo)致對網(wǎng)絡(luò)用戶合法權(quán)益和社會公共利益的侵犯。

(二)擴(kuò)張基礎(chǔ)與異化動因

在技術(shù)賦能提供事實(shí)性基礎(chǔ)的同時(shí),法律授權(quán)與合同意定也為私人執(zhí)法的擴(kuò)張?zhí)峁┲戏ㄐ砸罁?jù)。然而,算法自有的設(shè)計(jì)缺陷、法律規(guī)制的相對缺失以及動態(tài)條款中用戶的權(quán)益嬗變,是算法私人執(zhí)法的異化動因。

1.技術(shù)賦能與設(shè)計(jì)缺陷

技術(shù)是把雙刃劍。首先,智能算法為算法私人執(zhí)法奠定技術(shù)基礎(chǔ)。在以技術(shù)性為特征的網(wǎng)絡(luò)空間中,網(wǎng)絡(luò)主體對技術(shù)工具掌握水平的高低直接決定其在網(wǎng)絡(luò)空間中行為能力的大小。傳統(tǒng)著作權(quán)私人執(zhí)法建立在過去互聯(lián)網(wǎng)技術(shù)的基礎(chǔ)之上。通過占有技術(shù)工具、掌控技術(shù)知識、支配技術(shù)架構(gòu),網(wǎng)絡(luò)服務(wù)提供者能夠支配和影響其他網(wǎng)絡(luò)主體,從而為著作權(quán)私人執(zhí)法奠定技術(shù)基礎(chǔ)。隨著人工智能時(shí)代的到來,智能算法不斷推動著作權(quán)私人執(zhí)法算法化。智能算法系統(tǒng)將法律和執(zhí)法合二為一,網(wǎng)絡(luò)服務(wù)提供者一方面通過控制代碼在網(wǎng)絡(luò)空間中創(chuàng)造強(qiáng)大的架構(gòu),制定與國家法律具有高度重合性的私人規(guī)則(集中表現(xiàn)為網(wǎng)絡(luò)服務(wù)協(xié)議),另一方面通過智能算法系統(tǒng)積極執(zhí)行私人規(guī)則、規(guī)制網(wǎng)絡(luò)行為,對網(wǎng)絡(luò)用戶的行為產(chǎn)生直接影響。例如,網(wǎng)絡(luò)服務(wù)提供者可以設(shè)定非法內(nèi)容的認(rèn)定標(biāo)準(zhǔn),并阻止這些內(nèi)容在網(wǎng)上出現(xiàn)和傳播,或識別侵犯著作權(quán)內(nèi)容并進(jìn)行恰當(dāng)?shù)奶幹?;網(wǎng)絡(luò)服務(wù)提供者甚至掌握了信息資源獲取與分配領(lǐng)域的話語權(quán),能夠通過有目的性地向用戶傳遞相關(guān)信息,在其主觀意識層面形成一種潛移默化的影響,從而以一種“潤物細(xì)無聲”的方式促使用戶給出“被期待”的選擇。其次,算法設(shè)計(jì)的內(nèi)在缺陷是算法私人執(zhí)法異化的根本動因。其一,算法黑箱使得算法決策過程不透明。算法決策本質(zhì)上隱藏在代碼的面紗后面,其數(shù)學(xué)復(fù)雜性和學(xué)習(xí)能力使其無法完全透明,再加上商業(yè)秘密法的加持,共同促成了算法黑箱。算法黑箱不僅阻礙了用戶權(quán)利救濟(jì)和公眾監(jiān)督,而且妨礙了對網(wǎng)絡(luò)服務(wù)提供者的追責(zé)。其二,算法偏見導(dǎo)致內(nèi)容識別出錯率高,難以有效區(qū)分合法內(nèi)容和非法內(nèi)容。算法偏見的出現(xiàn)緣于訓(xùn)練數(shù)據(jù)的片面性或存在偏見,以及算法價(jià)值內(nèi)嵌與算法設(shè)計(jì)、部署或應(yīng)用過程中不可避免地被嵌入個人的價(jià)值觀念或主觀意圖。算法偏見將導(dǎo)致假陽性錯誤的出現(xiàn),不僅直接侵害內(nèi)容生產(chǎn)者的合法權(quán)益,而且可能引發(fā)侵蝕言論自由、壓縮合理使用空間等負(fù)外部性。其三,算法自主性產(chǎn)生算法的不可控性,阻礙算法私人執(zhí)法的問責(zé)。算法因“自主性”功能,常出現(xiàn)連設(shè)計(jì)者和研發(fā)者也無法控制的自主決策問題,由此網(wǎng)絡(luò)服務(wù)提供者通常以“技術(shù)自主錯誤”而非“平臺錯誤”來逃避責(zé)任,平臺推責(zé)成為常態(tài),傳統(tǒng)的“行為—責(zé)任”邏輯被切斷,因果關(guān)系面臨危機(jī)。

總之,借助技術(shù),算法私人執(zhí)法肆意擴(kuò)張,然后依托技術(shù)面紗,逃脫現(xiàn)有法律制度的規(guī)制。

2.法律授權(quán)與規(guī)制缺失

責(zé)任與權(quán)力一體兩面,有權(quán)必有責(zé),有責(zé)必有權(quán);有權(quán)無責(zé)將導(dǎo)致權(quán)力的濫用,有責(zé)無權(quán)則無法履行職責(zé)以達(dá)成預(yù)設(shè)目標(biāo)。著作權(quán)私人執(zhí)法責(zé)任的課以必然伴隨著著作權(quán)私人執(zhí)法權(quán)力的授予。然而,不斷拓展的責(zé)任課以機(jī)制失去制度化和體系化的約束,可能轉(zhuǎn)化為一種間接的乃至更高位的權(quán)力變現(xiàn)手段。隨著網(wǎng)絡(luò)服務(wù)提供者私人執(zhí)法責(zé)任的不斷加重,私人執(zhí)法權(quán)力也在不斷膨脹。算法私人執(zhí)法在因法律授權(quán)而獲得合法性的同時(shí),具體法律規(guī)制的缺失使其能無視著作權(quán)執(zhí)法內(nèi)含的公共價(jià)值追求、利益平衡目標(biāo),異化為私人執(zhí)法主體的利益實(shí)現(xiàn)工具。

一方面,算法私人執(zhí)法因法律授權(quán)而獲得合法性根據(jù)。受限于管制能力和管制成本,公權(quán)力機(jī)構(gòu)的著作權(quán)執(zhí)法無法在網(wǎng)絡(luò)空間中高效發(fā)揮作用,相反網(wǎng)絡(luò)服務(wù)提供者在監(jiān)控、過濾以及阻止在線內(nèi)容的訪問等方面提供了一個“自然的控制點(diǎn)”,使其成為公權(quán)力機(jī)構(gòu)執(zhí)法的理想伙伴。對此,公權(quán)力機(jī)構(gòu)逐漸將管理重心轉(zhuǎn)至網(wǎng)絡(luò)服務(wù)提供者,要求其作為平臺方協(xié)助甚至“替代”監(jiān)管部門完成維護(hù)網(wǎng)絡(luò)秩序的公共目標(biāo)。從收到通知后移除侵權(quán)內(nèi)容到保證侵權(quán)內(nèi)容不在網(wǎng)上出現(xiàn)和傳播,網(wǎng)絡(luò)服務(wù)提供者的著作權(quán)私人執(zhí)法責(zé)任呈加重趨勢,責(zé)任的加重也意味著對權(quán)力擴(kuò)張的默認(rèn),算法私人執(zhí)法因此獲得存在的合法性根據(jù)。例如,歐盟《數(shù)字單一市場版權(quán)指令》(DSM)第17條明確規(guī)定在線內(nèi)容共享服務(wù)提供商(OCCSP)應(yīng)與版權(quán)權(quán)利人訂立公平和適當(dāng)?shù)脑S可協(xié)議,以獲得權(quán)利人的授權(quán),若無授權(quán),則需要承擔(dān)責(zé)任,除非能證明:盡最大努力獲得授權(quán);盡專業(yè)勤勉的最高行業(yè)標(biāo)準(zhǔn)確保權(quán)利人已提供必要信息的作品無法獲得;收到通知后迅速斷開鏈接或刪除內(nèi)容并阻止侵權(quán)內(nèi)容再次上傳。該條雖未明確規(guī)定網(wǎng)絡(luò)服務(wù)提供者的內(nèi)容過濾責(zé)任,但是眾多學(xué)者、法律工作者已基本達(dá)成共識,認(rèn)為該條是內(nèi)容過濾責(zé)任條款。為了實(shí)現(xiàn)內(nèi)容過濾的目標(biāo),網(wǎng)絡(luò)服務(wù)提供者應(yīng)當(dāng)配置內(nèi)容過濾權(quán)限。因此,該條不僅賦予網(wǎng)絡(luò)服務(wù)提供者以內(nèi)容過濾責(zé)任,而且為其內(nèi)容過濾權(quán)提供合法性依據(jù)。

另一方面,算法私人執(zhí)法憑借法律授權(quán)和公權(quán)力委托野蠻生長,卻缺乏相應(yīng)的規(guī)制,導(dǎo)致算法私人執(zhí)法的異化風(fēng)險(xiǎn)急劇增加。首先,算法“黑箱”的規(guī)制處于法律真空地帶。算法私人執(zhí)法的不透明實(shí)施嚴(yán)重限制公眾知情的可能性,算法私人執(zhí)法可能比公權(quán)力機(jī)構(gòu)執(zhí)法更加嚴(yán)格也可能更加寬松,原因就在于算法私人執(zhí)法的不可預(yù)測性。當(dāng)算法透明依賴于網(wǎng)絡(luò)服務(wù)提供者的自愿披露時(shí),披露的數(shù)據(jù)可能是部分的、有偏見的甚至是誤導(dǎo)性的。雖然各國正在考慮采取各種辦法來解決算法“黑箱”的問題,如制定關(guān)于使用和設(shè)計(jì)人工智能的原則,但將這些原則轉(zhuǎn)化為可操作的監(jiān)管規(guī)則尚處于初級階段。其次,算法私人執(zhí)法并未受到正當(dāng)程序的約束。在一般法律程序中可獲得的法律保障,如獲得通知的權(quán)利、申訴權(quán)、決策者身份的知情、以書面形式作出決定以便閱讀等,在算法私人執(zhí)法中都處于缺位狀態(tài)。正當(dāng)程序要求的缺失使得算法私人執(zhí)法具有極大的恣意性,網(wǎng)絡(luò)服務(wù)提供者享有較大的徇私空間,同時(shí)還影響到網(wǎng)絡(luò)用戶的維權(quán)。再次,法律并未為受算法私人執(zhí)法影響的對象提供救濟(jì)渠道。網(wǎng)絡(luò)服務(wù)提供者可能在內(nèi)容公開之前事先應(yīng)用算法來阻止和過濾內(nèi)容,或使用算法降低包含涉嫌侵犯著作權(quán)內(nèi)容的網(wǎng)站等級,以減少鏈接到該網(wǎng)站的可能性。在網(wǎng)絡(luò)服務(wù)提供者沒有義務(wù)公開決策的理由和程序的情況下,用戶針對錯誤執(zhí)法要求更正的可能性極小,公眾不可能質(zhì)疑其并未意識到的內(nèi)容處置行為。最后,算法私人執(zhí)法問責(zé)機(jī)制處于缺位狀態(tài)。盡管網(wǎng)絡(luò)服務(wù)提供者于在線內(nèi)容獲取和促進(jìn)公共話語方面發(fā)揮著關(guān)鍵作用,但其幾乎不對算法私人執(zhí)法負(fù)責(zé)。哪些涉嫌侵權(quán)的材料會觸發(fā)算法、有關(guān)內(nèi)容限制的決定如何做出、誰在做出這些決定以及用戶如何能夠影響這些決定,都不明確。算法應(yīng)該“對誰負(fù)責(zé)”和“對什么負(fù)責(zé)”,仍然存在高度的不確定性。

網(wǎng)絡(luò)服務(wù)提供者為盡“責(zé)任”以消除不確定性風(fēng)險(xiǎn),完全可以在技術(shù)乃至制度層面給出功利性選擇,自我賦予更大的“權(quán)力”,進(jìn)行擴(kuò)張性執(zhí)法。

3.合同意定與權(quán)益嬗變

以網(wǎng)絡(luò)服務(wù)協(xié)議為媒介獲得網(wǎng)絡(luò)用戶的權(quán)利讓渡,是算法私人執(zhí)法的又一合法性來源。然而,網(wǎng)絡(luò)服務(wù)提供者與網(wǎng)絡(luò)用戶之間在掌握技術(shù)資源、信息資源等方面都存在巨大差距,網(wǎng)絡(luò)用戶的權(quán)益在網(wǎng)絡(luò)服務(wù)協(xié)議隨時(shí)修改權(quán)條款項(xiàng)下存在著極大的被侵害的風(fēng)險(xiǎn)。

一方面,網(wǎng)絡(luò)服務(wù)協(xié)議是網(wǎng)絡(luò)服務(wù)提供者和網(wǎng)絡(luò)用戶之間的“法律”,規(guī)定各自的權(quán)利義務(wù),規(guī)范雙方之間的關(guān)系。網(wǎng)絡(luò)服務(wù)提供者擁有網(wǎng)絡(luò)服務(wù)協(xié)議的單方制定權(quán)。通過單方制定網(wǎng)絡(luò)服務(wù)協(xié)議及其技術(shù)實(shí)施,網(wǎng)絡(luò)服務(wù)提供者事實(shí)上能夠塑造用戶訪問和使用互聯(lián)網(wǎng)的方式,規(guī)范用戶在網(wǎng)絡(luò)空間中的行為。例如,《微博服務(wù)使用協(xié)議》第4.12條規(guī)定:“微博運(yùn)營方有權(quán)對用戶使用微博服務(wù)的行為及信息進(jìn)行審查、監(jiān)督及處理,包括但不限于用戶信息(賬號信息、個人信息等)、發(fā)布內(nèi)容(位置、文字、圖片、音頻、視頻、商標(biāo)、專利、出版物等)、用戶行為(構(gòu)建關(guān)系、信息、評論、私信、參與話題、參與活動、營銷信息發(fā)布、舉報(bào)投訴等)等范疇。”算法私人執(zhí)法通過合同意定獲得合法性基本不會遭遇阻礙,網(wǎng)絡(luò)用戶面對網(wǎng)絡(luò)服務(wù)協(xié)議只有接受或離開兩種選擇,網(wǎng)絡(luò)用戶對特定網(wǎng)絡(luò)服務(wù)的利用以同意網(wǎng)絡(luò)服務(wù)協(xié)議為前提。在用戶通過簡單點(diǎn)擊鼠標(biāo)表示同意之后,其與網(wǎng)絡(luò)服務(wù)提供者之間的網(wǎng)絡(luò)服務(wù)協(xié)議就此達(dá)成,用戶需遵循網(wǎng)絡(luò)服務(wù)提供者的“私人秩序”,接受網(wǎng)絡(luò)服務(wù)提供者對其行為的支配和影響。并且,在談判地位不對等的基礎(chǔ)上達(dá)成的網(wǎng)絡(luò)服務(wù)協(xié)議往往具有一定的偏頗性,表現(xiàn)為網(wǎng)絡(luò)服務(wù)協(xié)議以規(guī)范用戶行為以及免除網(wǎng)絡(luò)服務(wù)提供者的責(zé)任為主要內(nèi)容。如《微博服務(wù)使用協(xié)議》第3.3條對微博運(yùn)營方因侵犯專利權(quán)、商標(biāo)權(quán)、著作權(quán)等而中斷或終止提供微博服務(wù)造成損失的免責(zé),第8.3條對“依據(jù)合理判斷不經(jīng)通知立即采取一切必要措施以減輕或消除用戶行為造成影響”的免責(zé)等。關(guān)于用戶知情權(quán)的保障,《微博服務(wù)使用協(xié)議》規(guī)定的是“盡可能通知”,不通知并無任何責(zé)任規(guī)定。至于監(jiān)督權(quán),該協(xié)議并未對網(wǎng)絡(luò)服務(wù)提供者的錯誤執(zhí)法行為規(guī)定任何投訴途徑和救濟(jì)渠道。其他平臺的網(wǎng)絡(luò)服務(wù)協(xié)議亦大致如此。這樣,算法私人執(zhí)法對用戶上傳內(nèi)容的處置及過濾均無需通知有關(guān)用戶,尤其是對缺乏專業(yè)知識的網(wǎng)絡(luò)用戶來說,其無法對不知情的侵權(quán)行為要求維權(quán)或監(jiān)督。即使對算法私人執(zhí)法的侵權(quán)行為有所了解,網(wǎng)絡(luò)用戶也無有效途徑向網(wǎng)絡(luò)服務(wù)提供者提出異議并獲得公正處理。

另一方面,網(wǎng)絡(luò)服務(wù)提供者擁有網(wǎng)絡(luò)服務(wù)協(xié)議的修改權(quán),動態(tài)性條款導(dǎo)致用戶的權(quán)益可能發(fā)生極大地改變。通過單方修改網(wǎng)絡(luò)服務(wù)協(xié)議,著作權(quán)私人執(zhí)法的內(nèi)容能夠在網(wǎng)絡(luò)服務(wù)協(xié)議中及時(shí)更新,與具有穩(wěn)定性和滯后性的法律規(guī)范相比,網(wǎng)絡(luò)服務(wù)協(xié)議條款更具靈活性,從而能在法律更新之前,為算法私人執(zhí)法提供重要的合法性根據(jù)。在網(wǎng)絡(luò)服務(wù)協(xié)議中,一旦網(wǎng)絡(luò)服務(wù)提供者行使其對合同條款的“保留和授權(quán)條款”賦予的權(quán)利,即用新的合同內(nèi)容取代原有的權(quán)利義務(wù)約定,這種對原初權(quán)利義務(wù)的矯正,就勢必會影響到處于弱勢地位的用戶權(quán)益的實(shí)現(xiàn)。如《微博服務(wù)使用協(xié)議》第9.1條和第9.2條規(guī)定“微博運(yùn)營方有權(quán)隨時(shí)修改本協(xié)議的任何條款……如果不同意微博運(yùn)營方對本協(xié)議相關(guān)條款所做的修改,用戶有權(quán)停止使用微博服務(wù)。如果用戶繼續(xù)使用微博服務(wù),則視為用戶接受微博運(yùn)營方對本協(xié)議相關(guān)條款所做的修改。”

二、網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法的異化

算法私人執(zhí)法催生新的社會規(guī)范和社會關(guān)系。傳統(tǒng)著作權(quán)執(zhí)法要求具備雙重價(jià)值追求——著作權(quán)保護(hù)和公共價(jià)值追求。然而,算法私人執(zhí)法呈現(xiàn)出偏重著作權(quán)保護(hù),忽視公共價(jià)值追求,偏袒著作權(quán)人利益保護(hù),忽視用戶合法權(quán)益的失衡狀態(tài)。算法私人執(zhí)法的異化造成對用戶權(quán)益的侵犯。

(一)侵蝕網(wǎng)絡(luò)用戶表達(dá)權(quán)利

著作權(quán)保護(hù)與言論自由存在一定的沖突,過度的著作權(quán)保護(hù)可能侵蝕網(wǎng)絡(luò)用戶的表達(dá)權(quán)利。

首先,著作權(quán)執(zhí)法由事后向事前延伸,增加了用戶表達(dá)權(quán)利受侵害的可能性。過去以“通知—刪除”規(guī)則為主要內(nèi)容的著作權(quán)私人執(zhí)法是一種事后執(zhí)法,只要求網(wǎng)絡(luò)服務(wù)提供者在收到著作權(quán)人的通知之后迅速移除特定侵權(quán)內(nèi)容,并且“通知—刪除”規(guī)則迫使網(wǎng)絡(luò)服務(wù)提供者在作出是否刪除的最終決定前實(shí)際考慮用戶上傳內(nèi)容的侵權(quán)性質(zhì),謹(jǐn)慎作出刪除決定。因此過去的著作權(quán)私人執(zhí)法作用范圍有限,誤刪合法內(nèi)容的概率較低,對用戶表達(dá)權(quán)利的侵害較小,為言論自由和信息自由提供了一定的保障。相較之下,以“通知—屏蔽”規(guī)則為主要內(nèi)容的算法私人執(zhí)法以事前執(zhí)法為重點(diǎn),事后執(zhí)法并存,由于執(zhí)法標(biāo)準(zhǔn)完全由網(wǎng)絡(luò)服務(wù)提供者自行制定,在考慮到法律的屬地性等多重因素后,網(wǎng)絡(luò)服務(wù)提供者往往傾向于最符合其利益的嚴(yán)格執(zhí)法標(biāo)準(zhǔn),從而導(dǎo)致過度執(zhí)法可能性的增加。此外,內(nèi)容過濾制度改變了著作權(quán)法的缺省規(guī)則,用戶上傳的內(nèi)容由推定合法轉(zhuǎn)變?yōu)橥贫ǚ欠?,自由上傳轉(zhuǎn)變?yōu)樾枰孪冉?jīng)過算法技術(shù)的過濾,算法的審查過濾成為內(nèi)容上傳和傳播的前置條件,可能導(dǎo)致用戶上傳的部分合法內(nèi)容從一開始就得不到“面世”的機(jī)會,網(wǎng)絡(luò)用戶表達(dá)權(quán)利的行使從開始就被遏止,從而放大了算法私人執(zhí)法對網(wǎng)絡(luò)用戶表達(dá)權(quán)利的消極影響。

其次,全面執(zhí)法正在不斷擠壓執(zhí)法“灰色空間”,有侵害用戶表達(dá)權(quán)利之虞。全面執(zhí)法看似為網(wǎng)絡(luò)著作權(quán)提供了更強(qiáng)的保護(hù),但事實(shí)上,從成本和收益的角度考慮,全面執(zhí)法并非最優(yōu)選擇,相反,保留一定的對輕微侵權(quán)行為容忍的這種灰色空間更為可取。在前數(shù)字時(shí)代,執(zhí)法者幾乎不可能進(jìn)入個人享有的“自由區(qū)”,即使在互聯(lián)網(wǎng)時(shí)代的早期,也仍然存在事實(shí)上的“執(zhí)法均衡”或執(zhí)法“灰色地帶”,阻止全面執(zhí)法的發(fā)生;算法技術(shù)為全面執(zhí)法提供了可能性并逐漸朝這個方向發(fā)展。算法私人執(zhí)法使著作權(quán)作品的幾乎所有使用都能得到控制,由線上傳到平臺的內(nèi)容受到過濾和匹配系統(tǒng)中算法的管理,幾乎每一個含有作品庫中著作權(quán)作品片段的內(nèi)容,都可以被識別出來并交到合作伙伴著作權(quán)人手中,以決定是否應(yīng)采取進(jìn)一步行動。然而,從成本和收益角度考慮,輕微侵權(quán)者通常是經(jīng)濟(jì)實(shí)力較弱的個體,在網(wǎng)絡(luò)的匿名性保護(hù)下,即使有算法技術(shù)的支持,將網(wǎng)絡(luò)侵權(quán)行為與現(xiàn)實(shí)個體相連接也不是一件容易的事,并且輕微侵權(quán)行為的危害較小,著作權(quán)人向侵權(quán)個體追責(zé)所能獲得的賠償有限。此外,算法的直接自動執(zhí)法還可能強(qiáng)化過度執(zhí)法的風(fēng)險(xiǎn)效應(yīng),尤其是算法本身可能會引入偏見和歧視。因此,將輕微侵權(quán)行為也納入執(zhí)法范圍,既不能為著作權(quán)人帶來更多的利益,又增加了執(zhí)法成本,更削弱了灰色空間的存在對言論自由所具有的特殊意義。輕微侵權(quán)行為的主要目的不在于使用著作權(quán)作品,而在于表達(dá)觀點(diǎn)。在算法私人執(zhí)法全面展開的威懾下,網(wǎng)絡(luò)用戶慎于表達(dá)、疲于應(yīng)對,進(jìn)而降低了網(wǎng)上內(nèi)容的多樣性。總之,全面執(zhí)法對執(zhí)法灰色空間的擠壓弊大于利。

算法私人執(zhí)法對網(wǎng)絡(luò)公共話語起到一定的引領(lǐng)作用。通過移除內(nèi)容和保留內(nèi)容,網(wǎng)絡(luò)用戶可以充分了解網(wǎng)絡(luò)服務(wù)提供者的私人規(guī)則,并進(jìn)行內(nèi)容調(diào)整以符合私人規(guī)則。然而過度執(zhí)法會使合法內(nèi)容遭遇非法刪除,實(shí)質(zhì)是私人規(guī)則對法律規(guī)則的取代。

(二)擠壓公眾合理使用空間

數(shù)字平臺對算法私人執(zhí)法的依賴正在慢慢侵蝕合理使用空間。合理使用制度是著作權(quán)法中的“安全閥”,是平衡著作權(quán)人的利益和社會公眾利益的重要之舉,在兼顧原創(chuàng)者利益的同時(shí)又鼓勵新的創(chuàng)造。但自動化甚至自主化執(zhí)行的算法私人執(zhí)法,正在不斷侵蝕合理使用空間,干擾其他主體的后續(xù)創(chuàng)作,阻礙創(chuàng)新。

首先,自動化處置的形式審查缺乏合理使用認(rèn)定程序,增加誤刪合法內(nèi)容風(fēng)險(xiǎn)。在用戶生成內(nèi)容涌現(xiàn)引發(fā)分散、海量與重復(fù)侵權(quán)風(fēng)險(xiǎn)的背景下,經(jīng)過算法技術(shù)強(qiáng)化的自動化處置正逐漸取代傳統(tǒng)人工刪除。海量通知的涌現(xiàn)既源于技術(shù)的發(fā)展——越來越多的自動化系統(tǒng)被開發(fā)以跟蹤在線侵權(quán)行為和自動提交刪除通知,又源于著作權(quán)侵權(quán)通知的職業(yè)化——自動化通知大多被著作權(quán)人外包給專門進(jìn)行自動檢測并提交通知的專業(yè)機(jī)構(gòu),并且其收益與通知數(shù)量相掛鉤,導(dǎo)致專業(yè)代理機(jī)構(gòu)有動機(jī)也有能力發(fā)出大量的通知。如有研究發(fā)現(xiàn),2005年絕大多數(shù)通知仍然是由權(quán)利人直接發(fā)送,2008年由代理人發(fā)送的通知占36.8%,2012年增加到59.6%,2016年由代理人發(fā)送的通知上升到91.8%,只有7.5%直接來自權(quán)利人。與自動化通知相對應(yīng),網(wǎng)絡(luò)服務(wù)提供者也使用算法調(diào)整自己的系統(tǒng)來裁決和管理移除請求、管理涌入的信息。為了降低審核成本、減少侵權(quán)風(fēng)險(xiǎn),自動化處置傾向于對侵權(quán)通知采取形式審查而非實(shí)質(zhì)審查,只要侵權(quán)通知符合形式要求,就迅速進(jìn)行內(nèi)容移除,缺乏合理使用篩查過程。一方面,著作權(quán)人及其代理機(jī)構(gòu)沒有保護(hù)合理使用的義務(wù),其發(fā)送的侵權(quán)通知中必然包含大量構(gòu)成合理使用的內(nèi)容;另一方面,算法私人執(zhí)法并未開辟合理使用篩查通道,導(dǎo)致合法內(nèi)容被誤刪。除此之外,網(wǎng)絡(luò)用戶并未有效利用糾錯與對抗機(jī)制,助長算法私人執(zhí)法對著作權(quán)公共領(lǐng)域的侵蝕。2005年的一份實(shí)證研究顯示,在876份侵權(quán)通知中僅有7份反通知,2017年的另一實(shí)證研究認(rèn)為反通知未被充分和經(jīng)常利用。因此,與傳統(tǒng)的人工刪除相比,自動化處置會產(chǎn)生更多的“大面積誤傷”,侵蝕著作權(quán)公共領(lǐng)域。

其次,智能算法主導(dǎo)的內(nèi)容過濾機(jī)制引發(fā)“假陽性錯誤”,進(jìn)一步擠壓合理使用空間。智能算法主導(dǎo)的內(nèi)容過濾機(jī)制已成為網(wǎng)絡(luò)環(huán)境自動著作權(quán)執(zhí)法的趨勢。雖然它能幫助網(wǎng)絡(luò)服務(wù)提供者節(jié)省消除網(wǎng)絡(luò)平臺侵權(quán)的成本,降低因屏蔽或刪除侵權(quán)內(nèi)容不及時(shí)而須承擔(dān)侵權(quán)責(zé)任的風(fēng)險(xiǎn),但是內(nèi)容過濾機(jī)制的廣泛采用會引發(fā)“假陽性錯誤”,損害用戶對著作權(quán)的合理使用空間。“假陽性錯誤”是指將合理使用行為誤認(rèn)為侵權(quán)行為并錯誤過濾的現(xiàn)象。“假陽性錯誤”的出現(xiàn)是技術(shù)發(fā)展水平與合理使用認(rèn)定能力不匹配的結(jié)果。合理使用本質(zhì)上作為一種公平原則,需要高度的智力判斷以及對上下文的理解,并不是任何技術(shù)都能以自動化的方式解決的,特別是某些作品公共領(lǐng)域地位的復(fù)雜性可能超出內(nèi)容過濾技術(shù)的識別能力;就目前的技術(shù)發(fā)展水平來看,內(nèi)容過濾系統(tǒng)在識別和認(rèn)定合理使用方面存在困難,自動化系統(tǒng)只會標(biāo)記出所有包含著作權(quán)作品整體或部分的內(nèi)容,無法將構(gòu)成合理使用的內(nèi)容篩查出去。另外,由于信息不對稱、專業(yè)知識的欠缺,網(wǎng)絡(luò)用戶可能無法準(zhǔn)確識別“假陽性錯誤”、無法正確理解合理使用制度、放棄維權(quán)和救濟(jì),網(wǎng)絡(luò)用戶的不作為將縱容內(nèi)容過濾系統(tǒng)對著作權(quán)公共領(lǐng)域的侵蝕。私人協(xié)議和自動過濾系統(tǒng)對在線內(nèi)容性質(zhì)的決定程度逐漸超過了著作權(quán)法的規(guī)定,合理使用面臨走向名存實(shí)亡的境地。

(三)剝奪網(wǎng)絡(luò)用戶經(jīng)濟(jì)利益

互聯(lián)網(wǎng)的發(fā)展促成網(wǎng)絡(luò)用戶由消費(fèi)者向創(chuàng)作者蛻變。數(shù)字技術(shù)從根本上提高了用戶復(fù)制和改造著作權(quán)作品的能力,數(shù)字平臺增強(qiáng)了用戶相互分享這些轉(zhuǎn)換性作品的能力,從而使網(wǎng)絡(luò)用戶從作品的被動消費(fèi)者轉(zhuǎn)變?yōu)橹鲃拥墓餐瑒?chuàng)作者(與職業(yè)創(chuàng)作者相區(qū)分,將此類創(chuàng)作者稱為業(yè)余創(chuàng)作者)。著作權(quán)法保護(hù)著作權(quán)人的經(jīng)濟(jì)利益,網(wǎng)絡(luò)用戶作為職業(yè)創(chuàng)作者之外的業(yè)余創(chuàng)作者,其經(jīng)濟(jì)利益也需要得到保護(hù)。然而,算法私人執(zhí)法采取變現(xiàn)措施時(shí),事實(shí)上使得著作權(quán)人和網(wǎng)絡(luò)服務(wù)提供者能夠不斷攫取網(wǎng)絡(luò)用戶依靠業(yè)余創(chuàng)作而產(chǎn)生的經(jīng)濟(jì)利益。變現(xiàn)措施是指在算法標(biāo)記出包含著作權(quán)作品片段的視頻并通知著作權(quán)人之后,著作權(quán)人可以選擇在用戶創(chuàng)作的該視頻上投放廣告來盈利,并將所獲利潤在著作權(quán)人與網(wǎng)絡(luò)服務(wù)提供者之間進(jìn)行分配。通過變現(xiàn)措施,著作權(quán)人和網(wǎng)絡(luò)服務(wù)提供者可以從用戶的轉(zhuǎn)換性勞動中不當(dāng)?shù)美?,即使用戶對受著作?quán)保護(hù)作品的使用構(gòu)成合理使用。反之,作為生產(chǎn)者的用戶卻被剝奪了經(jīng)濟(jì)利益,即便其創(chuàng)作不以獲得經(jīng)濟(jì)回報(bào)為目的??梢哉f,變現(xiàn)措施維持并發(fā)展了“技術(shù)封建主義”。“技術(shù)封建主義”是指用戶免費(fèi)提供大量有價(jià)值的數(shù)據(jù)以換取網(wǎng)絡(luò)服務(wù),就像農(nóng)奴通過農(nóng)業(yè)產(chǎn)出換取土地使用權(quán)一樣。“技術(shù)封建主義”的產(chǎn)生源于網(wǎng)絡(luò)服務(wù)提供者和用戶之間的信息不對稱。由于沒有意識到數(shù)據(jù)生產(chǎn)是一種勞動,也沒有意識到明確的數(shù)據(jù)所有權(quán),更沒有意識到集體談判能力的重要性,用戶難以準(zhǔn)確認(rèn)識網(wǎng)絡(luò)服務(wù)提供者某些行為的剝削性質(zhì),相反在其上傳的內(nèi)容被不當(dāng)刪除或被剝奪經(jīng)濟(jì)利益后仍會選擇返回平臺,結(jié)果是用戶將持續(xù)受到網(wǎng)絡(luò)服務(wù)提供者的剝削。用戶在信息獲取和專業(yè)知識方面的相對弱勢、保留對平臺訪問權(quán)的愿望以及申訴過程的繁瑣性共同創(chuàng)造了一種環(huán)境——著作權(quán)人和網(wǎng)絡(luò)服務(wù)提供者能夠很方便地從用戶的勞動中榨取價(jià)值而不用付出任何代價(jià)。數(shù)字平臺通過數(shù)據(jù)收集和分析,復(fù)制或模仿社交互動,提高用戶對平臺的依賴程度,增加平臺使用頻率,從而形成網(wǎng)絡(luò)效應(yīng),使數(shù)字平臺的使用成為進(jìn)行社會互動和維持社會地位的必要前提,進(jìn)而限制了在數(shù)據(jù)制度之外生活的可能性,用戶拒絕生成數(shù)據(jù)可能就意味著被排斥。在數(shù)據(jù)殖民主義下,用戶被迫不斷免費(fèi)提供數(shù)據(jù)以換取網(wǎng)絡(luò)服務(wù)。網(wǎng)絡(luò)服務(wù)提供者對業(yè)余創(chuàng)作者的持續(xù)剝削將會產(chǎn)生不利后果:第一,當(dāng)業(yè)余創(chuàng)作者不能從其創(chuàng)作中獲得經(jīng)濟(jì)利益時(shí),特別是當(dāng)這些利益被轉(zhuǎn)移至未作任何付出的主體時(shí),其創(chuàng)作積極性將受到重創(chuàng);第二,業(yè)余創(chuàng)作者的出現(xiàn)沒有導(dǎo)致電影公司等機(jī)構(gòu)創(chuàng)作者經(jīng)濟(jì)實(shí)力的分散,反而鞏固了其精英地位和市場力量,減少了通過遠(yuǎn)程勞動形式實(shí)現(xiàn)社會流動性的機(jī)會;第三,業(yè)余創(chuàng)作的減少最終將降低數(shù)字內(nèi)容的多樣性,導(dǎo)致資本文化極權(quán)的出現(xiàn)。

總之,技術(shù)發(fā)展推動二元化補(bǔ)救措施向多元化補(bǔ)救措施發(fā)展,私人執(zhí)法在算法加持下不斷擴(kuò)張,助推網(wǎng)絡(luò)服務(wù)提供者壓榨用戶勞動時(shí)間,算法私人執(zhí)法的異化造成勞動異化。

三、網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法異化的矯正

網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法的異化風(fēng)險(xiǎn)在于技術(shù)缺陷和權(quán)力擴(kuò)張,更在于協(xié)調(diào)各個治理主體關(guān)系的制度供給不足。傳統(tǒng)法律制度偏重于數(shù)據(jù)保護(hù),忽視了對算法的規(guī)制,更忽視了算法有別于其他技術(shù)的權(quán)力屬性以及對社會權(quán)力結(jié)構(gòu)的深刻影響。權(quán)力與權(quán)利的平衡應(yīng)成為矯正算法私人執(zhí)法異化的規(guī)制目標(biāo)。為此,矯正算法要轉(zhuǎn)換思路:數(shù)據(jù)保護(hù)和算法規(guī)制并重、技術(shù)規(guī)制和權(quán)力規(guī)制并行、單一主體參與到多元主體共治。矯正方案是沿著公權(quán)力合理限制私權(quán)力、增益私權(quán)利對抗私權(quán)力的規(guī)制思路,通過建立限權(quán)與賦權(quán)的制度體系,激發(fā)最大制度性合力,實(shí)現(xiàn)多元主體的利益平衡。

(一)明確規(guī)制算法私人執(zhí)法的基本原則

矯正算法私人執(zhí)法異化的規(guī)制目標(biāo)是促進(jìn)權(quán)力與權(quán)利的平衡。為此,需要算法私人執(zhí)法體系的構(gòu)建遵循以人為本原則、利益平衡原則、權(quán)責(zé)均衡原則和動態(tài)化原則。

以人為本原則要求法律制度應(yīng)當(dāng)體現(xiàn)以人為本的價(jià)值內(nèi)涵,促使網(wǎng)絡(luò)服務(wù)提供者在技術(shù)創(chuàng)新和運(yùn)用過程中摒棄“資本邏輯”,將人的尊嚴(yán)價(jià)值置于最高位階。因此,算法私人執(zhí)法法律規(guī)制框架的搭建應(yīng)強(qiáng)調(diào)基本權(quán)利保護(hù),重視網(wǎng)絡(luò)用戶合法權(quán)益以及社會公共利益的保護(hù)和救濟(jì)。

利益平衡原則要求算法私人執(zhí)法法律規(guī)制框架統(tǒng)籌兼顧多方主體的基本權(quán)利和合理需求。根據(jù)利益平衡原則,權(quán)利沖突的各方(著作權(quán)人、網(wǎng)絡(luò)服務(wù)提供者以及網(wǎng)絡(luò)用戶)應(yīng)分擔(dān)責(zé)任,在所有權(quán)利都得到尊重的前提下,各自做出小的犧牲以找到最佳平衡點(diǎn)。由于網(wǎng)絡(luò)服務(wù)提供者難以在關(guān)涉自身利益的情況下保持公正,并且可能無法正確理解和實(shí)施法律,算法私人執(zhí)法不應(yīng)完全遵從由網(wǎng)絡(luò)服務(wù)提供者自行制定的私人規(guī)則,而應(yīng)服從以平衡各方利益為目的的法律規(guī)則。堅(jiān)持利益平衡原則,重在處理好網(wǎng)絡(luò)服務(wù)提供者和網(wǎng)絡(luò)用戶之間的權(quán)責(zé)關(guān)系。網(wǎng)絡(luò)服務(wù)提供者由于掌握技術(shù)資源、平臺資源、信息資源,能隨意支配和影響用戶的行為,還可能走向壟斷地位;網(wǎng)絡(luò)用戶由于分散而處于相對弱勢的地位,其正當(dāng)?shù)暮戏?quán)利往往難以得到充分保障和體現(xiàn)。對此,一方面應(yīng)鼓勵網(wǎng)絡(luò)服務(wù)提供者之間展開充分有序的競爭,給予用戶充分的選擇權(quán),另一方面應(yīng)賦予用戶權(quán)利以校正其地位差距。

權(quán)責(zé)均衡原則要求網(wǎng)絡(luò)服務(wù)提供者權(quán)責(zé)配置之間保持適當(dāng)張力,總體上保持均衡或?qū)Φ汝P(guān)系。網(wǎng)絡(luò)服務(wù)提供者的責(zé)任過度擴(kuò)張將導(dǎo)致其消極無為或反向刺激過度自衛(wèi)的非正常行為;其責(zé)任模糊分散會帶來責(zé)任消解,甚至導(dǎo)致整個責(zé)任系統(tǒng)癱瘓以至出現(xiàn)“公地悲劇”現(xiàn)象。因此,算法私人執(zhí)法法律規(guī)制框架的搭建應(yīng)當(dāng)堅(jiān)持權(quán)責(zé)均衡原則。當(dāng)前網(wǎng)絡(luò)服務(wù)提供者的責(zé)任規(guī)定總體多于權(quán)力賦予,但這并不意味著網(wǎng)絡(luò)服務(wù)提供者處于弱勢地位,相反,從網(wǎng)絡(luò)用戶角度看,正是這些責(zé)任規(guī)定賦予了網(wǎng)絡(luò)服務(wù)提供者支配和影響其行為的權(quán)力。究其原因,責(zé)任規(guī)定的原則性導(dǎo)致操作上的模糊性,給網(wǎng)絡(luò)服務(wù)提供者留下了較大的自由裁量空間,客觀上造成了責(zé)任和權(quán)力相互拉扯的膠著狀態(tài)或功利性相互轉(zhuǎn)換的半失控狀態(tài),進(jìn)而導(dǎo)致了權(quán)力隨責(zé)任同步出現(xiàn)超比例增長的制度困境。對此,需要明確網(wǎng)絡(luò)服務(wù)提供者的權(quán)力來源和責(zé)任規(guī)定,做到權(quán)責(zé)內(nèi)容清晰化。

動態(tài)化原則要求網(wǎng)絡(luò)服務(wù)提供者的權(quán)責(zé)配置要隨著外部環(huán)境變化而同步變動,達(dá)到動態(tài)化均衡,以適應(yīng)發(fā)展迅速的網(wǎng)絡(luò)空間。網(wǎng)絡(luò)空間技術(shù)的發(fā)展推動網(wǎng)絡(luò)服務(wù)提供者私人執(zhí)法的擴(kuò)張,法律有相對滯后性,法律責(zé)任的不足導(dǎo)致網(wǎng)絡(luò)服務(wù)提供者權(quán)責(zé)失衡。動態(tài)化原則能在一定程度上化解這種矛盾,在保持網(wǎng)絡(luò)空間制度相對穩(wěn)定的基礎(chǔ)上,既強(qiáng)化責(zé)任對權(quán)力的跟蹤規(guī)范效應(yīng),又根據(jù)實(shí)際情況不斷調(diào)試權(quán)力口徑以對責(zé)任承擔(dān)起到必要支撐作用,堅(jiān)持原則性和靈活性的統(tǒng)一。

這些基本原則應(yīng)貫穿于算法私人執(zhí)法的各環(huán)節(jié),以基本原則為網(wǎng)絡(luò)服務(wù)提供者行動的指引和評價(jià)標(biāo)準(zhǔn),按照基本原則的要求進(jìn)行算法私人執(zhí)法法律規(guī)制框架的構(gòu)建,兼顧各方利益,實(shí)現(xiàn)利益平衡。

(二)建立算法審查法律制度

智能算法的固有缺陷是算法私人執(zhí)法異化的根本動因,算法無法識別合理使用等復(fù)雜情況,使得網(wǎng)絡(luò)用戶的合法言論被刪除、新的創(chuàng)作受打擊、經(jīng)濟(jì)利益被剝奪;算法不透明則阻礙用戶的知情和監(jiān)督,影響追責(zé)。對此,需在算法規(guī)制的專門法律中明確算法審查法律制度,算法審查主體應(yīng)當(dāng)是國家公權(quán)力機(jī)關(guān),如法院或網(wǎng)信部門等特定行政部門;審查內(nèi)容包括算法設(shè)計(jì)中的公共價(jià)值考慮、算法透明度等;審查形式可以是審查主體主動抽查,也可以是個案中的附帶審查。

1.審查算法的公共價(jià)值

隨著著作權(quán)私人執(zhí)法對算法的依賴性與日俱增,智能算法的設(shè)計(jì)缺陷導(dǎo)致算法私人執(zhí)法無法考慮合理使用等公共價(jià)值,導(dǎo)致大量的“假陽性”現(xiàn)象出現(xiàn)。該問題的解決需要激勵網(wǎng)絡(luò)服務(wù)提供者完善算法設(shè)計(jì),在算法系統(tǒng)設(shè)計(jì)中嵌入公共價(jià)值,增益算法公共價(jià)值。“公共價(jià)值具有非資本性和非市場性。公共價(jià)值是為了滿足公眾的基本需要和社會的正常運(yùn)轉(zhuǎn)而存在的,它具有社會福利和社會保障的性質(zhì)。”大量合法內(nèi)容因算法錯誤識別為著作權(quán)侵權(quán)而被移除、屏蔽、過濾等,不僅對著作權(quán)公共領(lǐng)域產(chǎn)生了嚴(yán)重侵蝕,合理使用空間遭遇擠壓,而且對用戶的表達(dá)權(quán)利產(chǎn)生侵害,阻嚇言論自由。在此背景下,增益算法公共價(jià)值對于維護(hù)合理使用、言論自由等具有重要意義。通過設(shè)計(jì)實(shí)現(xiàn)公共價(jià)值大有益處,如算法合理使用系統(tǒng)具備靈活性,能夠應(yīng)對不斷增長的內(nèi)容泛濫,且隨著智能算法的完善將最新的司法判決、法律規(guī)則轉(zhuǎn)化為代碼并運(yùn)行所需時(shí)間間隔不斷縮短;對無法負(fù)擔(dān)訴訟成本或不愿經(jīng)歷繁瑣訴訟程序的人而言,算法合理使用系統(tǒng)提供了一種低成本且便捷的選擇。

增益算法公共價(jià)值需要采取漸進(jìn)步驟。首先,根據(jù)技術(shù)發(fā)展情況動態(tài)設(shè)置審查標(biāo)準(zhǔn)。大數(shù)據(jù)、機(jī)器學(xué)習(xí)和人工智能等新技術(shù)的進(jìn)步為部署具備公共價(jià)值考量的算法系統(tǒng)提供了可行性。但是目前技術(shù)水平處于發(fā)展初期,自動化系統(tǒng)存在偏見和漏洞等現(xiàn)實(shí)問題不容忽視,因此應(yīng)在動態(tài)化原則的指引之下,科學(xué)合理地設(shè)定算法公共價(jià)值審查標(biāo)準(zhǔn)。例如,根據(jù)系統(tǒng)設(shè)計(jì),只有合理使用的可能性超過一定數(shù)值,該內(nèi)容才被允許傳播;低于一定數(shù)值則禁止傳播;介于兩者之間則允許上傳,上傳之后所獲利益在確定是侵權(quán)還是合理使用之后再歸于著作權(quán)人或用戶。這些數(shù)值通過司法解釋或部門規(guī)章予以設(shè)定,根據(jù)算法系統(tǒng)的先進(jìn)程度進(jìn)行設(shè)定,并隨著科學(xué)技術(shù)的進(jìn)步而不斷調(diào)整。如此,智能算法系統(tǒng)所做出的決策并非最終決定,而是生成反映合理使用和言論自由等公共價(jià)值概率的分?jǐn)?shù),國家公權(quán)力機(jī)關(guān)才有權(quán)確定認(rèn)定為合理使用和言論自由的最低標(biāo)準(zhǔn)線。其次,開發(fā)認(rèn)證流程以刺激算法系統(tǒng)之間的競爭。面對眾多算法系統(tǒng),競爭是利用市場手段促進(jìn)更高效、偏見更少的算法開發(fā)的重要工具,開發(fā)認(rèn)證流程可以推動算法系統(tǒng)進(jìn)行競爭,推動算法系統(tǒng)質(zhì)量提高。由網(wǎng)信部門、市場監(jiān)督管理局或第三方專業(yè)機(jī)構(gòu)負(fù)責(zé)開發(fā)認(rèn)證流程,要求算法從開發(fā)到部署都必須接受審計(jì)和監(jiān)督,以確保算法的公正性。具體而言,在算法設(shè)計(jì)和開發(fā)階段對算法進(jìn)行影響評估,評估算法可能如何運(yùn)作,確保其按預(yù)期功能運(yùn)行,并找出任何有問題的過程或假設(shè);開發(fā)完成后則需對算法本身以及訓(xùn)練數(shù)據(jù)和算法結(jié)果進(jìn)行審計(jì),以確保算法系統(tǒng)的中立性;在算法部署階段也需不斷進(jìn)行影響評估并進(jìn)行“修補(bǔ)”,定期測試算法系統(tǒng)并記錄結(jié)果,以便了解自動化系統(tǒng)的實(shí)際運(yùn)作,與不斷發(fā)展的機(jī)器學(xué)習(xí)發(fā)展保持同步。最后,在當(dāng)前階段,人工審查對于算法決策的補(bǔ)充和補(bǔ)救作用不可或缺。價(jià)值取舍具有綜合性和靈活性,需要考慮多方因素,在不同利益追求之間維持平衡,它不是非黑即白的數(shù)學(xué)問題,沒有“標(biāo)準(zhǔn)答案”,只有“參考答案”;價(jià)值取舍還會隨著具體情形的不同和時(shí)代的不同而千差萬別。價(jià)值取舍對于人類來說也是一個難題,更遑論缺乏自主思考能力的算法,因此算法私人執(zhí)法無法取代人的作用??紤]到算法私人執(zhí)法不局限于著作權(quán)領(lǐng)域,可以在規(guī)制算法的專門法律中明確規(guī)定網(wǎng)絡(luò)服務(wù)提供者必須設(shè)置人工審查。因此算法私人執(zhí)法實(shí)際上包含兩級審查:先進(jìn)行算法篩選,然后對由系統(tǒng)標(biāo)記但無法得出結(jié)論或存在爭議的部分交由人工進(jìn)行審查。

合理使用和言論自由作為算法私人執(zhí)法過程中最容易被忽視的公共價(jià)值,將其植入算法設(shè)計(jì),可以有效減輕算法私人執(zhí)法對言論自由的侵害和對合理使用空間的擠壓,將網(wǎng)絡(luò)用戶的基本權(quán)利和社會公共利益納為算法私人執(zhí)法的重要考慮價(jià)值。

2.保證算法透明度

算法“黑箱”導(dǎo)致網(wǎng)絡(luò)用戶和網(wǎng)絡(luò)服務(wù)提供者之間信息不對稱,網(wǎng)絡(luò)用戶可能并不知道其上傳的內(nèi)容被采取了措施,不知道內(nèi)容被非法移除、經(jīng)濟(jì)利益被非法剝奪,更無法尋求后續(xù)的救濟(jì)。保證算法透明度是用戶維權(quán)的前提、公眾監(jiān)督的基礎(chǔ)、網(wǎng)絡(luò)服務(wù)提供者承擔(dān)責(zé)任的關(guān)鍵。首先,作為法定義務(wù),網(wǎng)絡(luò)服務(wù)提供者應(yīng)當(dāng)在網(wǎng)絡(luò)服務(wù)協(xié)議中以明確、易于理解和足夠詳細(xì)的方式發(fā)布其采取內(nèi)容審核補(bǔ)救措施的標(biāo)準(zhǔn),說明平臺可能采取哪些內(nèi)容審核補(bǔ)救措施,這些措施適用于哪些情形,網(wǎng)絡(luò)用戶如何行使知情權(quán),等等。例如歐盟委員會主張,在線平臺應(yīng)在其服務(wù)條款中披露其詳細(xì)的內(nèi)容政策,并將其明確傳達(dá)給用戶。這些條款不僅應(yīng)定義刪除或禁止訪問內(nèi)容的政策,而且應(yīng)闡明確保內(nèi)容不會導(dǎo)致過度刪除的保障措施。其次,根據(jù)開放記錄策略的要求,網(wǎng)絡(luò)服務(wù)提供者有法定的義務(wù)解釋相關(guān)的結(jié)構(gòu)、邏輯并強(qiáng)調(diào)所采用的算法。開放記錄策略能夠克服自愿披露的缺陷,要求網(wǎng)絡(luò)服務(wù)提供者不得僅出于自身利益考慮而拒絕披露,或者披露部分信息或有偏見的信息。由于算法的復(fù)雜性,大多數(shù)情況下,披露代碼不會使人們理解算法的實(shí)際工作方式。因此,與其訴諸于代碼披露,不如通過揭示數(shù)學(xué)和邏輯符號、自然語言和關(guān)于如何選擇數(shù)據(jù)的信息的某種組合,包括所選擇的操作規(guī)則和為驗(yàn)證這些選擇而采取的步驟,這樣也可以使算法具有足夠的透明度。開放記錄策略使算法具備可解釋性進(jìn)而提高算法透明度。對此,需要在算法規(guī)制的專門法律中明確網(wǎng)絡(luò)服務(wù)提供者發(fā)布關(guān)鍵信息的義務(wù)和解釋算法的義務(wù)。值得說明的是,算法透明度審查目標(biāo)不在于實(shí)現(xiàn)算法的全透明,而是適度透明,即達(dá)到“魚缸透明”的程度即可,無需達(dá)到“理性透明”的程度。

算法透明有助于保障算法服務(wù)對象的知情權(quán),有助于重構(gòu)算法私人執(zhí)法與網(wǎng)絡(luò)服務(wù)提供者責(zé)任之間的因果關(guān)系,以及對算法私人執(zhí)法進(jìn)行問責(zé),便于外部監(jiān)督以降低算法私人執(zhí)法的異化風(fēng)險(xiǎn)。

(三)構(gòu)建算法私人執(zhí)法問責(zé)機(jī)制

算法私人執(zhí)法問責(zé)機(jī)制構(gòu)建的目的在于讓網(wǎng)絡(luò)服務(wù)提供者對算法私人執(zhí)法行為負(fù)責(zé)。傳統(tǒng)“行為—責(zé)任”的邏輯鏈條一定程度上因算法的介入而斷鏈。算法的不透明性、自主性產(chǎn)生了算法的不可控性,導(dǎo)致網(wǎng)絡(luò)服務(wù)提供者往往以決策是由技術(shù)中立的算法模型作出為由拒絕承擔(dān)責(zé)任。但是網(wǎng)絡(luò)服務(wù)提供者不可能從算法私人執(zhí)法責(zé)任中完全脫身,因?yàn)榫W(wǎng)絡(luò)服務(wù)提供者是算法私人執(zhí)法的主體,使用算法對網(wǎng)上內(nèi)容采取刪除、屏蔽、過濾等措施,既是裁決者又是執(zhí)行者,履行著對公眾而言極為重要的執(zhí)法職能。這樣,網(wǎng)絡(luò)服務(wù)提供者事先審核義務(wù)和私人執(zhí)法行為具有一定的公共屬性和平等協(xié)商的私法屬性。因此追究網(wǎng)絡(luò)服務(wù)提供者對算法私人執(zhí)法的責(zé)任具有合理性。在此背景下,算法私人執(zhí)法問責(zé)機(jī)制的構(gòu)建旨在恢復(fù)算法私人執(zhí)法行為與網(wǎng)絡(luò)服務(wù)提供者責(zé)任之間斷開的因果關(guān)系鏈條。算法私人執(zhí)法問責(zé)機(jī)制不僅要求網(wǎng)絡(luò)服務(wù)提供者對算法私人執(zhí)法造成的損害負(fù)責(zé),而且要求其向受算法私人執(zhí)法影響的個人說明決策的過程和理由。因此,對算法設(shè)計(jì)不合理(如算法設(shè)計(jì)中并未包含公共價(jià)值考量)、算法未充分公開(未達(dá)到“魚缸透明”程度)、未提供人工審查渠道以糾正“假陽性錯誤”、未提供申訴渠道和救濟(jì)途徑等情況,網(wǎng)絡(luò)服務(wù)提供者均需要承擔(dān)責(zé)任。問責(zé)機(jī)制的構(gòu)建為私權(quán)力的行使引入必要的檢查和監(jiān)督,確保網(wǎng)絡(luò)服務(wù)提供者以公平和有效的方式制定私人規(guī)則并進(jìn)行算法私人執(zhí)法。國外早已認(rèn)識到算法問責(zé)的重要性并發(fā)展了相關(guān)的立法實(shí)踐。如美國基于其政策和法律體系較早進(jìn)行了監(jiān)管策略和法律回應(yīng),較早通過了《2019年算法問責(zé)法案》,形成了較為具體且靈活的算法治理框架及結(jié)構(gòu),體現(xiàn)出較為明顯的實(shí)踐導(dǎo)向,注重多元主體參與,構(gòu)建起以“算法問責(zé)”為核心的外部控制模式。歐盟委員會發(fā)布的《可信人工智能倫理指南》草案中將可問責(zé)性作為可信賴人工智能的首要關(guān)鍵條件,強(qiáng)調(diào)算法做出的任何決定都必須記錄以經(jīng)過驗(yàn)證和解釋。

在吸收域外經(jīng)驗(yàn),結(jié)合我國算法治理實(shí)踐的基礎(chǔ)上,算法私人執(zhí)法問責(zé)機(jī)制應(yīng)當(dāng)明確以下主要內(nèi)容。第一,明確被問責(zé)的主體。不同網(wǎng)絡(luò)平臺的特性、用戶量及其日均活躍度不同,私人執(zhí)法不當(dāng)所引發(fā)的風(fēng)險(xiǎn)、影響范圍、后果嚴(yán)重程度也不同。因此,應(yīng)以算法使用規(guī)模、涉及主體的多少、所涉公共利益的類型等確定被問責(zé)的主體。如美國《2019年算法問責(zé)法案》要求美國聯(lián)邦貿(mào)易委員會對企業(yè)進(jìn)行算法審查,適用的對象包括年收入超過5000萬美元的公司,以及擁有超過100萬消費(fèi)者數(shù)據(jù)的數(shù)據(jù)代理商和企業(yè)。第二,明晰算法問責(zé)的標(biāo)準(zhǔn)。為避免歧視性、不公平、有害的算法決策結(jié)果產(chǎn)生,應(yīng)當(dāng)對算法系統(tǒng)采用各種控制措施,以驗(yàn)證它是否符合運(yùn)營者的意圖,并且應(yīng)能夠識別和糾正有害結(jié)果,包括算法技術(shù)是否進(jìn)行了影響性評估,對其是否進(jìn)行了風(fēng)險(xiǎn)層次劃分,是否進(jìn)行了可解釋性內(nèi)容的配套,等等。第三,規(guī)范問責(zé)程序。根據(jù)程序正義的要求,算法問責(zé)的正當(dāng)程序要求包括但不限于,引入第三方作為仲裁者、賦予算法決策相關(guān)利益人要求聽證的權(quán)利、提高程序透明度等。

(四)確立基本權(quán)利保護(hù)責(zé)任制度

網(wǎng)絡(luò)服務(wù)提供者基本權(quán)利保護(hù)責(zé)任的明確是以人為本原則、權(quán)責(zé)均衡原則和利益平衡原則的內(nèi)在要求,既有現(xiàn)實(shí)依據(jù),又有理論基礎(chǔ)。

首先,智能算法發(fā)展引致私人執(zhí)法擴(kuò)張,基本權(quán)利和社會公益面臨被侵犯風(fēng)險(xiǎn),網(wǎng)絡(luò)服務(wù)提供者基本權(quán)利保護(hù)責(zé)任的明確具有現(xiàn)實(shí)緊迫性。一方面,根據(jù)憲法原則,基本權(quán)利保護(hù)責(zé)任由公權(quán)力主體承擔(dān),而私主體免于承擔(dān),因此網(wǎng)絡(luò)服務(wù)提供者不負(fù)有保護(hù)基本權(quán)利的責(zé)任;另一方面,受限于管制成本和管制能力,公權(quán)力主體需要依賴于網(wǎng)絡(luò)服務(wù)提供者對在線內(nèi)容進(jìn)行有效公共控制,從而賦予網(wǎng)絡(luò)服務(wù)提供者部分執(zhí)法權(quán)力,私人執(zhí)法隨著技術(shù)的發(fā)展日益膨脹。結(jié)果是,在追求公共價(jià)值和保護(hù)基本權(quán)利責(zé)任缺失、程序規(guī)則和問責(zé)機(jī)制缺席等因素的共同作用下,網(wǎng)絡(luò)服務(wù)提供者在行使廣泛自主權(quán)的過程中極有可能侵害其他主體的基本權(quán)利和公共利益。為了規(guī)制算法私人執(zhí)法的異化風(fēng)險(xiǎn),網(wǎng)絡(luò)服務(wù)提供者基本權(quán)利保護(hù)責(zé)任之規(guī)定實(shí)有必要。

其次,橫向效應(yīng)理論為網(wǎng)絡(luò)服務(wù)提供者基本權(quán)利保護(hù)責(zé)任的規(guī)定提供了理論基礎(chǔ)。橫向效應(yīng)理論是應(yīng)對私權(quán)力集中對自由造成威脅的一種回應(yīng),其拒絕嚴(yán)格區(qū)分公共行為者和私人行為者,將基本權(quán)利保護(hù)等憲法義務(wù)延伸至私人行為者。換言之,橫向效應(yīng)理論關(guān)注的是憲法權(quán)利是否以及在多大程度上可以對私人行為者之間的關(guān)系產(chǎn)生影響的問題。橫向效應(yīng)理論的擴(kuò)張適用可能增加法律不確定性、對分權(quán)和法治產(chǎn)生不利影響,因此基本權(quán)利保護(hù)責(zé)任的橫向適用應(yīng)當(dāng)限于網(wǎng)絡(luò)服務(wù)提供者因公共職能授權(quán)而行使其自主權(quán)的范圍之內(nèi),在著作權(quán)領(lǐng)域主要限于著作權(quán)私人執(zhí)法。

最后,根據(jù)橫向效應(yīng)理論,基本權(quán)利保護(hù)責(zé)任橫向適用于網(wǎng)絡(luò)服務(wù)提供者。一方面,網(wǎng)絡(luò)服務(wù)提供者必須在算法私人執(zhí)法過程中兼顧用戶基本權(quán)利保護(hù),從算法設(shè)計(jì)和部署到私人規(guī)則制定和修改,都要將基本權(quán)利保護(hù)作為重要的價(jià)值追求。因此,網(wǎng)絡(luò)服務(wù)提供者不僅要遵從以人為本、利益平衡的價(jià)值原則,從根本上糾正偏重著作權(quán)保護(hù)而忽視基本權(quán)利保護(hù)的偏見思維,而且要重視人工實(shí)質(zhì)審查的補(bǔ)救作用,及時(shí)糾正錯誤執(zhí)法行為及其結(jié)果,并積極配合用戶訴訟權(quán)利的行使。另一方面,橫向效應(yīng)理論也為適用于公權(quán)力機(jī)構(gòu)的著作權(quán)執(zhí)法約束機(jī)制引入算法私人執(zhí)法提供了理論基礎(chǔ),如正當(dāng)程序原則、透明度原則等。在這些規(guī)范的約束下,算法私人執(zhí)法的異化風(fēng)險(xiǎn)將受到最大的控制。

(五)配置用戶算法解釋權(quán)和申訴權(quán)

個人權(quán)利的配置是典型的“能力糾正”手段,旨在改善用戶與網(wǎng)絡(luò)服務(wù)提供者之間能力懸殊的境況。為使網(wǎng)絡(luò)用戶擁有與算法私人執(zhí)法相對抗的能力,可以在算法規(guī)制的專門法律中明文規(guī)定網(wǎng)絡(luò)用戶享有算法解釋權(quán)和申訴權(quán)。

算法解釋權(quán)的配置對于算法黑箱的透明化發(fā)揮著重要的補(bǔ)充作用。算法解釋權(quán)即受算法決策影響的個人,其可以要求網(wǎng)絡(luò)服務(wù)提供者對特定算法行為進(jìn)行解釋的權(quán)利,解釋內(nèi)容不僅包括與自動化決策相關(guān)的信息,而且包括決策背后的邏輯和決策機(jī)制的合理性,但是不包括源代碼。這一權(quán)利允許用戶依賴算法過程的“人工翻譯”,增強(qiáng)算法中人的維度。相對于知情權(quán)而言,算法解釋權(quán)以行為干預(yù)為導(dǎo)向,包括用戶知情與行為干預(yù)兩個層次。具體而言,用戶知情層次是指具體算法決策結(jié)果的理由說明,即解釋具體決策考慮的主要因素以及各因素不同的權(quán)重;行為干預(yù)層次是指用戶更正算法決策結(jié)果的行為指引,即應(yīng)提供某個因素將導(dǎo)致算法決策可能發(fā)生的改變,并指出決定性因素。同時(shí)為了防止算法解釋權(quán)的濫用,避免產(chǎn)生較高的解釋成本,影響算法決策效率,加重企業(yè)解釋負(fù)擔(dān),算法解釋權(quán)應(yīng)有所限定:行使階段限于算法決策作出后;權(quán)利主體限于權(quán)益受到重大不利影響的個人;該權(quán)利的啟動以人的參與達(dá)到必要程度為條件;不得影響他人的合法權(quán)益和自由等等。

申訴權(quán)的配置是網(wǎng)絡(luò)用戶權(quán)利救濟(jì)的重要保障,尤其是在算法私人執(zhí)法實(shí)質(zhì)上間接剝奪了網(wǎng)絡(luò)用戶反通知權(quán)的背景下。一般來說,提供內(nèi)容的人應(yīng)該有機(jī)會通過反通知對任何刪除決定提出異議,但是算法過濾技術(shù)改變了著作權(quán)法的缺省規(guī)則,發(fā)現(xiàn)侵權(quán)信息的主體由著作權(quán)人轉(zhuǎn)變?yōu)榫W(wǎng)絡(luò)服務(wù)提供者,著作權(quán)人的通知程序被消弭了。沒有了通知,反通知也就失去了存在的前提,反通知權(quán)名存實(shí)亡。為了保障網(wǎng)絡(luò)用戶獲得救濟(jì)權(quán)利,該申訴權(quán)的設(shè)置極為重要。該申訴權(quán)應(yīng)獲得法律保障并具有一定的強(qiáng)制性,而非由軟法或私人規(guī)則加以規(guī)定、由網(wǎng)絡(luò)服務(wù)提供者酌情確保。與網(wǎng)絡(luò)用戶的申訴權(quán)相對應(yīng),網(wǎng)絡(luò)服務(wù)提供者負(fù)有保障申訴權(quán)實(shí)現(xiàn)的義務(wù),包括將內(nèi)容處置措施及時(shí)向內(nèi)容上傳者通知,建立有效、快捷的投訴和補(bǔ)救機(jī)制,設(shè)置輔助的人工審查程序等。用戶有權(quán)在對網(wǎng)絡(luò)服務(wù)提供者的處理不滿意時(shí)向法院起訴,尋求司法救濟(jì),特別是關(guān)于著作權(quán)限制和例外方面存在的爭議。作為利益關(guān)涉方,網(wǎng)絡(luò)用戶通常是最先發(fā)現(xiàn)算法私人執(zhí)法異常的主體,而申訴權(quán)的設(shè)置使網(wǎng)絡(luò)用戶有能力對算法私人執(zhí)法異化行為及時(shí)提出異議,并要求網(wǎng)絡(luò)服務(wù)提供者予以糾正或訴諸法院強(qiáng)制其糾正。

算法解釋權(quán)推動信息從信息優(yōu)勢方向信息劣勢方流動,有利于矯正雙方信息不對稱的地位;申訴權(quán)增強(qiáng)網(wǎng)絡(luò)用戶在算法私人執(zhí)法過程中的話語權(quán),維護(hù)自身合法權(quán)益的同時(shí),也對算法私人執(zhí)法的異化起到重要的制約作用。

(六)完善規(guī)制網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法的規(guī)范體系

《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《全國人民代表大會常務(wù)委員會關(guān)于加強(qiáng)網(wǎng)絡(luò)信息保護(hù)的決定》等均賦予網(wǎng)絡(luò)服務(wù)提供者信息監(jiān)管與處置的權(quán)力。另外,中國修訂并出臺了其它與算法私人執(zhí)法相關(guān)的法律法規(guī)、規(guī)范性文件,如《中華人民共和國個人信息保護(hù)法》(以下簡稱:《個人信息保護(hù)法》)、《中華人民共和國電子商務(wù)法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《信息安全技術(shù)個人信息安全規(guī)范》《APP違法違規(guī)收集使用個人信息行為認(rèn)定方法》等,以引導(dǎo)網(wǎng)絡(luò)服務(wù)提供者主體行為,規(guī)范算法私人執(zhí)法。

從我國當(dāng)前關(guān)于算法私人執(zhí)法的法律制度偏重于對信息內(nèi)容的管控,這種制度安排導(dǎo)致公權(quán)力部門內(nèi)容審查范圍擴(kuò)大,忽視了算法時(shí)代的信息分類處理的不可解釋性和“黑箱”現(xiàn)象。從中國網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法的整體能效檢視,當(dāng)前我國算法治理的實(shí)際能效難以與現(xiàn)實(shí)需求相匹配,存在異化風(fēng)險(xiǎn),有必要在以下方面加以完善。第一,為了克服算法偏見,有效保護(hù)用戶合理使用權(quán)益,應(yīng)當(dāng)嘗試推進(jìn)有關(guān)合理使用的開放立法,在未來再次啟動《中華人民共和國著作權(quán)法》修改時(shí)將對文本和數(shù)據(jù)的挖掘與黑箱測試視為合理使用。第二,我國在立法上對網(wǎng)絡(luò)服務(wù)提供者科以積極的監(jiān)管義務(wù),《互聯(lián)網(wǎng)信息服務(wù)管理辦法(修訂草案征求意見稿)》(2021年)第16條、第39條進(jìn)一步規(guī)定,互聯(lián)網(wǎng)信息服務(wù)提供者應(yīng)“建立信息發(fā)布審核制度”“加強(qiáng)公共信息巡查”。根據(jù)《互聯(lián)網(wǎng)新聞信息服務(wù)管理規(guī)定》,互聯(lián)網(wǎng)新聞信息服務(wù)單位應(yīng)當(dāng)建立“新聞信息內(nèi)容管理責(zé)任制度”,但是,對于管理什么信息內(nèi)容及為此應(yīng)當(dāng)被賦予何種權(quán)責(zé),尚需要有進(jìn)一步的明確規(guī)定。我國可以借鑒德國做法,基于程序正當(dāng)性的考量,要求網(wǎng)絡(luò)服務(wù)提供者定期將信息監(jiān)管情況向社會公開以增強(qiáng)透明度。第三,在私權(quán)領(lǐng)域,網(wǎng)絡(luò)服務(wù)提供者有必要引入“數(shù)據(jù)保護(hù)官(DPO)”內(nèi)部審核制度。借鑒歐盟《一般數(shù)據(jù)條例》,規(guī)定具有專業(yè)素養(yǎng)的“數(shù)據(jù)保護(hù)官”負(fù)責(zé)審核數(shù)據(jù)安全,監(jiān)控算法的運(yùn)行狀態(tài)和運(yùn)行結(jié)果,并向網(wǎng)絡(luò)服務(wù)提供者提供審核建議。在公權(quán)領(lǐng)域,建構(gòu)審計(jì)監(jiān)督制度。我國2020年10月1日發(fā)布的《信息安全技術(shù)個人信息安全規(guī)范》已有算法審計(jì)監(jiān)督機(jī)制,相關(guān)內(nèi)容應(yīng)予以進(jìn)一步的細(xì)化規(guī)定。另外,需要引入第三方制約。“算法黑箱”模糊了公私領(lǐng)域的界限,應(yīng)考慮建立值得信賴的第三方機(jī)構(gòu)監(jiān)督機(jī)制。第四,參考美國《2019年算法問責(zé)法案》,我國有必要制定專門的算法問責(zé)法,明確算法問責(zé)的主體,明晰算法問責(zé)的標(biāo)準(zhǔn)。既然公權(quán)力在網(wǎng)絡(luò)信息監(jiān)管領(lǐng)域?qū)W(wǎng)絡(luò)服務(wù)提供者進(jìn)行賦權(quán),那也有義務(wù)對其權(quán)力運(yùn)行給予必要的監(jiān)督。責(zé)任有失的情況下,算法應(yīng)用方及其法定代表人、相關(guān)監(jiān)督部門應(yīng)作為追責(zé)對象,承擔(dān)連帶責(zé)任。用戶可以合理使用權(quán)益遭受損害為由提起給付之訴。第五,《個人信息保護(hù)法》第24條和第48條對算法解釋權(quán)的權(quán)利范圍、啟動條件有了初步的規(guī)定,但算法解釋權(quán)的解釋內(nèi)容、適用范圍、解釋標(biāo)準(zhǔn)還有待進(jìn)一步細(xì)化和限定。算法的社會嵌入性和應(yīng)用領(lǐng)域應(yīng)是設(shè)定衡量算法解釋義務(wù)標(biāo)準(zhǔn)時(shí)的首要考慮因素。第六,保證網(wǎng)絡(luò)用戶事后救濟(jì)的權(quán)利。如果負(fù)面決策是由于數(shù)據(jù)錯誤而產(chǎn)生的,算法決策相對人就有權(quán)要求更正數(shù)據(jù)或放棄算法決策,轉(zhuǎn)而申請人工決策?!缎畔⒕W(wǎng)絡(luò)傳播權(quán)保護(hù)條例》第16條、第17條就規(guī)定了用戶對于網(wǎng)絡(luò)服務(wù)提供者信息監(jiān)管權(quán)力行使的異議與救濟(jì)程序,其問題在于網(wǎng)絡(luò)服務(wù)提供者在實(shí)行信息審查與處置時(shí)并不以相關(guān)法律法規(guī)為直接依據(jù),而是直接援引其與用戶之間訂立的服務(wù)協(xié)議,將其視為基于網(wǎng)絡(luò)服務(wù)關(guān)系而進(jìn)行的平臺內(nèi)部秩序維護(hù)。信息監(jiān)管遵照何種判斷標(biāo)準(zhǔn)有待細(xì)化,用戶的異議與救濟(jì)程序能否發(fā)揮作用也有待立法進(jìn)一步完善。

未來我國網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法治理體系的構(gòu)建應(yīng)綜合考量當(dāng)前網(wǎng)絡(luò)法律體系的立法現(xiàn)狀和發(fā)展需要,針對算法執(zhí)法主體的特征、不同主體之間的權(quán)利義務(wù)關(guān)系等進(jìn)行專門性立法。

四、結(jié)論

當(dāng)前網(wǎng)絡(luò)著作權(quán)算法私人執(zhí)法正從法律的自動執(zhí)行機(jī)制逐步轉(zhuǎn)變?yōu)槌椒傻乃饺酥刃蚓S護(hù)機(jī)制。這種不斷擴(kuò)展的執(zhí)法機(jī)制失去體系化和制度化約束,可能異化為一種間接的乃至更高位的權(quán)力變現(xiàn)手段。算法私人執(zhí)法不僅挑戰(zhàn)著權(quán)力的根本屬性,而且沖擊著公共利益的內(nèi)在價(jià)值。必須警惕算法私人執(zhí)法的負(fù)面效應(yīng),洞察算法缺陷與正義需求,及時(shí)促進(jìn)秩序范式的創(chuàng)新,以實(shí)現(xiàn)著作權(quán)保護(hù)以人為本與算法向善的根本關(guān)懷。為此,防范私人執(zhí)法異化,矯正的首要路徑應(yīng)是回歸權(quán)力與權(quán)利的平衡點(diǎn),呼應(yīng)不同主體之間對權(quán)力義務(wù)再配置的現(xiàn)實(shí)訴求,賦予私人執(zhí)法相對人救濟(jì)權(quán),助推法律與技術(shù)的正當(dāng)契合,實(shí)現(xiàn)網(wǎng)絡(luò)著作權(quán)利益平衡的價(jià)值皈依。

來源:《政治與法律》2024年第5期“實(shí)務(wù)研究”欄目。因篇幅較長,已略去原文注釋。

(作者:張海燕 中南大學(xué)法學(xué)院副教授、中南大學(xué)人權(quán)研究中心研究員)

打印|
返回頂部