摘要:人工智能在我國(guó)已經(jīng)形成信息內(nèi)容管理與科技、產(chǎn)業(yè)發(fā)展兩種不同立法定位。用信息內(nèi)容管理定位人工智能,相當(dāng)于將新質(zhì)生產(chǎn)力納入上層建筑管理,難免產(chǎn)生各種錯(cuò)配現(xiàn)象。為了體現(xiàn)人工智能法非對(duì)稱性特點(diǎn),需要將人工智能作為前沿科技和新質(zhì)生產(chǎn)力來(lái)定位,在明確安全與發(fā)展基本原則的基礎(chǔ)上,通過(guò)不同部門法的立改廢釋實(shí)現(xiàn)法治范式變革。既要清理、廢止不利于人工智能發(fā)展的規(guī)定與做法,又要確立有利于推動(dòng)人工智能安全與發(fā)展的觀念、規(guī)范與制度。我國(guó)人工智能立法需要保持靈活性,小步快跑,避免“一刀切”立法造成難以挽回的負(fù)面影響。
關(guān)鍵詞:人工智能立法;人工智能法;范式變革;非對(duì)稱性
一、引言——互聯(lián)網(wǎng)治理的兩種定位
我國(guó)全功能接入國(guó)際互聯(lián)網(wǎng)三十年,互聯(lián)網(wǎng)治理在不同時(shí)期形成兩種不同的定位。
最初,互聯(lián)網(wǎng)以其科技特點(diǎn)被我國(guó)接納,實(shí)現(xiàn)與國(guó)際互聯(lián)網(wǎng)連接。同時(shí),從863計(jì)劃開(kāi)始,我國(guó)就從全球信息化發(fā)展大勢(shì)認(rèn)識(shí)到信息產(chǎn)業(yè)的重要性,從科技、產(chǎn)業(yè)發(fā)展來(lái)定位互聯(lián)網(wǎng),推動(dòng)網(wǎng)絡(luò)科技與信息產(chǎn)業(yè)在我國(guó)的高速發(fā)展。我國(guó)接入國(guó)際互聯(lián)網(wǎng)以后的近二十年時(shí)間里,負(fù)責(zé)我國(guó)互聯(lián)網(wǎng)治理的一直是科技或者產(chǎn)業(yè)管理機(jī)構(gòu)。
2009年,隨著智能手機(jī)開(kāi)始在我國(guó)銷售,我國(guó)逐步進(jìn)入以“兩微一端”為標(biāo)志的移動(dòng)互聯(lián)網(wǎng)時(shí)代,互聯(lián)網(wǎng)媒體化特征突顯。面對(duì)生產(chǎn)關(guān)系與上層建筑的深刻變革,習(xí)近平總書記指出,“網(wǎng)絡(luò)和信息安全牽涉到國(guó)家安全和社會(huì)穩(wěn)定,是我們面臨的新的綜合性挑戰(zhàn)”。2013年黨的十八屆三中全會(huì)以后,負(fù)責(zé)我國(guó)互聯(lián)網(wǎng)治理的主要是意識(shí)形態(tài)管理機(jī)構(gòu),信息內(nèi)容管理成為基本定位。經(jīng)過(guò)十多年努力,網(wǎng)絡(luò)綜合治理體系不斷建立健全,“網(wǎng)絡(luò)生態(tài)持續(xù)向好,意識(shí)形態(tài)領(lǐng)域形勢(shì)發(fā)生全局性、根本性轉(zhuǎn)變”。
我國(guó)互聯(lián)網(wǎng)治理所經(jīng)歷的兩個(gè)歷史階段與兩種不同定位,完整地投射到我國(guó)人工智能治理與立法之上,留下鮮明的歷史印記。
二、人工智能立法的兩種不同定位
新一代人工智能的快速發(fā)展,尤其是2022年底橫空出世的ChatGPT,使如何定位人工智能及其立法成為無(wú)法回避的重大時(shí)代問(wèn)題。受我國(guó)互聯(lián)網(wǎng)治理體制的影響,實(shí)踐中快速形成兩種不同的立法定位。
(一)科技、產(chǎn)業(yè)發(fā)展定位及立法部署
2017年,作為世界上最早制定人工智能發(fā)展戰(zhàn)略規(guī)劃的國(guó)家之一,我國(guó)發(fā)布《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱《發(fā)展規(guī)劃》),從加快建設(shè)創(chuàng)新型國(guó)家和世界科技強(qiáng)國(guó)的角度進(jìn)行系統(tǒng)部署,明確科技引領(lǐng)、系統(tǒng)布局、市場(chǎng)主導(dǎo)、開(kāi)源開(kāi)放四項(xiàng)原則,要求以提升新一代人工智能科技創(chuàng)新能力為主攻方向,發(fā)展智能經(jīng)濟(jì),建設(shè)智能社會(huì),維護(hù)國(guó)家安全。在部署推動(dòng)人工智能科技與產(chǎn)業(yè)發(fā)展的同時(shí),《發(fā)展規(guī)劃》對(duì)人工智能作為顛覆性技術(shù)可能帶來(lái)改變就業(yè)結(jié)構(gòu)、沖擊法律與社會(huì)倫理、侵犯?jìng)€(gè)人隱私、挑戰(zhàn)國(guó)際關(guān)系準(zhǔn)則等問(wèn)題有非常深刻的認(rèn)識(shí),明確人工智能法律法規(guī)、倫理規(guī)范和政策體系的“三步走”建設(shè)目標(biāo),列舉了需要具體立法的領(lǐng)域。
《發(fā)展規(guī)劃》發(fā)布之后,科技部、工信部、國(guó)家發(fā)改委、公安部、中科院、國(guó)家標(biāo)準(zhǔn)委等相繼制定推動(dòng)人工智能發(fā)展、防范人工智能風(fēng)險(xiǎn)的各種政策與規(guī)范性文件,如《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018—2020年)》《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見(jiàn)》《國(guó)家車聯(lián)網(wǎng)產(chǎn)業(yè)標(biāo)準(zhǔn)體系建設(shè)指南(智能網(wǎng)聯(lián)汽車)》《科技倫理審查辦法(試行)》等。上海、深圳制定了促進(jìn)人工智能產(chǎn)業(yè)發(fā)展的地方性法規(guī),浙江、廣東、北京、成都、杭州等多地制定了促進(jìn)人工智能研究與產(chǎn)業(yè)發(fā)展的政策性文件。國(guó)務(wù)院2023年、2024年連續(xù)兩年將人工智能法草案列入年度立法計(jì)劃。十三屆、十四屆全國(guó)人大常委會(huì)立法規(guī)劃均將人工智能立法列入其中。
推動(dòng)科技、產(chǎn)業(yè)發(fā)展定位的人工智能立法活動(dòng),體現(xiàn)出發(fā)展優(yōu)先,以改革創(chuàng)新促發(fā)展,有效防范和化解風(fēng)險(xiǎn)的立法思路,也是當(dāng)前各國(guó)對(duì)人工智能立法定位的共同做法。不過(guò),由于新一代人工智能(《發(fā)展規(guī)劃》稱之為“自主智能”)仍然屬于新生事物,沒(méi)有現(xiàn)成經(jīng)驗(yàn)可資借鑒,這類立法活動(dòng)仍然處于萌芽和探索階段。黨的二十屆三中全會(huì)決定要求,“完善推動(dòng)新一代信息技術(shù)、人工智能等戰(zhàn)略性產(chǎn)業(yè)發(fā)展政策和治理體系”,為人工智能立法和治理體系完善明確了方向。
(二)信息內(nèi)容管理定位及立法
新一代人工智能尤其是ChatGPT所具備的內(nèi)容生成能力,使得從互聯(lián)網(wǎng)信息內(nèi)容管理角度來(lái)界定和規(guī)范人工智能成為另一種立法思路。在ChatGPT推出之后不到一年,我國(guó)互聯(lián)網(wǎng)治理主管部門迅速出臺(tái)《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱為《暫行辦法》),被學(xué)者稱為世界上第一個(gè)生成式人工智能法律規(guī)范。迄今為止,尚未有任何其他主要國(guó)家從這個(gè)角度來(lái)定位和規(guī)范人工智能。通過(guò)與《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》和《生成式人工智能服務(wù)安全基本要求》(以下簡(jiǎn)稱《安全基本要求》)等法律和規(guī)范性文件銜接,《暫行辦法》對(duì)我國(guó)人工智能的管理部門、執(zhí)法主體、法律依據(jù)、執(zhí)法程序、法律責(zé)任等予以明確,突出體現(xiàn)了生成內(nèi)容全覆蓋、生成過(guò)程全流程管理兩大特點(diǎn)。
按照《暫行辦法》第2條,利用生成式人工智能技術(shù)向我國(guó)境內(nèi)公眾提供生成文本、圖片、音頻、視頻等內(nèi)容的服務(wù)均屬于其適用范圍。2023年4月發(fā)布的《暫行辦法(征求意見(jiàn)稿)》第6條規(guī)定,利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)向國(guó)家網(wǎng)信部門申報(bào)安全評(píng)估,并履行算法備案和變更、注銷備案手續(xù)。這一規(guī)定體現(xiàn)了將生成式人工智能服務(wù)提供者作為信息內(nèi)容生產(chǎn)者管理的基本思路。這一條經(jīng)修改后成為《暫行辦法》第17條,并加上一個(gè)申報(bào)安全評(píng)估和備案的前提條件——“具有輿論屬性或者社會(huì)動(dòng)員能力”。但是,第17條恰恰說(shuō)明不具備前提條件的人工智能服務(wù)仍然在該規(guī)章適用范圍內(nèi),只是不需要申報(bào)安全評(píng)估和備案。由于輿論屬性或者社會(huì)動(dòng)員能力的標(biāo)準(zhǔn)與范圍均具有一定的模糊性,目前大模型備案實(shí)踐中,是否需要備案,需要與主管部門咨詢溝通,面向公眾的大模型均可能被認(rèn)為具有輿論屬性或者社會(huì)動(dòng)員能力。
我國(guó)對(duì)于互聯(lián)網(wǎng)信息內(nèi)容有成熟的管理經(jīng)驗(yàn),《暫行辦法》將預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng)納入管理范圍,構(gòu)筑事前、事中、事后全流程管理的整套制度,包括法治與其他手段并用、部門分工負(fù)責(zé)、分類分級(jí)監(jiān)管、社會(huì)共治、嚴(yán)格平臺(tái)責(zé)任、注重未成年人保護(hù)、強(qiáng)化安全評(píng)估與備案、違法內(nèi)容處置、加強(qiáng)對(duì)境外服務(wù)的管理、嚴(yán)格法律責(zé)任追究等。盡管《暫行辦法》囿于立法權(quán)限只能要求大模型安全評(píng)估和算法備案,但《安全基本要求》通過(guò)嚴(yán)格的規(guī)定,實(shí)際上使安全評(píng)估成為事實(shí)上的事前審批。并且,《安全基本要求》將管理環(huán)節(jié)從應(yīng)用向研發(fā)延伸,比以往的全流程管理鏈條更長(zhǎng)。比如,面向特定語(yǔ)料來(lái)源進(jìn)行采集之前與之后,應(yīng)當(dāng)對(duì)該來(lái)源語(yǔ)料進(jìn)行安全評(píng)估或核驗(yàn),語(yǔ)料內(nèi)容中含違法不良信息超過(guò)5%的,不應(yīng)采集該來(lái)源語(yǔ)料或使用該語(yǔ)料進(jìn)行訓(xùn)練;如需基于第三方基礎(chǔ)模型提供服務(wù),應(yīng)使用已經(jīng)主管部門備案的基礎(chǔ)模型等。
科技、產(chǎn)業(yè)發(fā)展定位的現(xiàn)行規(guī)定主要是鼓勵(lì)類、促進(jìn)類柔性政策文件,高層級(jí)立法尚未啟動(dòng)。相比之下,《暫行辦法》已經(jīng)形成從法律、規(guī)章到技術(shù)文件一整套較為完備的規(guī)范體系,對(duì)相關(guān)主體更有現(xiàn)實(shí)意義和影響力。
三、信息內(nèi)容管理定位的問(wèn)題分析
(一)信息內(nèi)容管理定位的由來(lái)
ChatGPT出現(xiàn)前后,國(guó)外出現(xiàn)的幾起深度偽造名人的網(wǎng)絡(luò)事件,引發(fā)各界高度關(guān)注。《暫行辦法(征求意見(jiàn)稿)》發(fā)布前后,法學(xué)界較為密集地發(fā)表了一批討論信息內(nèi)容與意識(shí)形態(tài)安全方面的研究論文,這些論文的關(guān)注重點(diǎn)與之前對(duì)人工智能生成內(nèi)容的研究有明顯的差異。
有學(xué)者擔(dān)心,“由于大模型具有的重大影響及其本身難以克服的局限性,可能會(huì)給信息內(nèi)容治理帶來(lái)顯著風(fēng)險(xiǎn)”。有學(xué)者憂慮,“以ChatGPT為代表的生成式人工智能基于西方價(jià)值觀和思維導(dǎo)向建立,其回答也通常迎合西方立場(chǎng)和喜好,可能導(dǎo)致意識(shí)形態(tài)滲透”。有學(xué)者認(rèn)為,人工智能生成內(nèi)容的主要風(fēng)險(xiǎn)“很大程度上來(lái)源于生成式人工智能被用于‘深度偽造’的能力”。有學(xué)者強(qiáng)調(diào),“生成式人工智能可以通過(guò)其強(qiáng)大的算力合成假文章、生成假新聞等制造各種事實(shí)性錯(cuò)誤,此外,不法人員會(huì)通過(guò)利用深度合成技術(shù)生成的虛假信息,來(lái)實(shí)施侮辱誹謗、造謠傳謠、侵犯?jìng)€(gè)人隱私甚至是通過(guò)深度合成技術(shù)仿冒他人實(shí)施詐騙等行為,嚴(yán)重?cái)_亂網(wǎng)絡(luò)傳播秩序和社會(huì)秩序,這些因人工智能生成內(nèi)容導(dǎo)致的濫用風(fēng)險(xiǎn)給當(dāng)前的網(wǎng)絡(luò)治理工作帶來(lái)了極大的困難”。有學(xué)者斷言,“ChatGPT等生成式人工智能在掌握先進(jìn)技術(shù)基礎(chǔ)上誘發(fā)了一系列輻射廣泛、滲透全面、不易掌控的意識(shí)形態(tài)風(fēng)險(xiǎn)”。
對(duì)于類似研究結(jié)論,已經(jīng)有學(xué)者指出,有關(guān)風(fēng)險(xiǎn)的研究與預(yù)測(cè)“大多還是停留于猜想和假設(shè)階段,尚未實(shí)際發(fā)生,關(guān)于這些風(fēng)險(xiǎn)的發(fā)生概率同樣未有定論”。其實(shí),如果將我國(guó)對(duì)境外大模型的管理制度納入考慮,很多悲觀預(yù)測(cè)基本是出于想象。在大是大非問(wèn)題上,國(guó)內(nèi)大模型服務(wù)提供者不可能有半點(diǎn)疏忽。然而,學(xué)術(shù)界的這種擔(dān)心,一定程度反映著全社會(huì)面對(duì)陌生事物的共同焦慮和不安,也直接催生了信息內(nèi)容管理定位的形成。
(二)信息內(nèi)容管理定位的問(wèn)題分析
大模型的核心技術(shù)機(jī)制,在于通過(guò)從語(yǔ)料中學(xué)習(xí)到的規(guī)律(在數(shù)學(xué)上就是概率)來(lái)生成文字,“本質(zhì)上,機(jī)器學(xué)習(xí)系統(tǒng)就是進(jìn)行觀察和預(yù)測(cè)的程序”。這樣,就可能會(huì)生成符合規(guī)律(可能性)但不符合現(xiàn)實(shí)的內(nèi)容,也就是這個(gè)領(lǐng)域常說(shuō)的幻覺(jué)(Hallucination),而幻覺(jué)只能降低不能完全消除。加上受限于發(fā)展階段、語(yǔ)料的數(shù)量與質(zhì)量等各方面條件的限制,大模型發(fā)展之初生成內(nèi)容的準(zhǔn)確性、可靠性不可能盡善盡美,“一本正經(jīng)地胡說(shuō)八道”現(xiàn)象不可避免。
在我國(guó),信息內(nèi)容安全有比較明確的共識(shí)和邊界,核心是意識(shí)形態(tài)安全,集中體現(xiàn)為《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》所界定的20類“違法不良”信息。上海交通大學(xué)清源研究院生成式人工智能研究組2023年曾經(jīng)評(píng)估國(guó)內(nèi)八家國(guó)產(chǎn)大模型在生成內(nèi)容真實(shí)性方面的表現(xiàn),發(fā)現(xiàn)國(guó)產(chǎn)大模型在回答問(wèn)題時(shí)存在捏造事實(shí)和過(guò)度迎合用戶的現(xiàn)象。例如,虛構(gòu)不存在的法律條款來(lái)回答用戶的法律咨詢,編造疾病的治療方案來(lái)回復(fù)患者。有學(xué)者測(cè)評(píng)發(fā)現(xiàn)“ChatGPT更容易出現(xiàn)中文的常識(shí)性和知識(shí)性錯(cuò)誤”,“ChatGPT可能編造虛假信息,并且其輸出通常是真實(shí)信息與虛假信息的混合”。不過(guò),仔細(xì)分析類似測(cè)評(píng)報(bào)告可以發(fā)現(xiàn),測(cè)評(píng)中發(fā)現(xiàn)的這些問(wèn)題絕大部分并不屬于違法不良信息,而是技術(shù)能力不成熟導(dǎo)致的回答不正確現(xiàn)象。隨著技術(shù)的成熟,技術(shù)本身就能夠很大程度上解決這些問(wèn)題。將大模型存在的準(zhǔn)確性、可靠性問(wèn)題全都?xì)w為信息內(nèi)容風(fēng)險(xiǎn),明顯存在對(duì)風(fēng)險(xiǎn)程度的夸大。
由于網(wǎng)絡(luò)信息來(lái)源的多樣性,包括各種網(wǎng)絡(luò)百科在內(nèi)的網(wǎng)絡(luò)信息,都是不同用戶提供的。傳統(tǒng)搜索引擎搜索出來(lái)的結(jié)果,并不能保證每條信息的準(zhǔn)確性和可靠性,網(wǎng)絡(luò)用戶必須結(jié)合其他信息來(lái)源、生活常識(shí)等做出判斷與選擇。即使官方發(fā)布的信息,也只是“信息”,而并不是一定事實(shí)。對(duì)于大模型的準(zhǔn)確性與可靠性,服務(wù)提供者有強(qiáng)烈的內(nèi)在激勵(lì)去不斷完善,以形成自己的核心競(jìng)爭(zhēng)力。人工智能預(yù)訓(xùn)練語(yǔ)言模型的發(fā)展呈指數(shù)型增強(qiáng),參數(shù)規(guī)模的增長(zhǎng)也呈現(xiàn)這種規(guī)律。雙指數(shù)型增長(zhǎng)意味著改進(jìn)的速度非???,“開(kāi)始的時(shí)候增長(zhǎng)速度很慢,幾乎不被覺(jué)察,但是一旦超越曲線的拐點(diǎn),它便以爆炸性的速度增長(zhǎng)”。將對(duì)信息內(nèi)容管理的特定要求延伸適用于所有生成內(nèi)容,不但存在以偏概全的前提缺陷,也會(huì)抑制或者阻斷服務(wù)提供者的內(nèi)在激勵(lì)。人工智能需要盡可能擴(kuò)大語(yǔ)料來(lái)源和規(guī)模,在不斷的訓(xùn)練中提高準(zhǔn)確性和可靠性。《安全基本要求》適用于所有生成內(nèi)容,生成過(guò)程全流程管理,會(huì)導(dǎo)致合法合規(guī)訓(xùn)練數(shù)據(jù)不全面甚至枯竭,更加遠(yuǎn)離提高準(zhǔn)確性和可靠性的目標(biāo)。在國(guó)際地緣政治格局發(fā)生巨大變化的背景下,這些只適用于國(guó)內(nèi)大模型的管理措施,還會(huì)拉大國(guó)內(nèi)外人工智能發(fā)展的差距。
信息內(nèi)容管理完全不同于科技經(jīng)濟(jì)管理,將人工智能生成內(nèi)容全部納入信息內(nèi)容管理,會(huì)進(jìn)一步加劇近年來(lái)網(wǎng)絡(luò)安全與信息化領(lǐng)域推薦性標(biāo)準(zhǔn)強(qiáng)制化、技術(shù)文件效力法律化、備案成為事實(shí)上的許可、法律救濟(jì)途徑收窄、不同管理措施疊加等一系列問(wèn)題,影響營(yíng)商環(huán)境和市場(chǎng)主體信心。由于人工智能科技創(chuàng)新的特點(diǎn),由管理部門事前審批并不合適。管理重心全部聚焦于信息內(nèi)容管理,還會(huì)使人工智能產(chǎn)生的大量新型風(fēng)險(xiǎn)游離于決策視野之外。因此,完善人工智能治理體系,必須按照黨的二十屆三中全會(huì)決定“完善生成式人工智能發(fā)展和管理機(jī)制”的要求,嚴(yán)格界定信息內(nèi)容管理的領(lǐng)域,實(shí)現(xiàn)信息內(nèi)容管理與科技經(jīng)濟(jì)管理的分離,以實(shí)現(xiàn)治理機(jī)制的精準(zhǔn)化、科學(xué)化。
(三)生成式人工智能為違法不良信息治理帶來(lái)前所未有的機(jī)會(huì)
如前所述,進(jìn)入自媒體時(shí)代之后,人人都是“總編輯”,內(nèi)容生產(chǎn)從傳統(tǒng)的PGC(Professional-Generated Content,專業(yè)生產(chǎn)內(nèi)容)向UGC(User-Generated Content,用戶生產(chǎn)內(nèi)容)轉(zhuǎn)變,通過(guò)作為雙邊市場(chǎng)的平臺(tái)進(jìn)行傳播。由于用戶數(shù)量巨大,違法不良信息難以追溯,即使追溯到也很難問(wèn)責(zé)。正是在這種背景下,我國(guó)設(shè)立網(wǎng)信部門并以平臺(tái)主體責(zé)任為中心全面構(gòu)建網(wǎng)絡(luò)綜合治理體系。然而,由于平臺(tái)主體責(zé)任屬于第三方責(zé)任,在流量經(jīng)濟(jì)的誘惑下,平臺(tái)難免會(huì)以技術(shù)能力不足等各種理由打“擦邊球”。
生成式人工智能的出現(xiàn),使內(nèi)容生產(chǎn)再次發(fā)生根本性變化,從UGC向AIGC(Artificial Intelligence Generated Content,人工智能生成內(nèi)容)轉(zhuǎn)變。由數(shù)量有限的大模型生成內(nèi)容,某些特征更類似于重新回歸到PGC時(shí)代,大模型成為“下一代網(wǎng)絡(luò)入口”和“超級(jí)媒介”。大模型向使用者提供服務(wù),不具有雙邊市場(chǎng)特征,不能再打“擦邊球”。由于需要巨大的投入與技術(shù)能力支撐,基礎(chǔ)大模型的數(shù)量會(huì)非常少,垂直應(yīng)用大模型的數(shù)量會(huì)多一些。無(wú)論如何,相比于海量的自媒體用戶,大模型服務(wù)提供者的數(shù)量有限,執(zhí)法部門完全有能力監(jiān)管這些主體并發(fā)現(xiàn)違法行為。并且,與小范圍編造、傳播違法不良信息難以被追究違法責(zé)任的自媒體用戶相比,大模型生成違法不良信息一旦被追溯到會(huì)面臨嚴(yán)重的違法后果,被追究直接責(zé)任而不是第三方責(zé)任。這樣,大模型服務(wù)提供者會(huì)內(nèi)生防范違法不良信息的強(qiáng)大動(dòng)力,主動(dòng)呵護(hù)大模型。即使大模型因?yàn)榧夹g(shù)不成熟或者使用者的惡意誘導(dǎo)、攻擊生成一些違法內(nèi)容,受眾只是終端使用者。終端使用者如果將生成內(nèi)容加以傳播,不但會(huì)受到現(xiàn)行網(wǎng)絡(luò)綜合治理體系的約束,還會(huì)自我暴露其惡意誘導(dǎo)、攻擊行為。內(nèi)容生產(chǎn)的這些根本性變化,為實(shí)現(xiàn)黨的二十屆三中全會(huì)決定提出的“推進(jìn)新聞宣傳和網(wǎng)絡(luò)輿論一體化管理”提供了有利的外部條件。
從美國(guó)和歐盟的經(jīng)驗(yàn)來(lái)看,新的管理方式主要是兩種,一種是要求大模型對(duì)其生成內(nèi)容加標(biāo)識(shí)(水?。硪环N是引入對(duì)抗式的“紅隊(duì)”機(jī)制。對(duì)大模型生成的圖片、音頻、視頻、文本等添加標(biāo)識(shí),尊重大模型使用者和其他網(wǎng)絡(luò)用戶的知情權(quán),使其知曉生成或者再次傳播的生成內(nèi)容屬于合成信息而非事實(shí)本身,由此使生成內(nèi)容帶上“自凈”功能。添加標(biāo)識(shí)有助于執(zhí)法部門對(duì)各種生成內(nèi)容溯源并問(wèn)責(zé),維護(hù)市場(chǎng)秩序與社會(huì)秩序。對(duì)于大模型服務(wù)提供者而言,添加標(biāo)識(shí)能提升生成內(nèi)容的辨識(shí)度和市場(chǎng)影響力,并不完全是負(fù)擔(dān),也會(huì)有相應(yīng)的收益。
2023年,美國(guó)總統(tǒng)拜登發(fā)布14110號(hào)人工智能行政命令,強(qiáng)調(diào)“本屆政府會(huì)幫助開(kāi)發(fā)有效的標(biāo)識(shí)和內(nèi)容溯源機(jī)制,以便美國(guó)人民能夠判斷內(nèi)容什么時(shí)候是由人工智能生成的,什么時(shí)候不是。這些措施會(huì)奠定極其重要的基礎(chǔ),既解決人工智能帶來(lái)的風(fēng)險(xiǎn)又不過(guò)分降低其好處”。歐盟在制定人工智能法過(guò)程中認(rèn)識(shí)到,“各種人工智能系統(tǒng)會(huì)產(chǎn)生大量的合成內(nèi)容,使人類越來(lái)越難以與人類生成的和真實(shí)的內(nèi)容區(qū)分開(kāi)來(lái)。這些系統(tǒng)的廣泛可用性和不斷增強(qiáng)的能力對(duì)信息生態(tài)系統(tǒng)的完整性和信任產(chǎn)生重大影響,增加錯(cuò)誤信息和大規(guī)模操縱、欺詐、假冒和消費(fèi)者欺騙的新風(fēng)險(xiǎn)”。為此,歐盟《人工智能法》第52條1a款規(guī)定,“生成合成類音頻、圖片、視頻或者文本內(nèi)容的人工智能系統(tǒng)(包括通用人工智能系統(tǒng))提供者,應(yīng)保證人工智能系統(tǒng)的輸出以機(jī)器可讀的格式進(jìn)行標(biāo)識(shí)并可發(fā)現(xiàn)為人工生成或控制”。第52條第3款規(guī)定,“生成或者控制面向公眾發(fā)布、關(guān)涉公共利益事務(wù)文本的人工智能系統(tǒng)部署者應(yīng)披露其文本為人工生成或控制”。另外,對(duì)于高風(fēng)險(xiǎn)的人工智能系統(tǒng),歐盟《人工智能法》第49條還詳細(xì)規(guī)定了對(duì)系統(tǒng)添加評(píng)估合格標(biāo)識(shí)的要求。對(duì)生成內(nèi)容添加標(biāo)識(shí),發(fā)揮其自凈、溯源與激勵(lì)等多重功能,是自媒體時(shí)代無(wú)法想象的治理機(jī)制。
“紅隊(duì)”機(jī)制類似于信息與網(wǎng)絡(luò)安全領(lǐng)域的“白帽子黑客”,通過(guò)第三方機(jī)構(gòu)或者執(zhí)法部門的對(duì)抗式檢測(cè),驗(yàn)證大模型是否存在安全漏洞或者違法違規(guī)行為。不同于一般的行政監(jiān)督檢查,紅隊(duì)機(jī)制的目的在于改善大模型安全性能,增強(qiáng)對(duì)社會(huì)的透明度,消除公眾顧慮,構(gòu)建共治體系。因此,這一機(jī)制會(huì)廣泛調(diào)動(dòng)盡可能多的產(chǎn)業(yè)力量從社會(huì)視角加入到安全治理,構(gòu)建開(kāi)放而非封閉的治理體系,共同防范各種已知或者未知科技風(fēng)險(xiǎn)。美國(guó)總統(tǒng)行政命令的解釋是,“人工智能‘紅隊(duì)’機(jī)制通常由專門的‘紅隊(duì)’采用對(duì)抗方式執(zhí)行,以發(fā)現(xiàn)人工智能系統(tǒng)諸如有害或者歧視性產(chǎn)出、不可預(yù)測(cè)或者不理想的系統(tǒng)行為、局限或者與系統(tǒng)濫用有關(guān)的潛在風(fēng)險(xiǎn)等漏洞與弱點(diǎn)”。歐盟《人工智能法》附件IXa第二條第4款也規(guī)定“紅隊(duì)”對(duì)抗測(cè)試(red-teaming test)方式。對(duì)大模型進(jìn)行持續(xù)的對(duì)抗式檢測(cè),這也是自媒體時(shí)代無(wú)法想象的治理機(jī)制。
按照政府監(jiān)管理論和成功監(jiān)管實(shí)踐,不同監(jiān)管手段之間存在很強(qiáng)的替代效應(yīng),監(jiān)管手段并不是同時(shí)采用越多越好,更不宜將不同監(jiān)管手段都疊加到一起使用。將可相互替代的監(jiān)管手段疊加到一起使用,不但不能增加合力,反而可能會(huì)相互抵消。標(biāo)識(shí)機(jī)制本質(zhì)上屬于以信息公開(kāi)透明替代事前審批的現(xiàn)代監(jiān)管手段,其作用機(jī)理是通過(guò)標(biāo)識(shí)對(duì)服務(wù)提供者形成信息制約與社會(huì)共治機(jī)制,以替代政府機(jī)關(guān)的事前許可。最為典型的標(biāo)識(shí)機(jī)制在一些國(guó)家的食品安全領(lǐng)域尤其是轉(zhuǎn)基因食品領(lǐng)域較多采用。由于各界對(duì)食品健康短期及長(zhǎng)期影響等問(wèn)題存在爭(zhēng)議,并不適宜采用事前許可機(jī)制,而是強(qiáng)制要求企業(yè)添加標(biāo)識(shí),提供重要信息,由消費(fèi)者自己做出選擇,出現(xiàn)食品安全問(wèn)題后通過(guò)諸如追究大額損害賠償責(zé)任等事后機(jī)制形成威懾。同樣的道理,有些國(guó)家考慮到消費(fèi)者認(rèn)知水平、市場(chǎng)發(fā)育程度、執(zhí)法資源與能力等因素,會(huì)在食品領(lǐng)域采用事前許可而不是標(biāo)識(shí)機(jī)制。不能獲得事前許可一概不得進(jìn)入市場(chǎng),相當(dāng)于由政府機(jī)關(guān)代替消費(fèi)者把關(guān)。
我國(guó)最近幾年一直在引入和推行深度合成內(nèi)容的標(biāo)識(shí)機(jī)制?!痘ヂ?lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第16條要求深度合成服務(wù)提供者對(duì)使用其服務(wù)“生成或者編輯的信息內(nèi)容”,應(yīng)當(dāng)采取技術(shù)措施添加不影響用戶使用的標(biāo)識(shí)。在推進(jìn)這項(xiàng)工作的過(guò)程中,業(yè)界反映文本因?yàn)樵夹畔⒘刻〖虞d標(biāo)識(shí)有困難,對(duì)音頻、圖片、視頻加載標(biāo)識(shí)的積極性也不高。作為妥協(xié),《暫行辦法》第12條規(guī)定,提供者應(yīng)當(dāng)對(duì)“圖片、視頻等”生成內(nèi)容進(jìn)行標(biāo)識(shí),等于放松了對(duì)文本和音頻的要求。這樣的妥協(xié)不但使兩個(gè)規(guī)章的表述與適用范圍不一致,也折射出業(yè)界對(duì)于標(biāo)識(shí)工作的積極性不夠。
業(yè)界積極性不夠,客觀上是因?yàn)樘砑訕?biāo)識(shí)在技術(shù)上有一定的難度,會(huì)增加企業(yè)的成本。不過(guò),在《暫行辦法》《安全基本要求》確立的生成過(guò)程全流程管理制度之下,即使業(yè)界投入大量資源開(kāi)發(fā)、采用標(biāo)識(shí)機(jī)制,仍然不能豁免諸如備案、語(yǔ)料安全等各種硬性義務(wù)。這樣,業(yè)界對(duì)于標(biāo)識(shí)機(jī)制必然缺乏主動(dòng)性,只是被動(dòng)完成規(guī)定動(dòng)作,甚至找各種難以執(zhí)行的理由。管理部門疊床架屋的要求,尤其會(huì)對(duì)新進(jìn)入者、初創(chuàng)企業(yè)產(chǎn)生難以承受的合規(guī)負(fù)擔(dān)。另一方面,造成管理部門層層疊加管理手段這樣的局面,也有少數(shù)企業(yè)合規(guī)意識(shí)不強(qiáng)的原因,迫使管理部門不斷加碼。最后,業(yè)界越不愿意主動(dòng)采取合規(guī)措施,管理部門就會(huì)越偏向采用更為嚴(yán)格、全面的管理手段;管理部門越采用更為嚴(yán)格、全面的管理手段,業(yè)界就越?jīng)]有激勵(lì)采取主動(dòng)合規(guī)措施。要跳出這種惡性循環(huán),就要遵循激勵(lì)相容的行政管理基本原理,區(qū)分事前、事中與事后機(jī)制并處理好相互之間的關(guān)系,體現(xiàn)事后機(jī)制優(yōu)先、信息披露等柔性機(jī)制優(yōu)先等基本原則,使標(biāo)識(shí)機(jī)制成為全流程管理的有效替代。如果服務(wù)提供者能夠采用標(biāo)識(shí)機(jī)制,就不需要疊加其他的硬性管理制度。
可見(jiàn),用信息內(nèi)容管理定位和規(guī)范人工智能,將互聯(lián)網(wǎng)治理經(jīng)驗(yàn)平移到人工智能領(lǐng)域,相當(dāng)于將新質(zhì)生產(chǎn)力納入上層建筑管理,必然產(chǎn)生各種錯(cuò)配現(xiàn)象。在生產(chǎn)力與生產(chǎn)關(guān)系、經(jīng)濟(jì)基礎(chǔ)與上層建筑二元?jiǎng)澐值目蚣芟?,人工智能只能納入科技、產(chǎn)業(yè)發(fā)展的新質(zhì)生產(chǎn)力范疇進(jìn)行定位,以推動(dòng)科技創(chuàng)新和產(chǎn)業(yè)創(chuàng)新深度融合。有必要更加重視互聯(lián)網(wǎng)治理與人工智能治理的差異,在區(qū)分信息內(nèi)容管理與科技經(jīng)濟(jì)管理的基礎(chǔ)上,按照黨的二十屆三中全會(huì)決定“健全因地制宜發(fā)展新質(zhì)生產(chǎn)力體制機(jī)制”的要求,推進(jìn)人工智能治理體系改革與法治建設(shè)。正如有學(xué)者指出的,“人工智能的立法基礎(chǔ)和路徑,應(yīng)當(dāng)深入到科技法及其迭代發(fā)展的語(yǔ)境之中加以認(rèn)識(shí)”。
四、人工智能立法的科學(xué)定位
新一代人工智能通常劃分為預(yù)訓(xùn)練和投入應(yīng)用兩個(gè)階段,以便高效開(kāi)發(fā)和部署大模型。在預(yù)訓(xùn)練階段,大模型需要在大量數(shù)據(jù)上進(jìn)行訓(xùn)練讓模型學(xué)會(huì)生成或預(yù)測(cè)數(shù)據(jù)的一般性特征。在投入應(yīng)用階段,預(yù)訓(xùn)練好的模型被進(jìn)一步調(diào)整或微調(diào),用于各種生成任務(wù),如文本生成、圖像生成、音樂(lè)創(chuàng)作、數(shù)據(jù)增強(qiáng)等。
(一)預(yù)訓(xùn)練階段的問(wèn)題及法律定位
預(yù)訓(xùn)練階段,核心是數(shù)據(jù)。OpenAI公司預(yù)訓(xùn)練大語(yǔ)言模型GPT-3,引入3000億單詞的訓(xùn)練語(yǔ)料,相當(dāng)于互聯(lián)網(wǎng)上所有英語(yǔ)文字的總和。利用互聯(lián)網(wǎng)海量的訓(xùn)練數(shù)據(jù),必然引發(fā)與數(shù)據(jù)權(quán)益人(最為典型的是版權(quán)人、個(gè)人信息主體)的各種權(quán)益沖突。如果訓(xùn)練數(shù)據(jù)都必須獲得作品著作權(quán)人許可、向其支付報(bào)酬、指明作者姓名或者作品名稱,或者,如果涉及個(gè)人信息的必須征得信息主體的同意甚至單獨(dú)同意,即使大型企業(yè)也很難做到,遑論初創(chuàng)企業(yè)。因此,需要從法律上為大模型訓(xùn)練數(shù)據(jù)提供依據(jù),否則整個(gè)人工智能產(chǎn)業(yè)發(fā)展無(wú)從談起。但是,也不能無(wú)視版權(quán)人、個(gè)人數(shù)據(jù)主體等合法權(quán)益人的權(quán)利保護(hù)需求。為此,必須在原則可用前提之下,為數(shù)據(jù)權(quán)益人留出技術(shù)可行情形下必要的例外排除機(jī)制,形成“原則可用、例外排除”的運(yùn)行結(jié)構(gòu)。從理論上分析,數(shù)據(jù)具有公共產(chǎn)品所具有的非獨(dú)占性、非排他性特點(diǎn),從公開(kāi)渠道爬取、使用、學(xué)習(xí)數(shù)據(jù),一般并不構(gòu)成對(duì)其他主體數(shù)據(jù)權(quán)益的侵犯。同時(shí),對(duì)海量已公開(kāi)個(gè)人信息的大批量處理,通常不會(huì)產(chǎn)生識(shí)別特定個(gè)人的風(fēng)險(xiǎn)。
美國(guó)在大模型研發(fā)與應(yīng)用方面處于全球領(lǐng)先地位,除經(jīng)濟(jì)、技術(shù)實(shí)力以外,其版權(quán)法律制度對(duì)于合理使用、互操作的支持,政府機(jī)關(guān)公共檔案自由使用制度,政府?dāng)?shù)據(jù)開(kāi)放制度等,客觀上都有利于訓(xùn)練數(shù)據(jù)的高效使用。美國(guó)學(xué)者清楚地意識(shí)到,如果美國(guó)法院不支持有利于機(jī)器學(xué)習(xí)的合理使用制度,創(chuàng)新就會(huì)轉(zhuǎn)移到其他國(guó)家或者完全停止。可以預(yù)見(jiàn),國(guó)際競(jìng)爭(zhēng)會(huì)加快制度演進(jìn)與擴(kuò)散趨勢(shì)。當(dāng)然,美國(guó)需要為“例外排除”提供法律依據(jù),尤其需要保護(hù)個(gè)人信息權(quán)利。歐盟為營(yíng)造有利于創(chuàng)新的法律環(huán)境,2019年修改版權(quán)指令,第3條、第4條既為科學(xué)研究目的進(jìn)行的文本與數(shù)據(jù)挖掘規(guī)定版權(quán)保護(hù)例外或限制,也為著作權(quán)所有者明確保留提供通道,正在朝“原則可用、例外排除”方向發(fā)展。歐盟《人工智能法》鑒于條款12c明確排除該法適用于投入部署或服務(wù)之前的研發(fā)、測(cè)試等活動(dòng),并明確將算法改進(jìn)當(dāng)做持續(xù)“學(xué)習(xí)”的過(guò)程,不構(gòu)成人工智能系統(tǒng)的重大改變,不需要再履行合規(guī)評(píng)估手續(xù),目的也是為推動(dòng)大模型發(fā)展。不過(guò),歐盟《一般數(shù)據(jù)保護(hù)條例》對(duì)已公開(kāi)個(gè)人數(shù)據(jù)的處理要求非常嚴(yán)格,不利于訓(xùn)練數(shù)據(jù)的有效使用。
我國(guó)《著作權(quán)法》缺乏對(duì)大規(guī)模訓(xùn)練數(shù)據(jù)原則可用的明確授權(quán),也缺乏政府?dāng)?shù)據(jù)開(kāi)放和互操作的規(guī)定。在影響非常廣泛的“新浪微博訴脈脈不正當(dāng)競(jìng)爭(zhēng)糾紛案”中,法院采用的三重授權(quán)原則會(huì)進(jìn)一步抑制訓(xùn)練數(shù)據(jù)的有效爬取與利用?!栋踩疽蟆穼?duì)語(yǔ)料范圍的限制,更會(huì)實(shí)質(zhì)性限縮預(yù)訓(xùn)練數(shù)據(jù)的范圍。從比較視角來(lái)看,不論是原則可用還是例外排除,我國(guó)都有很多現(xiàn)實(shí)問(wèn)題需要解決,明顯滯后于美國(guó)、歐盟的制度建設(shè)。
(二)投入應(yīng)用階段的問(wèn)題及法律定位
投入應(yīng)用階段,面臨三個(gè)層面的法律問(wèn)題。首先,必須回答人工智能生成物應(yīng)如何定性,是否應(yīng)享有權(quán)利保護(hù),如果受保護(hù)誰(shuí)是權(quán)利人,造成侵害如何劃分責(zé)任等一系列基礎(chǔ)問(wèn)題。對(duì)這些基礎(chǔ)問(wèn)題的回答,會(huì)直接決定人工智能治理與立法的不同路徑。其次,自主智能的出現(xiàn),必然對(duì)歧視、隱私、安全、就業(yè)、教育、社會(huì)保障、法律程序、國(guó)際關(guān)系等各方面產(chǎn)生深刻的連鎖影響,“具有廣泛的社會(huì)溢出效應(yīng),在政治、經(jīng)濟(jì)、社會(huì)等各個(gè)領(lǐng)域都會(huì)帶來(lái)深刻變革”。如何應(yīng)對(duì)這些分散的溢出問(wèn)題,需要全社會(huì)的廣泛討論。最后,自主智能的出現(xiàn),預(yù)示著更為強(qiáng)大的通用人工智能不再遙遠(yuǎn)。遠(yuǎn)超人類智能的通用人工智能一旦出現(xiàn),究竟會(huì)對(duì)人類文明帶來(lái)哪些方面的重大風(fēng)險(xiǎn),都是必須未雨綢繆的問(wèn)題。國(guó)際上討論人工智能的風(fēng)險(xiǎn)與挑戰(zhàn),包括2023年3月美國(guó)麻省理工學(xué)院生命科學(xué)研究所發(fā)起的暫停大模型研發(fā)六個(gè)月的簽名運(yùn)動(dòng)等,多集中在最后這個(gè)層面。
自主智能投入應(yīng)用帶來(lái)的問(wèn)題,充分反映前沿科技的復(fù)雜性和高度不確定性。從1956年國(guó)際社會(huì)開(kāi)始采用人工智能概念開(kāi)始,如何定義它就一直存有分歧。(智能體)機(jī)器人同樣也很難定義,有學(xué)者認(rèn)為有具身支持的才是機(jī)器人,但是,諸如ChatGPT這樣的智能體并不需要具身支撐,只是對(duì)話工具。因此,耶魯大學(xué)法學(xué)院波爾金教授專門解釋,“當(dāng)我談到機(jī)器人時(shí),我不僅會(huì)包括機(jī)器人——與環(huán)境相互作用的實(shí)物——還包括智能體與機(jī)器學(xué)習(xí)算法”。
自主智能的投入應(yīng)用,會(huì)使人工智能的透明度與可解釋性成為必須回答的問(wèn)題。問(wèn)題在于,“更復(fù)雜的模型可以提供更好的性能,但往往比更簡(jiǎn)單的模型如決策樹(shù)更不容易解釋”。人工智能領(lǐng)域一篇非常有影響力的文章專門討論了深度學(xué)習(xí)模型的不透明性,即它們?nèi)绾螌W(xué)習(xí)到的信息分散存儲(chǔ),而不是以易于理解的方式集中存儲(chǔ),就是創(chuàng)建這些網(wǎng)絡(luò)的研究人員也難以完全理解它們的內(nèi)部工作機(jī)制;深度學(xué)習(xí)之外的其他人工智能方法可能更易于人類理解,但在處理復(fù)雜數(shù)據(jù)方面又不那么有效。
總體而言,預(yù)訓(xùn)練階段的問(wèn)題認(rèn)識(shí)相對(duì)已經(jīng)比較明確,各國(guó)措施正在趨同化,而投入應(yīng)用階段三個(gè)層面的問(wèn)題認(rèn)識(shí)分歧都非常大。比如,對(duì)于人工智能生成物是否應(yīng)該享有版權(quán)保護(hù)這一基礎(chǔ)問(wèn)題,我國(guó)知識(shí)產(chǎn)權(quán)法學(xué)界有截然不同的觀點(diǎn)。第一種觀點(diǎn)認(rèn)為機(jī)器不是法律保護(hù)的主體,因而不能將其生成物認(rèn)定為著作權(quán)客體;第二種觀點(diǎn)主張應(yīng)當(dāng)以生成內(nèi)容本身的獨(dú)創(chuàng)性來(lái)判斷其是否構(gòu)成作品,創(chuàng)作者身份不應(yīng)是作品受保護(hù)的構(gòu)成條件;還有各種折中觀點(diǎn)或解決方案。國(guó)際上也一直有類似的爭(zhēng)論與解決方案討論。在我國(guó),贊同第二種觀點(diǎn)的學(xué)者更多,較為普遍地認(rèn)為“人工智能生成內(nèi)容的可版權(quán)性標(biāo)準(zhǔn)應(yīng)該從作者身份轉(zhuǎn)向獨(dú)創(chuàng)性”,并賦予其版權(quán)保護(hù)。
理論上的分歧,必然會(huì)映射到法律實(shí)踐中。我國(guó)司法實(shí)踐中,對(duì)于人工智能生成物的可版權(quán)性問(wèn)題,就出現(xiàn)過(guò)不同的判決。在菲林律師事務(wù)所訴百度公司著作權(quán)侵權(quán)案中,法院判決認(rèn)為自然人創(chuàng)造完成應(yīng)是著作權(quán)作品的必要條件。在騰訊公司訴盈訊公司侵害著作權(quán)及不正當(dāng)競(jìng)爭(zhēng)案中,法院判決認(rèn)定涉案文章是由原告組織的主創(chuàng)團(tuán)隊(duì)利用人工智能軟件Dreamwriter完成。在李某訴劉某侵害信息網(wǎng)絡(luò)傳播權(quán)案中(該案也被稱為中國(guó)首例人工智能生成圖片著作權(quán)糾紛案),法院認(rèn)定原告對(duì)人工智能生成圖片進(jìn)行一定的智力投入,包括設(shè)計(jì)人物的呈現(xiàn)方式、選擇提示詞、安排提示詞的順序等,具備“智力成果”的要件。知識(shí)產(chǎn)權(quán)法學(xué)者吳漢東教授梳理我國(guó)司法實(shí)踐后得出結(jié)論,“可以認(rèn)為,中國(guó)法院對(duì)人工智能生成作品采取了有條件保護(hù)的司法原則”。
美國(guó)版權(quán)法并未明確規(guī)定版權(quán)作者只能是自然人,后來(lái)由負(fù)責(zé)版權(quán)登記的美國(guó)版權(quán)局將版權(quán)作者限定為自然人,并因此不對(duì)人工智能生成物進(jìn)行版權(quán)登記。至于美國(guó)國(guó)會(huì)、法院,均尚未有機(jī)會(huì)對(duì)人工智能生成物是否享有版權(quán)以及版權(quán)歸誰(shuí)所有做出決定。不過(guò),根據(jù)美國(guó)聯(lián)邦最高法院過(guò)往堅(jiān)持版權(quán)作者必須是自然人的立場(chǎng),可以推知其不會(huì)支持人工智能生成物的可版權(quán)性,這與我國(guó)法院有條件保護(hù)的司法原則正好相反。中美兩國(guó)分別代表兩種不同的認(rèn)識(shí)和解決方案,其他大部分國(guó)家,對(duì)這個(gè)問(wèn)題的關(guān)注又有所不同。比如,英國(guó)過(guò)去大量的研究一直樂(lè)觀地認(rèn)為其《1988年版權(quán)、設(shè)計(jì)和專利法》第9(3)節(jié)完全可以解決計(jì)算機(jī)生成作品的版權(quán)問(wèn)題,結(jié)果發(fā)現(xiàn)新一代人工智能發(fā)展以后研究不夠。2020年之前,除中美兩國(guó)之外,“全球范圍內(nèi),各國(guó)對(duì)于人工智能生成作品是否給予版權(quán)保護(hù)以及如何保護(hù),幾乎沒(méi)有任何共識(shí)”。
然而,在人工智能技術(shù)快速發(fā)展的背景下,法治與治理機(jī)制久拖不決或者長(zhǎng)期模糊不清會(huì)直接產(chǎn)生各種負(fù)面影響,因此,人工智能基礎(chǔ)問(wèn)題正在快速形成共識(shí)與公共政策選擇。2020年,美國(guó)專利和商標(biāo)局、歐盟專利局和英國(guó)高等法院均在具體案件中否決人工智能系統(tǒng)作為發(fā)明者的專利申請(qǐng),否定人工智能生成物的可專利性。從中可以看到,將人工智能生成物歸入公有領(lǐng)域,不享有任何版權(quán)或者專利權(quán)保護(hù),正在迅速成為普遍的發(fā)展趨勢(shì),基礎(chǔ)問(wèn)題正在快速形成共識(shí)。曾經(jīng)的中美兩國(guó)立場(chǎng)差別,正在成為中國(guó)與美國(guó)、歐盟(以及其他國(guó)家)之間的路徑差別。并且,美國(guó)、歐盟的實(shí)踐取向已經(jīng)比較明確,而我國(guó)理論與實(shí)務(wù)界的認(rèn)識(shí)分歧依然非常大。
知識(shí)產(chǎn)權(quán)領(lǐng)域人工智能生成物的非權(quán)利化安排,與其說(shuō)是知識(shí)產(chǎn)權(quán)領(lǐng)域的技術(shù)問(wèn)題,不如說(shuō)是人工智能與人類關(guān)系的基本原則問(wèn)題。人工智能的最大挑戰(zhàn)在于其“涌現(xiàn)”或者“生成”能力,可以創(chuàng)造新知識(shí)。目前,在圖像分類、視覺(jué)推理和英語(yǔ)理解等方面,人工智能已經(jīng)超越人類也會(huì)逐步在其他領(lǐng)域?qū)崿F(xiàn)對(duì)人類的超越。隨著人類歷史上科技第一次從純粹的工具變?yōu)楠?dú)立創(chuàng)造的主體(智能體),必然會(huì)出現(xiàn)越來(lái)越多智能體自主決策而非輔助決策的領(lǐng)域。美國(guó)聯(lián)邦行政機(jī)關(guān)在執(zhí)法領(lǐng)域已經(jīng)大量采用機(jī)器學(xué)習(xí)技術(shù)。哈佛大學(xué)法學(xué)家桑斯坦教授承認(rèn),算法在提高決策的準(zhǔn)確性和一致性方面較人類具有顯著優(yōu)勢(shì),盡管在設(shè)計(jì)和應(yīng)用算法時(shí)需要仔細(xì)考慮可能帶來(lái)的歧視問(wèn)題。更多學(xué)者也已經(jīng)接受算法比人類決定更為可靠的觀點(diǎn)。
既然智能體能夠自主決策,比人類更聰明,必然會(huì)追問(wèn)的是,是否應(yīng)該賦予其法律主體地位。斯坦福大學(xué)法律學(xué)者將機(jī)器人作為法律主體研究,全面設(shè)計(jì)機(jī)器人危害行為的救濟(jì)體系,甚至提出“機(jī)器人死刑”這樣的責(zé)任機(jī)制。有學(xué)者斷言,“我們可能即將創(chuàng)造一個(gè)新的法律主體范疇,介于人與客體之間。我相信法律必須為這一類別騰出空間”。我國(guó)也有學(xué)者認(rèn)為,“確認(rèn)智能機(jī)器人的法律主體性地位是對(duì)機(jī)器人立法要解決的首要和關(guān)鍵問(wèn)題”。
然而,智能體不具有法律主體資格,仍然是各國(guó)共同堅(jiān)持的基本原則,也是大部分專家的立場(chǎng)。在人與智能體的關(guān)系中,以人為中心是不證自明的真理。美國(guó)哈佛大學(xué)Berkman中心的研究團(tuán)隊(duì)歷時(shí)兩年多,對(duì)包括聯(lián)合國(guó)、經(jīng)合組織、美國(guó)、歐盟、中國(guó)、法國(guó)、德國(guó)、日本、微軟、騰訊等在內(nèi)的國(guó)際組織、國(guó)家、企業(yè)、社會(huì)組織制定的36份人工智能“原則”文件進(jìn)行分析后,總結(jié)出八項(xiàng)基本原則。其中兩項(xiàng)分別是“由人類控制技術(shù)”以及“提升人類價(jià)值”,占比均為69%,包括規(guī)定“人工智能系統(tǒng)只能是工具的法律地位”,“如果機(jī)構(gòu)不能再控制人工智能系統(tǒng)時(shí)有義務(wù)銷毀它”。因此,無(wú)論智能體多么聰明,法律的根本問(wèn)題仍然是“當(dāng)機(jī)器人和智能體創(chuàng)造利益或造成傷害時(shí),如何在人類之間分配權(quán)利和義務(wù)”。歐盟官方研究報(bào)告曾經(jīng)提出“電子人”概念,但認(rèn)為在當(dāng)前的法律框架下機(jī)器人的責(zé)任應(yīng)由其設(shè)計(jì)者、制造商、操作者或所有者承擔(dān),而不是讓機(jī)器人承擔(dān)。智能體不具備法律主體地位,其生成物當(dāng)然不具有權(quán)利化屬性,這是以人為中心的必然要求。
(三)我國(guó)人工智能立法的基本定位
上述分析表明:(1)無(wú)論是理論研究還是制度建設(shè),我國(guó)都面臨不少現(xiàn)實(shí)問(wèn)題。在人工智能加速發(fā)展、國(guó)際競(jìng)爭(zhēng)更為激烈的背景下,我國(guó)人工智能立法需要盡快提上議事日程,厘清人工智能發(fā)展的基礎(chǔ)問(wèn)題,凝聚共識(shí),明確權(quán)利義務(wù)關(guān)系,任何拖延或者無(wú)所作為都會(huì)錯(cuò)失時(shí)機(jī)。同時(shí),由于人工智能仍然處于發(fā)展過(guò)程之中,溢出問(wèn)題與終極問(wèn)題仍然沒(méi)有形成共識(shí),具有很大的不確定性;即使形成共識(shí)的基礎(chǔ)問(wèn)題領(lǐng)域,通常橫跨不同法律部門,需要根據(jù)問(wèn)題不同分別設(shè)計(jì)相應(yīng)的法律制度與實(shí)施機(jī)制。因此,我國(guó)人工智能立法需要保持靈活性、小步快跑,避免“一刀切”立法造成難以挽回的負(fù)面影響。當(dāng)前,各國(guó)正在推動(dòng)的人工智能相關(guān)立法活動(dòng),普遍都以解決具體問(wèn)題為目標(biāo),而不是制定統(tǒng)一的人工智能法。如同我國(guó)不可能制定一部網(wǎng)絡(luò)法一攬子解決網(wǎng)絡(luò)相關(guān)法律問(wèn)題一樣,我國(guó)不可能制定一部一攬子解決版權(quán)、個(gè)人信息保護(hù)、政府?dāng)?shù)據(jù)開(kāi)放、侵權(quán)責(zé)任分配、互操作、就業(yè)體系調(diào)整等橫跨眾多不同法律部門的人工智能法。(2)需要從人工智能作為前沿科技和新質(zhì)生產(chǎn)力來(lái)定位和把握立法,在全面梳理不同層次挑戰(zhàn)與風(fēng)險(xiǎn)的基礎(chǔ)上,尊重科技本身規(guī)律,充分發(fā)揮法治、技術(shù)與物理架構(gòu)、科技倫理、技術(shù)標(biāo)準(zhǔn)、行業(yè)自律、市場(chǎng)競(jìng)爭(zhēng)、國(guó)際合作等多種治理機(jī)制的作用,進(jìn)行整體制度設(shè)計(jì)與回應(yīng),發(fā)揮制度合力,避免定位偏差與認(rèn)識(shí)錯(cuò)誤導(dǎo)致的頭痛醫(yī)頭、腳痛醫(yī)腳現(xiàn)象。(3)就實(shí)現(xiàn)路徑而言,可由全國(guó)人大常委會(huì)就人工智能安全與發(fā)展涉及的重大原則問(wèn)題先制定一份法律問(wèn)題的決定,明確基本原則與方向,然后通過(guò)不同部門法的立改廢釋分別推進(jìn)。既要清理、廢止不利于人工智能發(fā)展的規(guī)定與做法,澄清模糊認(rèn)識(shí),又要確立有利于推動(dòng)人工智能安全與發(fā)展的觀念、規(guī)范與制度。可見(jiàn),人工智能法是“產(chǎn)業(yè)促進(jìn)法與風(fēng)險(xiǎn)治理法的協(xié)調(diào)”,需要多方參與,不是立法部門一家能夠完成的任務(wù),更不可能一步到位。
2024年通過(guò)世界上第一部也是至今唯一一部《人工智能法》,被我國(guó)一些學(xué)者作為需要制定人工智能法的例證并提出不同版本的專家建議稿。其實(shí),歐盟的做法不具有普適性,很難借鑒。歐盟作為高度一體化的區(qū)域性經(jīng)濟(jì)政治組織,其立法帶有法典編纂功能或者“一攬子解決”功能?!度斯ぶ悄芊ā返娜Q為《人工智能與修正歐盟某些立法的法》,有大量與歐盟其他立法以及成員國(guó)國(guó)內(nèi)法相互銜接的規(guī)定,第七章第75條到第82條更是對(duì)歐盟其他相關(guān)立法的具體修正規(guī)定。包括我國(guó)在內(nèi),一般的國(guó)家立法既不需要也不可能具備這樣的法典編纂功能。
如果分析立法背后的邏輯可以發(fā)現(xiàn),歐盟《人工智能法》聚焦于從產(chǎn)品責(zé)任角度防范高風(fēng)險(xiǎn)人工智能系統(tǒng)可能造成的損害,絕大部分內(nèi)容均屬于產(chǎn)品安全與責(zé)任法的范疇,以解決“現(xiàn)行歐盟(產(chǎn)品)安全立法適用于產(chǎn)品而不適用于服務(wù),并原則上不適用于基于人工智能技術(shù)的服務(wù)”“歐盟產(chǎn)品責(zé)任立法只規(guī)定生產(chǎn)者責(zé)任,將供應(yīng)鏈上其他主體的責(zé)任交由成員國(guó)責(zé)任規(guī)則調(diào)整”等問(wèn)題。歐盟形式上是統(tǒng)一立法,但調(diào)整范圍有限,并不覆蓋人工智能安全與發(fā)展的很多領(lǐng)域,包括前述的人工智能生成物的可版權(quán)性、可專利性等基礎(chǔ)問(wèn)題以及溢出問(wèn)題。有論者因此指出,“關(guān)鍵在于《人工智能法》是否真的帶來(lái)產(chǎn)品法的力量和優(yōu)點(diǎn),以擴(kuò)大歐盟對(duì)智能組件產(chǎn)品的不斷改進(jìn)實(shí)踐,還是該法律僅僅成為旨在事后攻擊少數(shù)精英參與者的門面立法”。相比之下,美國(guó)14110號(hào)行政命令采用的是典型的確立基本原則后全面推進(jìn)的方式,對(duì)超過(guò)50個(gè)聯(lián)邦機(jī)構(gòu)布置100多項(xiàng)落實(shí)行政命令的具體任務(wù),在廣度、深度與影響力方面都要強(qiáng)很多。2024年5月,美國(guó)參議院跨黨派人工智能工作組發(fā)布路線圖,延續(xù)采用分散立法推進(jìn)人工智能安全與發(fā)展的思路。
為避免統(tǒng)一立法阻礙人工智能發(fā)展,代表歐盟十四個(gè)成員國(guó)的官方文件明確提出,“我們應(yīng)該轉(zhuǎn)向軟法解決方案,如自我監(jiān)管、自愿標(biāo)識(shí)和其他自愿做法,以及健全的標(biāo)準(zhǔn)化程序,作為對(duì)現(xiàn)有立法的補(bǔ)充,以確保滿足基本的安全和保障標(biāo)準(zhǔn)。考慮到我們正面臨快速發(fā)展的技術(shù),軟法可以讓我們從技術(shù)中學(xué)習(xí)并識(shí)別與之相關(guān)的潛在挑戰(zhàn)”。德國(guó)政府的立場(chǎng)是,“聯(lián)邦政府正在倡導(dǎo)并努力建立一個(gè)適當(dāng)?shù)谋O(jiān)管框架,在此框架內(nèi)擴(kuò)大并在必要時(shí)進(jìn)一步發(fā)展現(xiàn)有的高質(zhì)量基礎(chǔ)設(shè)施,以在適當(dāng)時(shí)反映人工智能的具體問(wèn)題”??梢钥吹?,不同于歐盟個(gè)人數(shù)據(jù)保護(hù)立法前后世界各國(guó)相繼跟進(jìn)立法所產(chǎn)生的“布魯塞爾效應(yīng)”,歐盟《人工智能法》出臺(tái)后,在歐盟內(nèi)部至今也沒(méi)有跟進(jìn)立法。日本經(jīng)濟(jì)產(chǎn)業(yè)省組織的專家組經(jīng)研究后得出結(jié)論,“目前,對(duì)人工智能系統(tǒng)具有法律約束力的一般立法被認(rèn)為是不必要的”。
幾年前,英國(guó)上議院人工智能特設(shè)委員會(huì)經(jīng)過(guò)廣泛聽(tīng)取各方面意見(jiàn)后就得出結(jié)論,“在這個(gè)階段,針對(duì)人工智能的全面立法是不合適的。我們認(rèn)為,現(xiàn)有的行業(yè)監(jiān)管機(jī)構(gòu)最適合考慮可能需要的后續(xù)立法對(duì)其行業(yè)的影響”。印度的思路與英國(guó)大致相同,除確立統(tǒng)一的數(shù)據(jù)保護(hù)法律制度以外,更多發(fā)揮領(lǐng)域法律的作用。在信息化立法方面一直走在各國(guó)前列的韓國(guó)2019年12月發(fā)布《國(guó)家人工智能戰(zhàn)略》,2020年12月發(fā)布《改善人工智能法律、系統(tǒng)與監(jiān)管路線圖》,2023年5月公布《數(shù)字權(quán)利法案》,一直采用的是分散推進(jìn)立法的方式。新加坡目前也沒(méi)有任何特定的人工智能立法計(jì)劃。目前,除歐盟以外,世界上尚無(wú)任何主要國(guó)家已經(jīng)制定或者打算制定統(tǒng)一的人工智能法。
五、推動(dòng)我國(guó)人工智能法的范式變革
面對(duì)人工智能全面性、顛覆性挑戰(zhàn),法律制度必須進(jìn)行徹底改革與重構(gòu)。然而,多主體分別推進(jìn)法治變革的最大問(wèn)題在于,如果缺乏明確認(rèn)識(shí)和有效統(tǒng)籌,極有可能出現(xiàn)實(shí)踐中已經(jīng)有所體現(xiàn)的難以形成合力甚至相互沖突的結(jié)果。因此,必須首先明確“怎樣在具體規(guī)則中凸顯人工智能的規(guī)范特質(zhì)”,然后才有可能推動(dòng)立法系統(tǒng)變革。
回顧人類法律發(fā)展歷史,隨著公司的出現(xiàn),1855年,英國(guó)制定《有限責(zé)任法》,規(guī)定公司股東對(duì)于公司債務(wù)只在其投資范圍內(nèi)承擔(dān)有限責(zé)任,奠定現(xiàn)代企業(yè)制度和市場(chǎng)經(jīng)濟(jì)的基礎(chǔ),成為現(xiàn)代法治的標(biāo)志。隨著平臺(tái)的出現(xiàn),1996年,美國(guó)《通信規(guī)范法》第230條確立避風(fēng)港規(guī)則,奠定平臺(tái)經(jīng)濟(jì)發(fā)展的基礎(chǔ),被公認(rèn)為互聯(lián)網(wǎng)時(shí)代最為重要的法律規(guī)則和網(wǎng)絡(luò)法治的代名詞。智能體的出現(xiàn),必然推動(dòng)人工智能法走上歷史舞臺(tái)。哪個(gè)國(guó)家能率先發(fā)現(xiàn)并確立基本規(guī)則,哪個(gè)國(guó)家就有可能引領(lǐng)人工智能法整體范式變革。法治范式變革涉及整個(gè)法治體系的系統(tǒng)聯(lián)動(dòng),其影響與范圍比立法定位都要大得多。
如果對(duì)各國(guó)人工智能法治實(shí)踐進(jìn)行理論抽象,可以發(fā)現(xiàn),新范式的基本規(guī)則其實(shí)已經(jīng)初具雛形,最大特點(diǎn)表現(xiàn)為“非對(duì)稱性”。
(一)預(yù)訓(xùn)練階段“原則可用、例外排除”的非對(duì)稱性
“原則可用、例外排除”呈現(xiàn)典型的非對(duì)稱性,價(jià)值判斷與選擇非常明確。原則可用意味著除法律明確禁止公開(kāi)的數(shù)據(jù)(國(guó)家秘密、商業(yè)秘密、個(gè)人隱私)以外,其他合法公開(kāi)的所有數(shù)據(jù)原則上均可以用來(lái)進(jìn)行訓(xùn)練,包括版權(quán)作品、已合法公開(kāi)的個(gè)人信息、公共數(shù)據(jù)和其他數(shù)據(jù)等。采用原則可用概念而非著作權(quán)法學(xué)界通常采用的合理使用概念,一是因?yàn)轭A(yù)訓(xùn)練階段的數(shù)據(jù)不只涉及版權(quán)作品,還涉及版權(quán)作品之外廣泛來(lái)源的數(shù)據(jù)。采用合理使用概念,會(huì)局限于版權(quán)法,限縮討論與制度適用的范圍。二是因?yàn)榧词箤?duì)版權(quán)作品,采用合理使用概念也無(wú)法反映大數(shù)據(jù)時(shí)代對(duì)于版權(quán)作品的預(yù)訓(xùn)練需求。有學(xué)者指出,我國(guó)2020年第三次著作權(quán)法修訂采用“半封閉式”的限制和例外模式,制度空間有限,人工智能創(chuàng)作中對(duì)版權(quán)作品的利用很難通過(guò)“三步檢驗(yàn)法”的檢測(cè)和過(guò)濾。原則可用意味著要跳出我國(guó)著作權(quán)法限制與例外立法模式的束縛,除公開(kāi)的著作權(quán)作品原則上都可用于訓(xùn)練以外,還應(yīng)確立互操作制度,為采用技術(shù)手段繞過(guò)權(quán)利人對(duì)接口設(shè)置的技術(shù)措施爬取數(shù)據(jù)提供法律依據(jù)。原則可用也意味著要加大公共數(shù)據(jù)的開(kāi)放力度,建立免費(fèi)、無(wú)歧視、高質(zhì)量的公共數(shù)據(jù)開(kāi)放制度。
例外排除包括兩類,一類是法律明確禁止公開(kāi)的國(guó)家秘密、商業(yè)秘密、個(gè)人隱私等數(shù)據(jù),另一類是數(shù)據(jù)權(quán)益相關(guān)人單獨(dú)提出并且技術(shù)上可以排除使用的數(shù)據(jù)。第一類已經(jīng)有相關(guān)法律規(guī)定,實(shí)踐中需要進(jìn)一步明確其標(biāo)準(zhǔn)、邊界與程序,防止制度過(guò)于模糊。第二類屬于人工智能時(shí)代的新挑戰(zhàn),需要在著作權(quán)法、個(gè)人信息保護(hù)法、公共數(shù)據(jù)開(kāi)放立法中為權(quán)益相關(guān)人維護(hù)自己權(quán)益設(shè)計(jì)相應(yīng)的制度,實(shí)現(xiàn)制度之間的平衡。不過(guò),數(shù)據(jù)可用是原則,排除使用是例外,應(yīng)該在所有制度設(shè)計(jì)中得到體現(xiàn)。
(二)投入應(yīng)用階段“有義務(wù)無(wú)權(quán)利”的非對(duì)稱性
不論是具身人工智能(人形機(jī)器人、無(wú)人駕駛汽車)還是非具身人工智能,造成違法損害后果必須承擔(dān)責(zé)任是沒(méi)有爭(zhēng)議的問(wèn)題。對(duì)于有害或者高風(fēng)險(xiǎn)的人工智能系統(tǒng),法律還會(huì)禁止或者施加事前監(jiān)管措施。結(jié)合人工智能生成物非權(quán)利化安排,這種“有義務(wù)無(wú)權(quán)利”的格局呈現(xiàn)突出的非對(duì)稱性特點(diǎn)。表面上看,非對(duì)稱性不同于法律面前一律平等、權(quán)利義務(wù)一致性等基本法律原則。然而,兩個(gè)階段的非對(duì)稱性結(jié)合到一起,預(yù)訓(xùn)練階段的數(shù)據(jù)原則可用,生成物進(jìn)入公有領(lǐng)域、人人可用并重新投入訓(xùn)練,正好實(shí)現(xiàn)良性循環(huán)和相互證成,是最合理的制度安排。
如何確定智能體造成損害的法律責(zé)任非常復(fù)雜,必須結(jié)合不同應(yīng)用場(chǎng)景,在實(shí)踐中逐步明確認(rèn)定標(biāo)準(zhǔn)和劃分原則。由于大模型服務(wù)不具有雙邊市場(chǎng)特點(diǎn),其運(yùn)行模式不同于連接供需雙方的平臺(tái)經(jīng)濟(jì)模式。大模型服務(wù)提供者必須為智能體造成的損害承擔(dān)直接責(zé)任而非第三方責(zé)任,不能搬用網(wǎng)絡(luò)法中的避風(fēng)港原則。即使大模型開(kāi)源,也只能免除某些透明度義務(wù),不能免除造成損害的法律責(zé)任。但是,另一方面,大模型自主決策是大模型與使用者之間互動(dòng)的結(jié)果,使用者的輸入必不可少。如果對(duì)大模型的責(zé)任設(shè)定過(guò)于嚴(yán)格,極易誘發(fā)使用者的逆向選擇,以謀取各種不當(dāng)利益。在使用者惡意行為的情況下,大模型服務(wù)提供者實(shí)際上是在為使用者的行為擔(dān)責(zé)。除了大模型服務(wù)提供者與使用者之外,還包括預(yù)訓(xùn)練階段的數(shù)據(jù)創(chuàng)建者、數(shù)據(jù)管理員、模型創(chuàng)建者等不同主體,需要結(jié)合不同場(chǎng)景區(qū)分責(zé)任承擔(dān),比線下侵權(quán)責(zé)任主體認(rèn)定要復(fù)雜得多。另外,智能體自主決策機(jī)理不同于人類,不能直接搬用一般法律規(guī)則或認(rèn)定標(biāo)準(zhǔn)。比如,人工智能生成物均為合成物,不可能不受訓(xùn)練數(shù)據(jù)影響。因此,在認(rèn)定生成物是否構(gòu)成抄襲、復(fù)制方面,應(yīng)尊重其規(guī)律,否則會(huì)制約大模型的發(fā)展。美國(guó)學(xué)者最新的研究建議,如果大模型技術(shù)上采取有力的侵權(quán)預(yù)防措施,法律上應(yīng)賦予其避風(fēng)港保護(hù),形成技術(shù)與法律的雙向演進(jìn)。2024年,廣州互聯(lián)網(wǎng)法院審理并判決我國(guó)AIGC平臺(tái)侵權(quán)第一案。該案中,法院認(rèn)為,案涉生成圖片部分保留案涉作品的獨(dú)創(chuàng)性表達(dá)并在此基礎(chǔ)上形成新的特征,侵犯原告對(duì)案涉作品的改編權(quán)。該案公布后引發(fā)業(yè)界較大的爭(zhēng)議,被認(rèn)為會(huì)阻礙產(chǎn)業(yè)發(fā)展。相反,北京互聯(lián)網(wǎng)法院2024年審理的全國(guó)首例“AI聲音侵權(quán)案”,獲得比較一致的正面評(píng)價(jià)。兩個(gè)案件的最大差別在于,后者按照普通人識(shí)別標(biāo)準(zhǔn)達(dá)到了深度偽造程度,而前者并未達(dá)到公認(rèn)的深度偽造程度??梢?jiàn),智能體的法律責(zé)任認(rèn)定標(biāo)準(zhǔn)也呈現(xiàn)不同于一般侵權(quán)規(guī)則的非對(duì)稱性。
智能體的出現(xiàn),已經(jīng)引發(fā)各種深層次變化并催生出既不同于現(xiàn)代法,又不同于網(wǎng)絡(luò)法的人工智能法。現(xiàn)代法、網(wǎng)絡(luò)法與人工智能法三大范式疊加、交織并共同發(fā)揮作用,是當(dāng)今時(shí)代這一領(lǐng)域的最大特點(diǎn)。把握人工智能法非對(duì)稱性特點(diǎn),加快推動(dòng)法治范式變革,是迎接時(shí)代挑戰(zhàn)的必然要求。
作者:周漢華,中國(guó)社會(huì)科學(xué)院法學(xué)研究所研究員。
來(lái)源:《現(xiàn)代法學(xué)》2024年第5期。