特別提示:本文為生成式人工智能研究的最新成果之一,全文超過(guò)17000字,認(rèn)真讀完大約需要至少45分鐘,請(qǐng)合理安排閱讀時(shí)間。

作者簡(jiǎn)介:楊顯濱,河南信陽(yáng)人,上海交通大學(xué)博士,中國(guó)人民大學(xué)博士后,華東政法大學(xué)中國(guó)法治戰(zhàn)略研究院教授,華東政法大學(xué)“經(jīng)天學(xué)者”;兼任上海交通大學(xué)國(guó)家海洋戰(zhàn)略與權(quán)益研究基地研究員、南京大學(xué)住宅政策與不動(dòng)產(chǎn)法研究中心研究員。
以ChatGPT為代表的生成式人工智能(Generative AI,G-AI)不具備民事主體資格,生成式人工智能造成他人損害的,服務(wù)提供者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。服務(wù)提供者兼具內(nèi)容生產(chǎn)者與平臺(tái)管理者的雙重身份,負(fù)有審核等安保義務(wù)。其違反安保義務(wù),原則上應(yīng)當(dāng)承擔(dān)具有間接侵權(quán)責(zé)任屬性的相應(yīng)的補(bǔ)充責(zé)任,可以行使追償權(quán)。但在“知道或者應(yīng)當(dāng)知道”的情況下,服務(wù)提供者應(yīng)當(dāng)承擔(dān)連帶責(zé)任,乃至懲罰性賠償。屬于來(lái)源非法非法生成的、輸入信息非法非法生成的且服務(wù)使用者傳播侵權(quán)內(nèi)容造成第三人損害的,服務(wù)提供者因違反雙重審核義務(wù),應(yīng)禁止追償。同時(shí),應(yīng)類型化設(shè)置“避風(fēng)港規(guī)則”適用的責(zé)任豁免規(guī)則、形塑選擇性適用著作權(quán)合理使用規(guī)則的阻卻違法事由認(rèn)定機(jī)制及構(gòu)筑有限適用個(gè)人信息合理使用規(guī)則的責(zé)任豁免制度,系統(tǒng)化構(gòu)建服務(wù)提供者間接侵權(quán)責(zé)任的限制規(guī)則。
2022年11月30日,美國(guó)人工智能(AI)研究公司Open AI推出了對(duì)話機(jī)器人應(yīng)用ChatGPT(Chat Generative Pre-trained Transformer),在短短兩個(gè)月的時(shí)間內(nèi),該應(yīng)用的月活用戶突破一個(gè)億,在文本、圖片、視頻、音頻、代碼等方面的生成能力可見(jiàn)一斑。在文本方面,生成式人工智能(Generative AI,G-AI)以ChatGPT、BERT、XLNet、CTRL、文心一言、訊飛星火等大語(yǔ)言模型(Large Language Models,LLM)為主要代表,主要通過(guò)語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)、服務(wù)使用者輸入信息對(duì)人工智能模型進(jìn)行訓(xùn)練,經(jīng)過(guò)模型的預(yù)訓(xùn)練階段、優(yōu)化模型參數(shù)階段、人類反饋階段,生成式人工智能最終形成可供服務(wù)使用者使用的大語(yǔ)言模型。在圖像方面,生成式人工智能主要包括DALL·E、DALL·E2、“商湯秒畫SenseMirage”、Midjourney、Stable Diffusion等模型,可以根據(jù)文本提示生成高質(zhì)量的圖像和藝術(shù)作品。然而,基于部分訓(xùn)練數(shù)據(jù)存在侵權(quán)內(nèi)容、人工智能模型的固有缺陷、人工智能濫用等因素,個(gè)人利益乃至公共利益保護(hù)面臨巨大挑戰(zhàn)。我國(guó)先后出臺(tái)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法推薦管理規(guī)定》)、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱《深度合成管理規(guī)定》)、《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《人工智能暫行辦法》)等規(guī)章,企及消弭上述問(wèn)題,但面對(duì)生成式人工智能生成機(jī)理的復(fù)雜性,上述規(guī)范心有余而力不足。
由此引發(fā)的問(wèn)題包括:一是生成式人工智能生成內(nèi)容構(gòu)成間接侵權(quán)(第三人介入型侵權(quán))的,誰(shuí)是侵權(quán)主體,是生成式人工智能抑或服務(wù)提供者,有待進(jìn)一步明確。需要說(shuō)明的是,本文主要以間接侵權(quán)為中心展開(kāi),直接侵權(quán)(如非第三人介入型侵權(quán))非論證要點(diǎn)。二是服務(wù)提供者是否是網(wǎng)絡(luò)服務(wù)提供者,若答案是肯定的,與一般網(wǎng)絡(luò)服務(wù)提供者的區(qū)別是什么,負(fù)有何樣的安保義務(wù),違反安保義務(wù)承擔(dān)相應(yīng)的補(bǔ)充責(zé)任后能否追償。三是服務(wù)提供者違反安保義務(wù)是否僅承擔(dān)相應(yīng)的補(bǔ)充責(zé)任,有無(wú)連帶責(zé)任、懲罰性賠償責(zé)任適用的空間;后兩種責(zé)任形態(tài)如果有適用可能,有沒(méi)有類型化處理的必要。四是為了保護(hù)以ChatGPT為代表的生成式人工智能產(chǎn)業(yè),可否對(duì)服務(wù)提供者的責(zé)任進(jìn)行適當(dāng)限制,具體包括哪些情勢(shì),如何進(jìn)行具體的制度建構(gòu)與設(shè)計(jì),急需展開(kāi)全面論述。在直擊上述問(wèn)題的過(guò)程中,何以實(shí)現(xiàn)《深度合成管理規(guī)定》《人工智能暫行辦法》等規(guī)章與《中華人民共和國(guó)民法典》(以下簡(jiǎn)稱《民法典》)、《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》)、《中華人民共和國(guó)著作權(quán)法》(以下簡(jiǎn)稱《著作權(quán)法》)等法律的協(xié)調(diào)適用,亦是迫在眉睫的現(xiàn)實(shí)問(wèn)題。因此,研究生成式人工智能服務(wù)提供者間接侵權(quán)責(zé)任的承擔(dān)與限制,具有重要的理論與實(shí)踐意義。
一、生成式人工智能侵權(quán)責(zé)任主體的認(rèn)定
現(xiàn)有生成式人工智能處于“弱人工智能”階段,恐難取代服務(wù)提供者成為民事主體,享有權(quán)利,履行義務(wù)。生成式人工智能服務(wù)提供者提供的是內(nèi)容服務(wù),不同于一般意義上的具有平臺(tái)媒介性質(zhì)的網(wǎng)絡(luò)服務(wù)提供者,也不是技術(shù)支持者抑或內(nèi)容提供者,兼具內(nèi)容生產(chǎn)者與平臺(tái)管理者的雙重身份。
(一)生成式人工智能的民事主體資格反思
生成式人工智能侵權(quán)案件頻發(fā)的當(dāng)下,人工智能是否可以成為侵權(quán)責(zé)任主體存在爭(zhēng)議,現(xiàn)有立法則保持沉默。生成式人工智能成為侵權(quán)責(zé)任主體的前提是具備法律主體資格,學(xué)界對(duì)此觀點(diǎn)不一。
有學(xué)者認(rèn)為,生成式人工智能“具備享有權(quán)利和履行義務(wù)的意志能力,即意識(shí)和選擇或反思調(diào)整的能力”,可以賦予其法律主體資格,即肯定說(shuō)。羅馬法上,“所有具有合理意志的人自然是法律主體”,意志能力對(duì)民事權(quán)利能力的認(rèn)定具有決定性作用,進(jìn)而主宰民事權(quán)利義務(wù)關(guān)系及民事責(zé)任承擔(dān)。但生成式人工智能仍處于弱人工智能階段,不具有自由表達(dá)訴求的能力,不應(yīng)視為法律主體。在“李××與劉××侵害作品署名權(quán)、信息網(wǎng)絡(luò)傳播權(quán)糾紛案”(我國(guó)AI生成圖片著作權(quán)第一案)中,法院認(rèn)為,“生成式人工智能模型不具備自由意志,不是法律上的主體。”彭誠(chéng)信教授認(rèn)為,除意志能力要件外,“人工智能是否應(yīng)該存在作為法律主體予以承認(rèn),重要的一個(gè)要素是考慮其是否能夠獨(dú)立承擔(dān)法律責(zé)任,尤其是民事賠償責(zé)任。”也即,物質(zhì)性要件。肯定說(shuō)主要包括電子代理人說(shuō)、“電子人”說(shuō)、有限人格說(shuō)和人格擬制說(shuō)。電子代理人說(shuō)支持者認(rèn)為,“AI機(jī)器能夠被看作是一個(gè)雇員,因?yàn)樗峁┑姆?wù)主要是由程序員或所有者使用的。”代理人行使代理權(quán)的“法律效果直接歸屬于被代理人”,固然可以解決物質(zhì)性要件問(wèn)題,但生成式人工智能等人工智能“不具備意志能力,對(duì)自己的行為沒(méi)有道德判斷能力”,不具備意志能力要件。“電子人”說(shuō)擁護(hù)者宣稱,“‘電子人’是擁有人類智能特征,具有自主性,以電子及電子化技術(shù)構(gòu)建的機(jī)器設(shè)備或系統(tǒng)。”“電子人”說(shuō)力爭(zhēng)通過(guò)“自主性”論證,解決意志能力要件問(wèn)題。即便如此,“電子人”如何滿足物質(zhì)性要件不得而知。秉持有限人格說(shuō)的學(xué)者堅(jiān)稱,“人工智能雖然具有法律人格,但這種人格是有限的,并非完全的法律人格。”可生成式人工智能等人工智能在什么情況下享有法律人格,是否與自然、法人、非法人組織存在差異,有待進(jìn)一步澄清。支持人格擬制說(shuō)的學(xué)者主張,應(yīng)當(dāng)“將人工智能擬制為像法人那樣的主體。”“法人的意志能力則可以歸結(jié)到由自然人構(gòu)成的法人機(jī)關(guān)的意志,實(shí)際上根源還在于自然人。”“盡管其本身沒(méi)有意志與激情,卻可以將人的意志和激情歸屬于它。”漢斯·凱爾森認(rèn)為,“當(dāng)一個(gè)實(shí)體是法律規(guī)范的實(shí)體,這個(gè)實(shí)體就是法律意義上的人”,享有民事主體資格。鑒于此,生成式人工智能等人工智能的意志能力問(wèn)題得以消解,但沒(méi)有責(zé)任財(cái)產(chǎn)又如何切合物質(zhì)性要件值得商榷。
綜上,以電子代理人說(shuō)、“電子人”說(shuō)、有限人格說(shuō)和人格擬制說(shuō)為代表的肯定說(shuō)難以自圓其說(shuō),應(yīng)予摒棄,奉行否定說(shuō)。此外,王利明教授認(rèn)為,“自然人即生物學(xué)意義上的人,是基于出生而取得民事主體資格的人。”據(jù)此,“出生”是自然人具有民事權(quán)利能力,獲取民事主體資格的起點(diǎn),“死亡”是終點(diǎn),和意志能力無(wú)關(guān)。“意志能力在我們看來(lái)并不是界定民事主體的本質(zhì)條件”,即使生成式人工智能具備意志能力也不能就此認(rèn)定其具有民事主體資格。另外,“從主體要件的物質(zhì)性要求來(lái)說(shuō),至少在當(dāng)下人工智能體尚沒(méi)有取得主體資格的物質(zhì)性要件”。職是之故,應(yīng)依循否定說(shuō)否認(rèn)生成式人工智能的法律主體資格。2020年歐盟《關(guān)于人工智能系統(tǒng)運(yùn)行的責(zé)任立法倡議》(Draft Report with Recommendations to the Commission on a Civil Liability Regime for Artificial Intelligence,DRRCCLRAI)B部分第5條指出,“人工智能系統(tǒng)既沒(méi)有法律人格,也沒(méi)有人類良知,它們的唯一任務(wù)就是為人類服務(wù)。”以ChatGPT為代表的生成式人工智能同樣如此,“至少目前還不能匆忙讓它成為一個(gè)法律上的‘人’。”
(二)生成式人工智能服務(wù)提供者作為侵權(quán)責(zé)任主體的確認(rèn)
既然生成式人工智能不具有民事主體資格,此時(shí)須訴諸生成式人工智能服務(wù)提供者。生成式人工智能以語(yǔ)料庫(kù)收集數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)或服務(wù)使用者輸入的文本、圖片、聲音、視頻等為“原料”,對(duì)服務(wù)提供者設(shè)計(jì)的模型進(jìn)行訓(xùn)練,生成服務(wù)使用者需要的深度合成內(nèi)容。在此過(guò)程中,生成式人工智能的工具性顯露無(wú)遺,“即使具有一定自主性,仍受人類控制。”美國(guó)《國(guó)家人工智能倡議》(National Artificial Intelligence Initiative,NAII)草案第2部分第1條亦指出,“人工智能是一個(gè)工具。”歐盟《人工智能白皮書——追求卓越和信任的歐洲方案》(White Paper on Artificial Intelligence—A European Approach to Excellence and Trust,WPAI-EAET)前言(Introduction)部分強(qiáng)調(diào),“人工智能是數(shù)據(jù)、算法、算力結(jié)合形成的技術(shù)集合體。”以ChatGPT為代表的生成式人工智能不過(guò)是服務(wù)提供者操縱的“提線木偶”,收集何種數(shù)據(jù)、設(shè)計(jì)哪類模型、優(yōu)化哪些模型參數(shù)、如何回應(yīng)人類反饋等皆取決于服務(wù)提供者,恰是這一過(guò)程主宰著生成式人工智能根據(jù)服務(wù)使用者輸入的提示詞(prompts)生成何種內(nèi)容。故生成內(nèi)容引發(fā)侵權(quán)的,相對(duì)于無(wú)民事主體資格的生成式人工智能,由服務(wù)提供者承擔(dān)損害賠償責(zé)任更具合理性。
此外,基于生成式人工智能生成內(nèi)容造成他人損害與服務(wù)提供者違反審核等安保義務(wù)的不作為之間的因果關(guān)系,視服務(wù)提供者為侵權(quán)責(zé)任主體并無(wú)不妥。通說(shuō)認(rèn)為,我國(guó)侵權(quán)責(zé)任構(gòu)成要件中因果關(guān)系的認(rèn)定采用的是相當(dāng)因果關(guān)系說(shuō)。相當(dāng)因果關(guān)系的判斷主要分為兩個(gè)步驟,即事實(shí)上因果關(guān)系的判斷與法律上因果關(guān)系的判斷。關(guān)于相當(dāng)因果關(guān)系的判斷基準(zhǔn),王澤鑒教授認(rèn)為,“無(wú)此行為,雖必不生此損害,有此行為,通常即足生此種損害者,是為有因果關(guān)系。”“無(wú)此行為,雖必不生此損害”指向“加害行為與權(quán)利受到侵害的后果之間的因果關(guān)系”,即事實(shí)上因果關(guān)系的判斷。“有此行為,通常即足生此種損害者”指向“權(quán)利受到侵害的事實(shí)與被害人所受損害之間的因果關(guān)系”,即法律上因果關(guān)系的判斷。事實(shí)上因果關(guān)系的判斷主要有“刪除說(shuō)”(the elimination theory)和“代替說(shuō)”(the substitution theory)兩種學(xué)說(shuō)。“刪除說(shuō)”“亦即刪除加害人的不法行為后,檢驗(yàn)被害人的損害是否仍然會(huì)發(fā)生”,“若結(jié)果不能發(fā)生,或是只能以一種完全不同的方式發(fā)生,則存在因果關(guān)系”。反之,則不存在因果關(guān)系。“代替說(shuō)”“假定行為人在現(xiàn)場(chǎng)且實(shí)施了合法行動(dòng),其他條件完全不變”,事件的發(fā)生是否改變。“通說(shuō)認(rèn)為,應(yīng)當(dāng)采用‘刪除說(shuō)’。”
以ChatGPT為例,生成內(nèi)容引發(fā)侵權(quán)造成他人損害的,應(yīng)從事實(shí)上因果關(guān)系和法律上因果關(guān)系兩個(gè)角度,判斷ChatGPT服務(wù)提供者是否滿足侵權(quán)責(zé)任構(gòu)成要件中的因果關(guān)系。事實(shí)上因果關(guān)系判斷層面,依據(jù)《民法典》(第1195條至第1196條、第1198條)、《數(shù)據(jù)安全法》(第27條和第29條)、《深度合成管理規(guī)定》(第10條、第11條和第16條)、《人工智能暫行辦法》(第4條第5項(xiàng)、第12條和第14條)等規(guī)范性文件,ChatGPT服務(wù)提供者對(duì)數(shù)據(jù)、模型、模型訓(xùn)練、生成內(nèi)容等負(fù)有審核等安保義務(wù),因過(guò)失違反安保義務(wù),造成他人人格權(quán)、著作權(quán)等損害的契合損害要件。受害人權(quán)利受到侵害是因加害行為(不履行安保義務(wù)的不作為行為)而發(fā)生,成立事實(shí)上的因果關(guān)系。法律上因果關(guān)系判斷層面,“如果這個(gè)事實(shí)在通常情況下都可能發(fā)生同樣的損害結(jié)果,那么,這個(gè)行為與損害結(jié)果之間就有因果關(guān)系。”ChatGPT服務(wù)提供者違反審核等安保義務(wù)(加害行為)侵害他人人格權(quán)、著作權(quán)(權(quán)利遭受侵害的事實(shí))通常與損害具有“相當(dāng)性”。由此,諦視ChatGPT服務(wù)提供者違反審核等安保義務(wù)引發(fā)侵權(quán)責(zé)任的因果關(guān)系判斷中,事實(shí)上的因果關(guān)系和法律上的因果關(guān)系判斷皆不存在齟齬。在具備違法行為、過(guò)錯(cuò)、損害等侵權(quán)責(zé)任構(gòu)成要件的情況下,違法行為與損害之間具有相當(dāng)因果關(guān)系,ChatGPT服務(wù)提供者可以成為侵權(quán)責(zé)任主體。
(三)生成式人工智能服務(wù)提供者兼具內(nèi)容生產(chǎn)者與平臺(tái)管理者的雙重身份
《深度合成管理規(guī)定》第23條第1款規(guī)定,“深度合成技術(shù),是指……制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù)”,故深度合成服務(wù)提供者是網(wǎng)絡(luò)服務(wù)提供者。生成式人工智能作為深度合成的一種,采用網(wǎng)絡(luò)API方式為公眾提供服務(wù),其服務(wù)提供者亦應(yīng)界定為網(wǎng)絡(luò)服務(wù)提供者。依循《民法典》第1197款,生成式人工智能服務(wù)提供者負(fù)有審核等安保義務(wù);未盡到安保義務(wù),造成他人損害的,應(yīng)當(dāng)承擔(dān)相應(yīng)的補(bǔ)充責(zé)任。
證成生成式人工智能服務(wù)提供者是網(wǎng)絡(luò)服務(wù)提供者后,有必要結(jié)合生成式人工智能的運(yùn)行機(jī)制及服務(wù)提供者對(duì)生成內(nèi)容的干涉程度與控制力,剖析服務(wù)提供者的雙重身份。
一是生成式人工智能服務(wù)提供者是內(nèi)容生產(chǎn)者。以ChatGPT為例,生成內(nèi)容產(chǎn)生的每一個(gè)環(huán)節(jié)均受制于服務(wù)提供者。具體而言,語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)、服務(wù)使用者輸入信息的選擇及不同語(yǔ)種數(shù)據(jù)信息的選取等取決于ChatGPT服務(wù)提供者的價(jià)值取向。微調(diào)階段,“人類標(biāo)注人員扮演用戶和代理進(jìn)行對(duì)話,產(chǎn)生對(duì)話樣本并對(duì)回復(fù)進(jìn)行排名打分,將更好的結(jié)果反饋給模型”,以使生成內(nèi)容“符合人類意圖、知識(shí)觀和價(jià)值觀”。標(biāo)注人員通常為ChatGPT服務(wù)提供者的工作人員,抑或是接受服務(wù)提供者的委托從事數(shù)據(jù)標(biāo)注的自然人、法人或其他組織。前者,依據(jù)《民法典》第1191條第1款,“用人單位的工作人員因工作造成他人損害的,由用人單位對(duì)外承擔(dān)侵權(quán)責(zé)任。”后者,標(biāo)注人員“仍然屬于受托人的角色時(shí),委托人對(duì)受托人享有實(shí)際控制力”。所以,ChatGPT服務(wù)提供者對(duì)內(nèi)容生成過(guò)程具有“不可或缺”的控制力,應(yīng)納入內(nèi)容生產(chǎn)者范疇。同時(shí),ChatGPT服務(wù)提供者控制算法模型的諸多底線標(biāo)準(zhǔn),主導(dǎo)內(nèi)容生成?!渡疃群铣晒芾硪?guī)定》第10條第2款、《算法推薦管理規(guī)定》第8條、《人工智能暫行辦法》第8條、歐盟《人工智能法案》(AI Act,AIA)第5條第1項(xiàng)關(guān)于“特征庫(kù)”“標(biāo)準(zhǔn)、規(guī)則和程序”“算法模型”“標(biāo)注規(guī)則”“AI系統(tǒng)”的規(guī)定可以佐證。因此,以ChatGPT為代表的生成式人工智能服務(wù)提供者對(duì)算法模型具有控制力,把控以大語(yǔ)言模型為基礎(chǔ)的內(nèi)容生成,應(yīng)界定為內(nèi)容生產(chǎn)者。
二是生成式人工智能服務(wù)提供者是平臺(tái)管理者。龐大的用戶基數(shù)致使ChatGPT可以在較大范圍內(nèi)輸出價(jià)值觀念,甚至包括仇恨、歧視性內(nèi)容。2016年微軟公司研發(fā)的聊天機(jī)器人“Tay”就曾因大量有害輸入而成為“種族歧視者”。這意味著虛假信息等引發(fā)的人格權(quán)侵權(quán)、著作權(quán)侵權(quán)問(wèn)題加劇,生成式人工智能演變?yōu)樯汕謾?quán)內(nèi)容這一“危險(xiǎn)”的開(kāi)啟者。依循“危險(xiǎn)控制理論”,服務(wù)提供者應(yīng)當(dāng)承擔(dān)平臺(tái)管理者責(zé)任——防控、減少危險(xiǎn)。這與《深度合成管理規(guī)定》關(guān)于“建立健全……管理制度”(第7條)、“制定和公開(kāi)管理規(guī)則”與“依法依約履行管理責(zé)任”(第8條)、“加強(qiáng)深度合成內(nèi)容管理”(第10條第1款)、“落實(shí)……安全管理責(zé)任”(第13條)、“加強(qiáng)訓(xùn)練數(shù)據(jù)管理”(第14條第1款)、“加強(qiáng)技術(shù)管理”(第15條第1款)等規(guī)定的立法目的是一致的。也即,通過(guò)課以生成式人工智能服務(wù)提供者上述平臺(tái)管理等安保義務(wù),督促其加強(qiáng)平臺(tái)管理,減少生成內(nèi)容對(duì)他人權(quán)益的侵害。德國(guó)學(xué)界稱此類網(wǎng)絡(luò)服務(wù)提供者為“內(nèi)容框架提供者”(Rahmen-Content-Provider),強(qiáng)調(diào)其參與內(nèi)容形成,并對(duì)內(nèi)容負(fù)有一定的主動(dòng)注意義務(wù)。歐盟《人工智能法案》第14條第2款指出,服務(wù)提供者應(yīng)“防止或最大程度地降低……健康、安全或基本權(quán)利風(fēng)險(xiǎn)”,該條第4款對(duì)審核義務(wù)的具體操作措施進(jìn)行了詳細(xì)規(guī)定,《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第7條、《人工智能暫行辦法》第19條及《深度合成管理規(guī)定》第10條亦有類似規(guī)定。職是之故,生成式人工智能服務(wù)提供者履行審核等安保義務(wù)即為履行平臺(tái)管理職責(zé),其平臺(tái)管理者身份毋庸置疑。
《民法典》第1194條至第1197條指稱的網(wǎng)絡(luò)服務(wù)提供者主要是具有平臺(tái)媒介性、充當(dāng)純粹信息傳播平臺(tái)或渠道的提供者,我國(guó)司法實(shí)踐亦持此觀點(diǎn)。生成式人工智能服務(wù)提供者除扮演媒介者角色外,還負(fù)責(zé)平臺(tái)管理,主導(dǎo)內(nèi)容生成,兼具內(nèi)容生產(chǎn)者與平臺(tái)管理者的雙重法律身份。為了規(guī)制生成式人工智能這類新型網(wǎng)絡(luò)服務(wù)提供者,可以對(duì)《民法典》第1194條至第1197條中的“網(wǎng)絡(luò)服務(wù)提供者”進(jìn)行擴(kuò)大解釋,同時(shí)根據(jù)生成式人工智能的特性適當(dāng)調(diào)整現(xiàn)有責(zé)任認(rèn)定與承擔(dān)制度。
二、生成式人工智能服務(wù)提供者間接侵權(quán)責(zé)任承擔(dān)的體系化構(gòu)筑
生成式人工智能服務(wù)提供者違反審核等安保義務(wù),造成他人損害的,原則上應(yīng)當(dāng)承擔(dān)相應(yīng)的補(bǔ)充責(zé)任。但是,考慮到生成式人工智能的特殊性,服務(wù)提供者在間接侵權(quán)責(zé)任承擔(dān)及追償權(quán)行使方面與一般網(wǎng)絡(luò)服務(wù)提供者存在差異,故應(yīng)通過(guò)類型化處理作出不同于一般網(wǎng)絡(luò)提供者的責(zé)任承擔(dān)體系設(shè)計(jì)。
(一)生成式人工智能服務(wù)提供者相應(yīng)的補(bǔ)充責(zé)任與追償權(quán)行使機(jī)制構(gòu)造
生成式人工智能服務(wù)提供者屬于網(wǎng)絡(luò)服務(wù)提供者范疇,依據(jù)《民法典》第1195條和第1196條,負(fù)有安保義務(wù)?!稊?shù)據(jù)安全法》第27條和第29條即是對(duì)生成式人工智能服務(wù)提供者等數(shù)據(jù)處理者安保義務(wù)的回應(yīng)。依循《民法典》第1195條第1款,服務(wù)提供者未主動(dòng)“采取刪除、屏蔽、斷開(kāi)鏈接等必要措施”的,應(yīng)當(dāng)承擔(dān)相應(yīng)的補(bǔ)充責(zé)任?!渡疃群铣晒芾硪?guī)定》《人工智能暫行辦法》是國(guó)家網(wǎng)信辦發(fā)布的規(guī)章,其要求服務(wù)提供者履行審核等安保義務(wù)是《民法典》第1195條和第1196條“必要措施”的具體化?!渡疃群铣晒芾硪?guī)定》第10條中的“進(jìn)行審核”“建立健全用于識(shí)別違法和不良信息的特征庫(kù)”“依法采取處置措施”,第11條中的“建立健全辟謠機(jī)制”及第16條中的“采取技術(shù)措施添加不影響用戶使用的標(biāo)識(shí)”等可以佐證。生成式人工智能作為深度合成的一種表現(xiàn)形式,《人工智能暫行辦法》第12條和第14條亦有類似規(guī)定。對(duì)于違反安保義務(wù)的間接侵權(quán)責(zé)任,《深度合成管理規(guī)定》《人工智能暫行辦法》皆沒(méi)有明確指向《民法典》,但可以經(jīng)由前者第22條第1款及后者第21條第1款中的“法律”引致適用《民法典》。如因大語(yǔ)言模型本身存在缺陷而生成虛假信息,造成他人損害,且生成式人工智能服務(wù)提供者違反安保義務(wù)的,應(yīng)當(dāng)依據(jù)《民法典》第1198條承擔(dān)相應(yīng)的補(bǔ)充責(zé)任。
模型預(yù)訓(xùn)練階段,服務(wù)提供者所使用的海量數(shù)據(jù)主要包括語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)和服務(wù)使用者輸入信息三種?;谏墒饺斯ぶ悄芊?wù)提供者侵權(quán)責(zé)任的具體形態(tài),本節(jié)將訓(xùn)練數(shù)據(jù)分為兩類:第一類是語(yǔ)料庫(kù)獲取數(shù)據(jù)與實(shí)時(shí)抓取數(shù)據(jù)。主要表現(xiàn)為來(lái)源合法非法生成和來(lái)源非法非法生成兩種侵權(quán)形態(tài)。一是來(lái)源合法非法生成,服務(wù)提供者未盡到對(duì)生成內(nèi)容的審核等安保義務(wù)的,應(yīng)適用《民法典》第1198條第1款,承擔(dān)直接侵權(quán)損害賠償責(zé)任。尤其需要回應(yīng)的是,因服務(wù)使用者傳播造成第三人損害的,適用該條第2款,服務(wù)使用者承擔(dān)直接侵權(quán)責(zé)任。其不明或無(wú)賠償能力的,生成式人工智能服務(wù)提供者承擔(dān)間接侵權(quán)責(zé)任,即相應(yīng)的補(bǔ)充責(zé)任。二是來(lái)源非法非法生成的,且生成式人工智能服務(wù)提供者未盡到審核等安保義務(wù)的,因?yàn)榇藭r(shí)依然沒(méi)有第三人介入,參照《民法典》第1198條第1款承擔(dān)侵權(quán)損害賠償責(zé)任即可。譬如,沒(méi)有依照《深度合成管理規(guī)定》第16條規(guī)定“采取技術(shù)措施添加不影響用戶使用的標(biāo)識(shí)”。美國(guó)《國(guó)家人工智能倡議法案》(National Artificial Intelligence Initiative Act,NAIIA)第3章第1條第1款第3項(xiàng)亦有類似規(guī)定。屆時(shí),服務(wù)使用者傳播非法生成內(nèi)容造成第三人損害的,可以對(duì)生成式人工智能服務(wù)提供者實(shí)施相應(yīng)的補(bǔ)充責(zé)任加懲罰性賠償。本章第三節(jié)將就此展開(kāi)論述,在此不贅。第二類是服務(wù)使用者輸入數(shù)據(jù)。表現(xiàn)為輸入信息合法非法生成和輸入信息非法非法生成兩種侵權(quán)形態(tài)。一是輸入信息合法非法生成,原則上按照《民法典》第1198條第1款無(wú)第三人介入型侵權(quán)的規(guī)定處理。服務(wù)使用者傳播造成第三人損害的,且服務(wù)提供者違反審核等安保義務(wù)的,承擔(dān)相應(yīng)的補(bǔ)充責(zé)任足矣。二是輸入信息非法非法生成的,服務(wù)使用者是直接侵權(quán)人,生成式人工智能服務(wù)提供者原則上僅承擔(dān)違反雙重審核等安保義務(wù)的順位責(zé)任。但與違反單一審核義務(wù)相比,其過(guò)錯(cuò)更大,可以適當(dāng)加重責(zé)任承擔(dān)份額。服務(wù)使用者傳播侵權(quán)內(nèi)容造成第三人遭受損害的,參照前者第二種情況在補(bǔ)充責(zé)任的基礎(chǔ)上實(shí)施懲罰性賠償,此處不再展開(kāi)。
綜上所述,在服務(wù)使用者傳播侵權(quán)內(nèi)容,造成第三人損害的情形下,生成式人工智能服務(wù)提供者承擔(dān)侵權(quán)責(zé)任的形態(tài)表現(xiàn)為來(lái)源合法非法生成、來(lái)源非法非法生成、輸入信息合法非法生成、輸入信息非法非法生成四種。遵循《民法典》第1198條第2款,生成式人工智能服務(wù)提供者承擔(dān)相應(yīng)的補(bǔ)充責(zé)任后,可以向直接侵權(quán)人進(jìn)行追償。第一、三種情況下,生成式人工智能服務(wù)提供者違反的是單一審核等安保義務(wù),對(duì)損害結(jié)果發(fā)生的原因力相對(duì)較小,賦予其追償權(quán)毋庸置疑。“第三人因?yàn)榫嚯x損害更近,屬于終局責(zé)任人,安全保障義務(wù)人可以向其追償。”然而,第二、四種境遇下,生成式人工智能服務(wù)提供者違反的是雙重審核等安保義務(wù),即非法數(shù)據(jù)信息的第一重審核義務(wù)和非法生成內(nèi)容的第二重審核義務(wù),對(duì)損害結(jié)果發(fā)生的原因力較大,可以禁止其行使追償權(quán)。
(二)生成式人工智能服務(wù)提供者連帶責(zé)任的類型化建構(gòu)
OpenAI公司回答關(guān)于ChatGPT的常見(jiàn)問(wèn)題時(shí)明確指出,ChatGPT“可能產(chǎn)生有害指令或有偏見(jiàn)的內(nèi)容。”ChatGPT模型是“基于整個(gè)互聯(lián)網(wǎng)的公開(kāi)信息進(jìn)行訓(xùn)練,這既決定了它的能力,也決定了其局限性,互聯(lián)網(wǎng)內(nèi)容存在的問(wèn)題都可能映射在模型中。”據(jù)此,不宜隨意課以服務(wù)提供者連帶責(zé)任,應(yīng)以“知道或者應(yīng)當(dāng)知道”為限。此時(shí)服務(wù)使用者利用服務(wù)提供者提供的服務(wù)侵害他人合法權(quán)益,服務(wù)提供者未采取必要措施的,應(yīng)當(dāng)承擔(dān)連帶責(zé)任。
一是生成式人工智能服務(wù)提供者“知道”境遇下的連帶侵權(quán)責(zé)任承擔(dān)機(jī)制建構(gòu)。文義解釋下,《人工智能暫行辦法》第14條第1款中的“發(fā)現(xiàn)”應(yīng)包括《民法典》第1195條第1款中權(quán)利人“通知”及“自行發(fā)現(xiàn)”等多種情形。該款“起源”于《民法典》第1195條第1款,是對(duì)后者的具體化呈現(xiàn)。“提供者發(fā)現(xiàn)違法內(nèi)容的”或“發(fā)現(xiàn)使用者利用生成式人工智能服務(wù)從事違法活動(dòng)的”,未采取模型優(yōu)化、停止生成、消除等必要措施的,適用《人工智能暫行辦法》第14條引致《民法典》第1195條,生成式人工智能服務(wù)提供者應(yīng)“對(duì)損害的擴(kuò)大部分與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任”。適用《民法典》第1197條,亦可得出同樣結(jié)論。“通知”“自行發(fā)現(xiàn)”等“發(fā)現(xiàn)”形態(tài)等同于生成式人工智能服務(wù)提供者“知道”,這是其承擔(dān)連帶責(zé)任的起點(diǎn)和法理基礎(chǔ)。“知道”是一種主觀狀態(tài),服務(wù)提供者未采取必要措施,意味著“放任侵害結(jié)果的發(fā)生。”“發(fā)現(xiàn)”“違法內(nèi)容”或“違法活動(dòng)”未采取必要措施的,服務(wù)提供者的身份從“網(wǎng)絡(luò)侵權(quán)責(zé)任的中間者”轉(zhuǎn)變?yōu)?ldquo;網(wǎng)絡(luò)侵權(quán)責(zé)任的共同侵權(quán)者”,相應(yīng)的補(bǔ)充責(zé)任轉(zhuǎn)化為連帶責(zé)任。有學(xué)者認(rèn)為,此種違反安保義務(wù)的不作為侵權(quán)轉(zhuǎn)變?yōu)椴蛔鳛榈膸椭謾?quán)。在“劉靜雯、浙江天貓網(wǎng)絡(luò)有限公司等侵害作品信息網(wǎng)絡(luò)傳播權(quán)糾紛案”中,法院即認(rèn)為,網(wǎng)絡(luò)服務(wù)提供者是否承擔(dān)連帶責(zé)任,主要取決于可否構(gòu)成幫助行為。職是之故,生成式人工智能服務(wù)提供者“發(fā)現(xiàn)”“違法內(nèi)容”或“違法活動(dòng)”,未采取必要措施的,應(yīng)就“發(fā)現(xiàn)”之時(shí)起的損害(損害擴(kuò)大部分)與服務(wù)使用者承擔(dān)連帶責(zé)任。
二是生成式人工智能服務(wù)提供者“應(yīng)當(dāng)知道”境遇下的連帶侵權(quán)責(zé)任承擔(dān)機(jī)制建構(gòu)。生成式人工智能服務(wù)提供者未盡到安保義務(wù)對(duì)模型進(jìn)行參數(shù)優(yōu)化與微調(diào),抑或沒(méi)有解決數(shù)據(jù)歧視或來(lái)源不合法等問(wèn)題,造成他人損害的,應(yīng)承擔(dān)相應(yīng)的補(bǔ)充責(zé)任。然而,相應(yīng)的補(bǔ)充責(zé)任不能成為生成式人工智能服務(wù)提供者的“免死金牌”,“紅旗規(guī)則”一定程度上可以說(shuō)明這一點(diǎn)。生成式人工智能服務(wù)提供者在審核輸入與獲取數(shù)據(jù)、履行人工智能模型訓(xùn)練與優(yōu)化等安保義務(wù)的過(guò)程中,已然觸及侵權(quán)內(nèi)容卻沒(méi)有采取必要措施的,即未“注意到一個(gè)合理的謹(jǐn)慎人(reasonbly prudent person)會(huì)注意到的情況”,可以視為“應(yīng)當(dāng)知道”。依循《人工智能暫行辦法》第21條第1款可以引致適用《民法典》第1197條,要求生成式人工智能服務(wù)提供者承擔(dān)連帶責(zé)任。責(zé)任分擔(dān)上,考慮到“‘應(yīng)當(dāng)知道’是指‘推定的知道’”,服務(wù)提供者可能并非真的“知道”,在內(nèi)部責(zé)任分擔(dān)上可以適當(dāng)減輕服務(wù)提供者的責(zé)任承擔(dān)份額。具體可以作出如下制度設(shè)計(jì):
連帶責(zé)任除非法律有特別規(guī)定,是以實(shí)際損害為限的。服務(wù)提供者因“應(yīng)當(dāng)知道”承擔(dān)連帶責(zé)任的,責(zé)任范圍輻射所有實(shí)際損害。按照《民法典》第178條第2款,服務(wù)提供者承擔(dān)連帶責(zé)任后,可以“根據(jù)各自責(zé)任大小確定”責(zé)任份額。但是,“知道”主要表現(xiàn)為故意,“是一種確切的狀態(tài)。”“應(yīng)當(dāng)知道一般被歸入過(guò)失的范疇”,屬于應(yīng)當(dāng)預(yù)見(jiàn)而沒(méi)有預(yù)見(jiàn)的主觀心理狀態(tài)。前者的可問(wèn)責(zé)性顯然大于后者。且基于數(shù)據(jù)量大、機(jī)器學(xué)習(xí)、網(wǎng)絡(luò)攻擊等因素,生成式人工智能服務(wù)提供者對(duì)訓(xùn)練數(shù)據(jù)、人工智能模型、生成內(nèi)容等的影響和控制可能“失靈”。故在內(nèi)部責(zé)任的分擔(dān)上,法院可以適當(dāng)減少生成式人工智能服務(wù)提供者的責(zé)任份額。換句話說(shuō),適當(dāng)加重直接侵權(quán)人的責(zé)任,對(duì)其實(shí)施懲罰性賠償。
(三)生成式人工智能服務(wù)提供者懲罰性賠償制度設(shè)置
生成式人工智能生成內(nèi)容構(gòu)成侵權(quán)的,依循本章第一節(jié)的劃分標(biāo)準(zhǔn),主要呈現(xiàn)出來(lái)源合法非法生成、來(lái)源非法非法生成、輸入信息合法非法生成、輸入信息非法非法生成四種。本節(jié)主要聚焦于第二、四種情況下服務(wù)使用者再傳播行為引發(fā)的懲罰性賠償問(wèn)題,其他情形非論證要點(diǎn)。第二、四種情況下,訓(xùn)練數(shù)據(jù)可能存在侮辱、誹謗、歧視他人的言論及構(gòu)成對(duì)他人作品的不當(dāng)使用、個(gè)人信息處理沒(méi)有獲得知情同意等。生成式人工智能生成的侵權(quán)內(nèi)容構(gòu)成對(duì)原侵權(quán)內(nèi)容的傳播,服務(wù)使用者公開(kāi)、分享或傳播侵害他人著作權(quán)、人格權(quán)等生成內(nèi)容的,構(gòu)成再傳播行為。懲罰性賠償之功能“在于懲罰和制裁嚴(yán)重過(guò)錯(cuò)行為”,基于侵權(quán)內(nèi)容再傳播行為的嚴(yán)重危害性,可以考慮對(duì)生成式人工智能服務(wù)提供者實(shí)施懲罰性賠償。另,如前所述,第二、四種境遇中,生成式人工智能服務(wù)提供者違反了《深度合成管理規(guī)定》第10條第1款規(guī)定的雙重審核義務(wù)——對(duì)具有侵權(quán)屬性的數(shù)據(jù)信息的第一重審核義務(wù)和對(duì)非法生成內(nèi)容的第二重審核義務(wù),所謂“罪大惡極”。“網(wǎng)絡(luò)平臺(tái)提供者……最終責(zé)任份額,應(yīng)當(dāng)根據(jù)其過(guò)錯(cuò)程度和行為的原因力確定。”若僅承擔(dān)相應(yīng)的補(bǔ)充責(zé)任,顯然有失公允。生成式人工智能服務(wù)使用者難以確定或無(wú)賠償能力者,服務(wù)提供者除承擔(dān)與其過(guò)錯(cuò)程度和原因力大小相當(dāng)?shù)南鄳?yīng)的補(bǔ)充責(zé)任,還需承擔(dān)額外的懲罰性賠償,禁止追償。具體理由如下:
一是懲罰性賠償制度的適用范圍可以擴(kuò)大到重大過(guò)失。檢視《民法典》第1185條、第1207條、第1232條關(guān)于懲罰性賠償?shù)囊?guī)定,均使用“故意”“明知”限定主觀狀態(tài)。然而,以美國(guó)為代表的懲罰性賠償制度的適用范圍包括故意案件,也涉及重大過(guò)失案件。也就是說(shuō),除故意外,一般過(guò)失存在加重情節(jié)時(shí)也有適用可能,此種“‘被加重的過(guò)失’稱為重大過(guò)失(gross negligence)或魯莽(recklessness)。”美國(guó)《侵權(quán)法重述第二版》第908條第1款指出,“懲罰性賠償可以針對(duì)因被告的邪惡動(dòng)機(jī)或他魯莽地?zé)o視他人的權(quán)利而具有惡劣性質(zhì)的行為做出。”此行為“與故意行為非常相似,因此應(yīng)當(dāng)承擔(dān)同樣的責(zé)任。”王利明教授指出,“如果行為人具有重大過(guò)失,則可能被視為故意侵權(quán)行為,并施加懲罰性賠償。”英國(guó)最高法院認(rèn)為,懲罰性賠償制度可以適用“被告玩世不恭地?zé)o視原告權(quán)利、為牟取利益而算計(jì)的侵權(quán)行為”。目光回溯到懲罰性賠償制度適用的上述第二、四種情況,服務(wù)提供者違反雙重審核義務(wù)的行為屬于“魯莽地?zé)o視他人的權(quán)利”“無(wú)視原告權(quán)利”的行為,可以實(shí)施懲罰性賠償。
二是生成式人工智能基于既有侵權(quán)內(nèi)容生成新的侵權(quán)內(nèi)容屬于“魯莽”地實(shí)施了間接侵權(quán)行為。語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)、服務(wù)使用者輸入的信息合法,生成式人工智能服務(wù)提供者未盡到審核等安保義務(wù)導(dǎo)致生成內(nèi)容構(gòu)成侵權(quán)的,可以視為違反美國(guó)《國(guó)家人工智能倡議法案》第4條第1款(a)項(xiàng)規(guī)定的“旨在防止發(fā)生損害的注意義務(wù)”,可視為一般過(guò)失。我國(guó)《民法典》第1195條至第1198條也有明確規(guī)定。語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)、服務(wù)使用者輸入的信息業(yè)已構(gòu)成侵權(quán),生成式人工智能服務(wù)提供者未盡到審核等安保義務(wù)導(dǎo)致侵權(quán)發(fā)生的,在先過(guò)失行為(違反第一重審核義務(wù),導(dǎo)致數(shù)據(jù)來(lái)源不合法等)與在后過(guò)失行為(違反第二重審核義務(wù),引發(fā)生成侵權(quán)內(nèi)容)的疊加,屬于“魯莽”地實(shí)施了間接侵權(quán)行為,理應(yīng)課以懲罰性賠償。依循美國(guó)《侵權(quán)法重述第三版:實(shí)體與精神損害責(zé)任》第2節(jié)(a)(b),“如果行為人知道其行為造成的傷害風(fēng)險(xiǎn)……且能夠消除或降低該風(fēng)險(xiǎn)的預(yù)防措施所涉及的負(fù)擔(dān)與該風(fēng)險(xiǎn)的嚴(yán)重程度相比如此輕微……則該行為人莽撞地實(shí)施了該行為。”服務(wù)提供者作為企業(yè)法人,設(shè)有專門的風(fēng)險(xiǎn)控制部門和法務(wù)部門,所以對(duì)其非法處理個(gè)人信息造成的可能傷害是“知道”的。且,既然法律施以服務(wù)提供者采取必要措施的安全保護(hù)義務(wù),即意味著采取必要措施付出的成本一般是小于對(duì)人格權(quán)、著作權(quán)等造成的可能損害。由此,生成式人工智能服務(wù)提供者違反第一重審核義務(wù)與違反第二重審核義務(wù)相互疊加,屬于“莽撞地實(shí)施了該行為”,可以實(shí)施懲罰性賠償。歐盟《人工智能法案》第72條第1款(a)項(xiàng)規(guī)定,決定處罰時(shí)應(yīng)適當(dāng)考慮“侵權(quán)行為的性質(zhì),嚴(yán)重性,持續(xù)時(shí)間及其后果”。生成式人工智能服務(wù)提供者違反雙重審核義務(wù)情節(jié)嚴(yán)重,引入懲罰性賠償亦有其妥適性。
三、生成式人工智能服務(wù)提供者間接侵權(quán)責(zé)任限制制度的完善路徑
生成式人工智能服務(wù)提供者違反審核等安保義務(wù),可能存在的責(zé)任形態(tài)包括相應(yīng)的補(bǔ)充責(zé)任、連帶責(zé)任及懲罰性賠償責(zé)任,尤其是后兩種責(zé)任形態(tài)在一定程度上加重了服務(wù)提供者的間接侵權(quán)責(zé)任?;诤馄缴墒饺斯ぶ悄芊?wù)提供者與服務(wù)使用者利益,保護(hù)生成式人工智能產(chǎn)業(yè)的角度考量,應(yīng)按照“避風(fēng)港規(guī)則”、著作權(quán)合理使用規(guī)則及個(gè)人信息合理使用規(guī)則,適當(dāng)限制服務(wù)提供者的間接侵權(quán)責(zé)任。
(一)“避風(fēng)港規(guī)則”適用的責(zé)任豁免規(guī)則
《民法典》第1195條第2款設(shè)置了“避風(fēng)港規(guī)則”,但“只有滿足‘通知?jiǎng)h除’規(guī)則,網(wǎng)絡(luò)服務(wù)提供者才可能免除法律責(zé)任,順利駛?cè)?lsquo;避風(fēng)港’。”《深度合成管理規(guī)定》《人工智能暫行辦法》作為國(guó)家網(wǎng)信辦規(guī)章,其未盡事宜可以參照適用《民法典》。也即,“避風(fēng)港規(guī)則”對(duì)以ChatGPT為代表的生成式人工智能仍然適用?!睹穹ǖ洹返?195條第1款中的“等”字措辭表明,“必要措施”還包括《深度合成管理規(guī)定》第10條第3款的“警示、限制功能、暫停服務(wù)、關(guān)閉賬號(hào)等處置措施”、第11條的“辟謠措施”、第14條的“不予上架……下架等處置措施”及《人工智能暫行辦法》第14條的“停止生成、停止傳輸、消除等處置措施”等等。然而,生成式人工智能服務(wù)提供者不同于一般意義上的網(wǎng)絡(luò)服務(wù)提供者,《民法典》設(shè)立的“避風(fēng)港規(guī)則”不能照搬,應(yīng)根據(jù)生成式人工智能的特性進(jìn)行適當(dāng)調(diào)整。可以引入“面向未來(lái)的審查義務(wù)”(künftige Kontrollpflicht),也有學(xué)者稱之為“通知取下掃描”規(guī)則。“面向未來(lái)的審查義務(wù)”是德國(guó)聯(lián)邦最高法院在eBay案中確立的,法院認(rèn)為,被告不僅必須在發(fā)現(xiàn)對(duì)未成年人有害的提議后立即予以阻止。它還有義務(wù)防止今后再發(fā)生此類違法行為,例如使用過(guò)濾器或仔細(xì)檢查已經(jīng)提供索引作品的提供商。歐盟《數(shù)字單一市場(chǎng)版權(quán)指令》(Directive on Copyright in the Digital Single Market,DCDSM)第17條第4款(C)項(xiàng)規(guī)定,“在收到權(quán)利人提供的充分證實(shí)的通知后,迅速采取行動(dòng),禁止訪問(wèn)或從其網(wǎng)站上刪除所通知的作品或其他主題,并根據(jù)(B)項(xiàng)盡最大努力防止其未來(lái)上傳”,課以網(wǎng)絡(luò)服務(wù)提供者“面向未來(lái)的審查義務(wù)”。顯然,這有異于《民法典》第1195條第2項(xiàng)以“通知取下”為中心的“避風(fēng)港規(guī)則”,事實(shí)上是加強(qiáng)版的“避風(fēng)港規(guī)則”——“通知取下掃描”規(guī)則,也稱“面向未來(lái)的審查義務(wù)”。“即在以后針對(duì)同一侵權(quán)主體或同樣侵權(quán)客體或同樣侵權(quán)內(nèi)容負(fù)有主動(dòng)審查義務(wù)。”《人工智能暫行辦法》第14條規(guī)定的“采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改”即是一種“面向未來(lái)的審查義務(wù)”。但投射到生成式人工智能服務(wù)提供者,應(yīng)當(dāng)進(jìn)行類型化處理。
一是語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)、服務(wù)使用者輸入信息業(yè)已構(gòu)成侵權(quán)且生成內(nèi)容也構(gòu)成侵權(quán)的,生成式人工智能服務(wù)提供者收到權(quán)利人侵權(quán)通知的,負(fù)有“面向未來(lái)的審查義務(wù)”。全面履行該審查義務(wù)的,免除侵權(quán)責(zé)任。歐盟《算法的可問(wèn)責(zé)和透明的治理框架》(A Governance Framework for Algorithmic Accountability and Transparency,GFAAT)在結(jié)論部分指出,“為獲得對(duì)算法決策過(guò)程的整體了解,方法包括:設(shè)計(jì)/代碼審查、輸入數(shù)據(jù)分析、輸出結(jié)果的統(tǒng)計(jì)分析、輸入內(nèi)容的敏感性分析。”即要求服務(wù)提供者對(duì)語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)、服務(wù)使用者輸入信息進(jìn)行審查,防止以不合格“原料”訓(xùn)練模型而侵害他人著作權(quán)、人格權(quán)等合法權(quán)益。生成式人工智能服務(wù)提供者以問(wèn)題“原料”為訓(xùn)練數(shù)據(jù),生成服務(wù)使用者希望獲取的相關(guān)內(nèi)容,負(fù)有的審核義務(wù)應(yīng)大于合格“原料”。假如遵守“避風(fēng)港規(guī)則”“消除”生成內(nèi)容即可免除侵權(quán)責(zé)任,有助長(zhǎng)侵權(quán)、濫用權(quán)利之嫌。“消除”措施對(duì)應(yīng)《民法典》第1195條第1款的“刪除”,“屬于事后干預(yù),規(guī)制目標(biāo)是救濟(jì)于水火”。“通知取下掃描”規(guī)則要求對(duì)任一服務(wù)使用者再次輸入相同或類似的提示詞或已經(jīng)生成的任一相同或類似內(nèi)容,甚至“原料”本身,生成式人工智能服務(wù)提供者都必須進(jìn)行“掃描”,全面審核,適當(dāng)采取“停止生成、停止傳輸、消除等處置措施”,最大限度減少對(duì)權(quán)利人可能造成的侵害。
二是語(yǔ)料庫(kù)數(shù)據(jù)、實(shí)時(shí)抓取數(shù)據(jù)、服務(wù)使用者輸入的信息等訓(xùn)練數(shù)據(jù)不存在侵權(quán)內(nèi)容,生成式人工智能生成內(nèi)容構(gòu)成侵權(quán)的,服務(wù)提供者收到權(quán)利人通知后,采取“消除”措施即可實(shí)施責(zé)任豁免。這種情況下,用于模型訓(xùn)練的“原料”是合格的,侵權(quán)內(nèi)容生成的原因在于生成式人工智能服務(wù)提供者未盡到審核義務(wù),承擔(dān)違反安保義務(wù)的侵權(quán)責(zé)任即可。以ChatGPT為代表的生成式人工智能處于早期發(fā)展階段,訓(xùn)練數(shù)據(jù)來(lái)源、人工智能模型、反饋機(jī)制等存在固有缺陷,施以服務(wù)提供者過(guò)重的審核義務(wù)過(guò)于苛刻。“原料”合格者,采取“消除”措施即可免責(zé),旨在“護(hù)航”以ChatGPT為代表的生成式人工智能技術(shù)的發(fā)展。
(二)生成式人工智能服務(wù)提供者著作權(quán)間接侵權(quán)的阻卻違法規(guī)則
生成式人工智能服務(wù)使用者使用他人作品(如輸入涉及他人作品的相關(guān)內(nèi)容)或使用源于他人作品的生成內(nèi)容(如自行使用、傳播等)構(gòu)成合理使用的,生成式人工智能服務(wù)提供者即使違反審核等安保義務(wù)也不構(gòu)成侵權(quán)。目光來(lái)回往返于《著作權(quán)法》第24條第1款所列13種情形,生成式人工智能服務(wù)使用者使用他人作品或使用源于他人作品的生成內(nèi)容可能構(gòu)成合理使用的情形,主要限于第1項(xiàng)和第2項(xiàng),故本節(jié)僅就該兩項(xiàng)展開(kāi)討論。
《著作權(quán)法》第24條第1款第1項(xiàng)規(guī)定,“為個(gè)人學(xué)習(xí)、研究或者欣賞,使用他人已經(jīng)發(fā)表的作品”,構(gòu)成合理使用,阻卻違法。《美國(guó)版權(quán)法》第107條規(guī)定,是否構(gòu)成合理使用的主要因素之一是“使用的目的和性質(zhì),包括該使用是出于商業(yè)目的還是非營(yíng)利的教育目的。”“個(gè)人學(xué)習(xí)、研究或者欣賞”的非商業(yè)目的性是構(gòu)成合理使用的法律基礎(chǔ)。放眼司法實(shí)踐,亦有人民法院把商業(yè)目的作為構(gòu)成合理使用的主要考量因素。文義解釋下,該條的“個(gè)人”應(yīng)理解為自然人,不應(yīng)包括法人和非法人組織。有學(xué)者則認(rèn)為,“‘個(gè)人’通常僅限于‘個(gè)人或家庭’的范圍”,未“觸及”生成式人工智能服務(wù)提供者這類實(shí)體法人。服務(wù)使用者則可能基于“個(gè)人學(xué)習(xí)、研究或者欣賞”等目的使用生成式人工智能服務(wù),直接使用他人作品或間接使用涉及他人已經(jīng)發(fā)表作品的生成內(nèi)容。此項(xiàng)主要適用使用人直接與著作權(quán)人發(fā)生法律關(guān)系的情形,如直接輸入他人作品的部分內(nèi)容。生成式人工智能服務(wù)使用者通過(guò)生成式人工智能這一媒介取得作品,并沒(méi)有與著作權(quán)人直接發(fā)生法律關(guān)系,可否援引上述第1項(xiàng)不無(wú)疑問(wèn)。事實(shí)上,《著作權(quán)法》第24條第1款第1項(xiàng)沒(méi)有對(duì)上述兩種情形進(jìn)行區(qū)分,依循“法無(wú)禁止即可為”原則,應(yīng)全部適用。即使《著作權(quán)法》第24條第1款第1項(xiàng)限縮于直接使用,當(dāng)然解釋下,奉行“舉重以明輕”原則,直接使用構(gòu)成合理使用,間接使用也應(yīng)構(gòu)成合理使用,構(gòu)成阻卻違法事由。
《著作權(quán)法》第24條第1款第2項(xiàng)規(guī)定,“為介紹、評(píng)論某一作品或者說(shuō)明某一問(wèn)題,在作品中適當(dāng)引用他人已經(jīng)發(fā)表的作品”的,構(gòu)成合理使用,阻卻違法?!睹绹?guó)版權(quán)法》第107條、《英國(guó)版權(quán)法》第29條有類似規(guī)定。有別于“為個(gè)人學(xué)習(xí)、研究或者欣賞”合理使用他人作品的非商業(yè)性,引用他人已發(fā)表作品的“目的既可以是包含公益性質(zhì)的,也可以包含商業(yè)性質(zhì)的,能夠構(gòu)成合理使用的情形是其使用方式應(yīng)為適當(dāng)引用他人已經(jīng)發(fā)表的作品”。適當(dāng)引用通常強(qiáng)調(diào)引用的少量性與非實(shí)質(zhì)性,大量引用實(shí)質(zhì)性內(nèi)容可能構(gòu)成抄襲剽竊他人作品。然而,新作品對(duì)原作品構(gòu)成“轉(zhuǎn)換性使用”時(shí),即使大量引用或全部引用,仍可能構(gòu)成合理使用。在“完美十訴亞馬遜”案中,第九巡回上訴法院認(rèn)為,Google公司未經(jīng)雜志出版商Perfect 10授權(quán)使用縮略圖的行為構(gòu)成合理使用,因?yàn)樗鼈兙哂?ldquo;高度轉(zhuǎn)換性”(highly transformative)。“在高度‘轉(zhuǎn)換性使用’形成的新作品中,原作品對(duì)于新作品在價(jià)值和功能上的貢獻(xiàn)并不大,要求新作品作者獲得許可和支付報(bào)酬并不合理。”鑒于此,《著作權(quán)法》第24條第1款第2項(xiàng)中的“適當(dāng)引用”通常是少量的、非實(shí)質(zhì)性的,也可以是“轉(zhuǎn)換性使用”等特殊情形下的大量或全部引用。服務(wù)使用者利用生成式人工智能生成的作品“適當(dāng)引用他人已經(jīng)發(fā)表的作品”,以“介紹、評(píng)論某一作品或者說(shuō)明某一問(wèn)題”,構(gòu)成合理使用,可以阻卻違法。
綜上而言,依據(jù)《著作權(quán)法》第24條第1項(xiàng)和第2項(xiàng)的規(guī)定,生成式人工智能服務(wù)使用者使用著作權(quán)人的作品構(gòu)成合理使用,生成式人工智能服務(wù)提供者作為安保義務(wù)人不構(gòu)成侵權(quán)。理由在于,《民法典》第1198條第2款規(guī)定,在第三人介入型間接侵權(quán)中,直接侵權(quán)人應(yīng)當(dāng)承擔(dān)全部賠償責(zé)任。直接侵權(quán)人難以確定或無(wú)賠償能力的,安保義務(wù)人才承擔(dān)與其過(guò)錯(cuò)程度和原因力大小相當(dāng)?shù)呢?zé)任。生成式人工智能服務(wù)使用者鑒于合理使用不構(gòu)成侵權(quán)的,服務(wù)提供者相應(yīng)的補(bǔ)充責(zé)任的承擔(dān)也就失去了法律依據(jù),故前者的合理使用構(gòu)成后者間接侵權(quán)的阻卻違法事由。
(三)生成式人工智能服務(wù)提供者履行審核義務(wù)時(shí)的個(gè)人信息合理使用規(guī)則
生成式人工智能服務(wù)提供者在訓(xùn)練模型、優(yōu)化模型參數(shù)、微調(diào)模型等階段,可能侵犯?jìng)€(gè)人信息權(quán)益,其應(yīng)定位為直接侵權(quán)人,不涉及安保義務(wù),不屬于本節(jié)探討的范圍。本節(jié)著眼于生成式人工智能服務(wù)提供者違反審核等安保義務(wù),致使服務(wù)使用者輸入內(nèi)容、生成內(nèi)容侵害個(gè)人信息權(quán)益造成信息主體損害,應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任,但構(gòu)成合理使用適用豁免規(guī)則的情形?!秱€(gè)人信息保護(hù)法》第13條第1款第1項(xiàng)、第2項(xiàng)“脫胎”于《民法典》第1036條第1項(xiàng),屬于信息主體同意而非合理使用范疇。該款第2項(xiàng)后半句規(guī)定,“按照依法制定的勞動(dòng)規(guī)章制度……實(shí)施人力資源管理所必需”的,構(gòu)成合理使用。但該種合理使用情勢(shì)與生成式人工智能服務(wù)提供者關(guān)系不大,故本文不予展開(kāi)論述?!秱€(gè)人信息保護(hù)法》第13條第1款第4項(xiàng)至第5項(xiàng)承繼于《民法典》第1036條第3項(xiàng)中的“為維護(hù)公共利益或者該自然人合法權(quán)益”,這與生成式人工智能服務(wù)提供者提供服務(wù)的營(yíng)利性目的不一致,不宜納入合理使用范圍?!秱€(gè)人信息保護(hù)法》第13條第1款第6項(xiàng)遵循的是《民法典》第1036條第2項(xiàng)“公開(kāi)即可用”的立法意旨,這對(duì)生成式人工智能服務(wù)提供者依然適用。但由于理論界與實(shí)務(wù)界已就此達(dá)成共識(shí),本文不再探討此種合理使用規(guī)則。值得注意的是,《個(gè)人信息保護(hù)法》第13條第1款在《民法典》第1036條的基礎(chǔ)上設(shè)立了“法律、行政法規(guī)規(guī)定的其他情形”(第7項(xiàng))及“為履行法定職責(zé)或者法定義務(wù)所必需”(第3項(xiàng))之情勢(shì),更具科學(xué)性。然而,檢視現(xiàn)有立法,沒(méi)有其他特別法對(duì)此進(jìn)行專門規(guī)定,故第7項(xiàng)亦非本文論證的重點(diǎn)。因此,探討生成式人工智能服務(wù)提供者履行審核義務(wù)時(shí)的個(gè)人信息合理使用規(guī)則應(yīng)以《個(gè)人信息保護(hù)法》第13條第1款第3項(xiàng)“為履行法定職責(zé)或者法定義務(wù)所必需”為中心展開(kāi)。“履行‘法定職責(zé)’的主體,一般應(yīng)限定為具有處理個(gè)人信息權(quán)限的國(guó)家公權(quán)力機(jī)關(guān)”,這顯然與生成式人工智能服務(wù)提供者無(wú)關(guān)。履行“法定義務(wù)”的主體主要為自然人、法人和非法人組織,涵攝生成式人工智能服務(wù)提供者,故本節(jié)主要在“法定義務(wù)”層面討論個(gè)人信息合理使用規(guī)則對(duì)服務(wù)提供者間接侵權(quán)責(zé)任的限制問(wèn)題。
一是生成式人工智能服務(wù)提供者對(duì)服務(wù)使用者輸入的相關(guān)內(nèi)容履行審核等安保義務(wù)。服務(wù)使用者輸入內(nèi)容包含個(gè)人信息,此類個(gè)人信息大致可分為兩類:一是違法個(gè)人信息。例如侵權(quán)視頻、侵權(quán)圖片、謠言文本等,可能涉及個(gè)人信息。生成式人工智能服務(wù)提供者根據(jù)《深度合成管理規(guī)定》第10條規(guī)定履行審核等安保義務(wù),處理大量違法個(gè)人信息是“為履行……法定義務(wù)所必需”,符合《個(gè)人信息保護(hù)法》第13條第1款第3項(xiàng)的規(guī)定,構(gòu)成合理使用個(gè)人信息而免責(zé)。這與韓國(guó)《個(gè)人信息保護(hù)法》(Personal Information Protection Act,PIPA)第15條第1款第2項(xiàng)中“為了遵守法律上的義務(wù)而不可避免的情形”及歐盟《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)第6條第1款(c)項(xiàng)中“控制者履行法律義務(wù)之必要”情形如出一轍。二是合法個(gè)人信息。合法個(gè)人信息是指用戶輸入的個(gè)人信息本身不具有違法性,如信息主體自行公開(kāi)個(gè)人信息的情況下,“個(gè)人對(duì)于信息的控制并不能排斥企業(yè)的合理使用”。從立法目的看,《深度合成管理規(guī)定》第10條是為了防止“違法信息和不良信息”的傳播。即使用戶輸入的是合法個(gè)人信息,服務(wù)提供者也只有在審核之后才能判定輸入內(nèi)容是否合法。這也屬于“為履行……法定義務(wù)所必需”而處理個(gè)人信息,構(gòu)成合理使用。
二是生成式人工智能服務(wù)提供者應(yīng)對(duì)輸出結(jié)果履行審核等安保義務(wù)。生成式人工智能服務(wù)提供者審核輸出結(jié)果是基于《深度合成管理規(guī)定》第10條的規(guī)定,履行審核等安保義務(wù),符合《個(gè)人信息保護(hù)法》第13條第1款第3項(xiàng),同樣構(gòu)成合理使用個(gè)人信息?!秱€(gè)人信息保護(hù)法》第13條第1款第3項(xiàng)中“為履行……法定義務(wù)所必需”的規(guī)定主要是基于“為維護(hù)公共利益”的考量,這與《個(gè)人信息保護(hù)法》第13條第1款第4項(xiàng)和第5項(xiàng)的立法目的是一致的。因?yàn)榱x務(wù)主體履行法定義務(wù)雖存在保護(hù)某一或某些私主體利益的情形,但最終是為了維護(hù)社會(huì)公共秩序,如交易安全等。歐盟《數(shù)據(jù)法案》(Data Act)第75條規(guī)定,“當(dāng)重大公共利益的保障受到威脅時(shí),如應(yīng)對(duì)公共突發(fā)事件……不應(yīng)因所獲得的數(shù)據(jù)而對(duì)企業(yè)進(jìn)行補(bǔ)償。”因此,“為維護(hù)公共利益”,生成式人工智能服務(wù)提供者對(duì)輸出結(jié)果進(jìn)行審核不僅構(gòu)成對(duì)個(gè)人信息的合理使用,而且應(yīng)視為已履行審核義務(wù),不作侵權(quán)論處。
結(jié)語(yǔ)
以ChatGPT為代表的生成式人工智能服務(wù)提供者基于對(duì)生成內(nèi)容的控制力和影響力,兼具內(nèi)容生產(chǎn)者與平臺(tái)管理者的雙重身份。應(yīng)在結(jié)合《深度合成管理規(guī)定》《人工智能暫行辦法》兩部規(guī)章的基礎(chǔ)上,適用《民法典》第1195條至第1198條,在安保義務(wù)制度體系內(nèi)解決間接侵權(quán)責(zé)任的認(rèn)定與承擔(dān)問(wèn)題。服務(wù)使用者使用生成式人工智能造成他人損害的,且服務(wù)提供者違反審核等安保義務(wù)的,應(yīng)當(dāng)承擔(dān)相應(yīng)的補(bǔ)充責(zé)任。服務(wù)提供者“知道或應(yīng)當(dāng)知道”服務(wù)使用者利用生成式人工智能侵害他人合法權(quán)益的,應(yīng)當(dāng)就損害擴(kuò)大部分與服務(wù)使用者承擔(dān)連帶責(zé)任。但在“應(yīng)當(dāng)知道”情勢(shì)下,內(nèi)部責(zé)任分擔(dān)應(yīng)適當(dāng)減少生成式人工智能服務(wù)提供者的責(zé)任份額,適當(dāng)增加服務(wù)使用者的責(zé)任份額,即實(shí)施懲罰性賠償。除故意的主觀狀態(tài)外,生成式人工智能服務(wù)提供者屬于一般過(guò)失的加重情節(jié)的,可以實(shí)施懲罰性賠償。同時(shí),鑒于平衡生成式人工智能服務(wù)提供者與服務(wù)使用者利益及生成式人工智能技術(shù)發(fā)展與著作權(quán)、人格權(quán)等保護(hù),可以經(jīng)由“避風(fēng)港規(guī)則”、著作權(quán)的合理使用規(guī)則和個(gè)人信息的合理使用規(guī)則對(duì)服務(wù)提供者的間接侵權(quán)責(zé)任進(jìn)行適當(dāng)限制。但是,《深度合成管理規(guī)定》《人工智能暫行辦法》等規(guī)章為生成式人工智能服務(wù)提供者等法律主體設(shè)置的審核等安保義務(wù),是公法義務(wù)、私法義務(wù)抑或兩者兼具,有待進(jìn)一步研究。隨著歐盟《數(shù)據(jù)法案》的出臺(tái),我國(guó)是否應(yīng)當(dāng)針對(duì)生成式人工智能等人工智能規(guī)制出臺(tái)專門立法,并實(shí)現(xiàn)與現(xiàn)有法律法規(guī)、規(guī)章的有效銜接與良性互動(dòng),有待觀察。
(附注省略,有需要者請(qǐng)參閱《法學(xué)家》2024年第3期 原刊)
