最近,ChatGPT備受關(guān)注。ChatGPT的出現(xiàn)加速了關(guān)于科技、法律、倫理的大討論,其中,以ChatGPT為代表的“AI創(chuàng)作”引發(fā)的著作權(quán)侵權(quán)風險需要引起關(guān)注與警惕。
“AI創(chuàng)作”的流程可以概括為“搜集數(shù)據(jù)信息——整合成大型語言數(shù)據(jù)庫——接收命令并進行算法運算——輸出結(jié)果——用戶使用”。從AI機器生成結(jié)果到用戶對生成結(jié)果的后續(xù)使用都暗藏著著作權(quán)侵權(quán)風險,需要審慎對待。
在AI機器攫取數(shù)據(jù)信息原料用于訓練學習的過程中存在著作權(quán)侵權(quán)爭議。喂養(yǎng)AI的數(shù)據(jù)原料主要源于其他機構(gòu)的數(shù)據(jù)提供或者網(wǎng)絡爬蟲的自動收集。前者經(jīng)由雙方就數(shù)據(jù)取用事項訂立合同得以避免糾紛;后者獲得的數(shù)據(jù)如果超越了公開的事實信息而包含他人的作品,則表現(xiàn)為未經(jīng)著作權(quán)人許可,且未向著作權(quán)人付費的無償使用行為,容易引發(fā)爭議。
在AI生成物輸出之前,只是將作品用于數(shù)據(jù)喂養(yǎng)、機器學習來完善算法,似乎符合著作權(quán)法中合理使用的情形。但與此同時,AI作為一種商業(yè)產(chǎn)品,其商業(yè)獲利離不開對著作權(quán)人作品的使用,其研發(fā)者與著作權(quán)人關(guān)于作品的經(jīng)濟收益分配又明顯失衡。美國蓋蒂圖片社(Getty Images)就曾對人工智能公司StabilityAI提起訴訟,稱其人工智能藝術(shù)工具將受版權(quán)保護的圖像作品用于訓練數(shù)據(jù)。這起案件的結(jié)果取決于美國對于公平使用原則的解釋,獲得業(yè)界的廣泛關(guān)注。
我國AI的創(chuàng)造者通常非個人,加之AI數(shù)據(jù)爬取范圍較廣、數(shù)量巨大,司法裁判中將廣泛爬取作品用于喂養(yǎng)AI的行為認定為合理使用難度較大,即便爬取方支付了一定費用,關(guān)于付費內(nèi)容是否包括數(shù)據(jù)挖掘的意見也難以統(tǒng)一。
在“AI創(chuàng)作”輸出結(jié)果的階段可能出現(xiàn)著作權(quán)侵權(quán)行為。AI爬取著作權(quán)人作品后直接或經(jīng)過組合、重整等加工活動通過互聯(lián)網(wǎng)提供給用戶的行為,與我國著作權(quán)法第十條第十二項信息網(wǎng)絡傳播權(quán)的行為方式相符,即“以有線或者無線方式向公眾提供,使公眾可以在其選定的時間和地點獲得作品”。“AI創(chuàng)作”的行為實質(zhì)與搜索引擎提供服務的過程存在共性,即二者都通過強大的信息搜索技術(shù)將與關(guān)鍵詞有關(guān)的信息提供給用戶。只是二者呈現(xiàn)方式有別,搜索引擎原樣展示并標識來源;“AI創(chuàng)作”則提供選擇、加工后的內(nèi)容。
回顧搜索引擎服務商的著作權(quán)侵權(quán)規(guī)則可知,對于搜索引擎服務商而言,除非系初次信息源的傳播,否則不構(gòu)成直接侵權(quán)行為,僅當其明知或應知鏈接的第三方平臺在從事侵犯著作權(quán)的直接侵權(quán)行為之時才承擔間接侵權(quán)責任。
與搜索引擎相比,不同于對所有搜索結(jié)果的窮盡羅列,“AI創(chuàng)作”對搜索結(jié)果進行了排序、選擇與加工后方才呈現(xiàn)給用戶,體現(xiàn)出較弱的中立性。在是否向用戶提供他人作品以及提供的方式、范圍等方面,“AI創(chuàng)作”具有更大的操控空間,因此應當承擔較搜索引擎服務商更高的注意義務,對于即將向用戶呈現(xiàn)的內(nèi)容開展一定程度的主動排查與過濾工作,積極采取預防侵權(quán)的合理措施,否則可能因此承擔不作為的法律責任。
用戶在利用AI生成內(nèi)容的階段也伴有著作權(quán)侵權(quán)風險。對于用戶而言,如果AI生成內(nèi)容中包含著作權(quán)人的作品,那么用戶的閱讀、學習行為屬于對作品的合理使用,無可指摘,但用戶對于AI生成內(nèi)容的使用往往不止于此。目前“AI創(chuàng)作”最直接的應用場景是新聞、報告等文書材料的生成。
“AI創(chuàng)作”的作品屬性及其權(quán)屬依各國法律規(guī)定的不同而有所區(qū)別。從目前AI的發(fā)展水平來看,AI生成物與人類表達相比足以以假亂真,在形式上可能達到著作權(quán)法中作品的獨創(chuàng)性標準,在承認人工智能主體地位的國家,人工智能或能享有作者權(quán)利,同時對作品負責。
在我國,AI并不具有法律上的主體地位,故僅被視為工具,無需為其生成物的侵權(quán)結(jié)果承擔責任,AI的用戶協(xié)議也傾向于將AI生成內(nèi)容的著作權(quán)轉(zhuǎn)移給用戶。因此AI生成內(nèi)容的使用者應當對其使用行為負責。
雖然將AI生成物作為作品保護與我國著作權(quán)法“鼓勵公民的發(fā)明創(chuàng)作”的主旨相違背,但將AI生成內(nèi)容作為用戶的獨創(chuàng)性作品發(fā)表、傳播,如果內(nèi)容組成中涵蓋他人作品,則該用戶可能構(gòu)成剽竊,需承擔著作權(quán)法第五十二條規(guī)定的法律責任?,F(xiàn)實來看,目前已有不少核心期刊發(fā)表聲明稱隱瞞對人工智能生成內(nèi)容的使用會產(chǎn)生退稿風險,對AI生成內(nèi)容的直接使用已遭到學術(shù)領域的抵制。
技術(shù)的發(fā)展必然會伴隨對法律的沖擊與挑戰(zhàn),然而,對AI創(chuàng)作等科技的發(fā)展不可因噎廢食,而應利用技術(shù)與制度工具,消解AI等新型工具利用過程中的隱患,為新技術(shù)的發(fā)展保駕護航。
針對“AI創(chuàng)作”中出現(xiàn)的著作權(quán)侵權(quán)風險,在技術(shù)方面,對于“真假難辨”的AI生成物,可以引入數(shù)字版權(quán)管理技術(shù)、內(nèi)容識別、版權(quán)監(jiān)視等科技手段,加強對作品不當使用的檢測與識別,規(guī)范對AI生成物的使用;在制度方面,應當結(jié)合科技發(fā)展的趨勢與消費者的需求,因勢利導對著作權(quán)法進行調(diào)整,完善規(guī)則,實現(xiàn)技術(shù)研發(fā)者、著作權(quán)人、用戶與社會公眾之間的利益平衡,助推科技朝著增進人類福祉的方向發(fā)展進步。
