自O(shè)penAI推出生成式大語言模型ChatGPT以來,國內(nèi)外生成式人工智能層出不窮。其中最引人關(guān)注的問題之一,莫過于人工智能生成內(nèi)容(AIGC)是否具有版權(quán)?
“著作權(quán)保護對象是作品。”6月16日,在湖北武漢召開的第二屆版權(quán)產(chǎn)業(yè)創(chuàng)新與知識產(chǎn)權(quán)保護東湖論壇上,中國知識產(chǎn)權(quán)法學研究會副會長、中南財經(jīng)政法大學教授曹新明表示,某些人工智能生成物并非《中華人民共和國著作權(quán)法》(以下簡稱著作權(quán)法)意義上的作品。
曹新明解釋道,著作權(quán)法意義上的作品應滿足以下四個條件:由人類創(chuàng)作,具有獨創(chuàng)性,是蘊含一定思想內(nèi)容的表達形式,且不屬于法律法規(guī)、通用數(shù)表、公式等著作權(quán)法排除對象。目前AIGC有三種形式,分別是完全由人工智能獨立創(chuàng)作、由自然人輔助創(chuàng)作、按照自然人輸入的提示詞生成。
曹新明說,上述三種形式中,只有一種是人類直接參與的,這種情況下AIGC才可能具有版權(quán)?!霸谑O聝煞N形式下,將AIGC界定為‘作品’是有問題的。”這是因為人工智能并沒有獨立的思想,并不能獨立地進行“創(chuàng)作”,更遑論具有版權(quán)。
南開大學法學院副院長、競爭法研究中心主任陳兵表示,從目前各國的立法狀況來看,日本、澳大利亞、英國、美國等國家均未賦予人工智能民事主體資格,因此也談不上AIGC“具有版權(quán)”。
雖然法律對AIGC版權(quán)問題的界定尚不明確,但仍應警惕生成式人工智能使用過程中的侵權(quán)風險,中國在此方面已有相關(guān)案例。陳兵說,在這些案例中,法院通過對AIGC的生成過程進行判斷,明確對生成物是否賦予利益。這需要具體問題具體分析,但有一點可以明確:人類對AIGC的簡單形式選擇并不足以構(gòu)成著作權(quán)法上的獨創(chuàng)性。
生成式人工智能涉及從數(shù)據(jù)抓取到內(nèi)容生成的全過程。這個過程中,作為生成式人工智能最終產(chǎn)品的AIGC在版權(quán)歸屬上界定模糊,其訓練過程中抓取的數(shù)據(jù)也會有侵權(quán)的風險。
“現(xiàn)在人工智能里面有幾千億的元素、數(shù)據(jù),其中很多都是受版權(quán)保護的資料。這部分資料版權(quán)所有者的權(quán)利該怎么保護,目前尚不明確?!辈苄旅髡f。
陳兵認為,目前國家知識產(chǎn)權(quán)局和深圳、上海等地已經(jīng)開始著手研究數(shù)據(jù)的確權(quán)工作,但具體如何確權(quán)還需實踐給出答案?!鞍鏅?quán)的設(shè)立是為了鼓勵更多創(chuàng)新?!彼硎?,若不對數(shù)據(jù)和AIGC進行確權(quán),會導致生成式人工智能開發(fā)商喂養(yǎng)成本過高,從而抑制創(chuàng)新。但另一方面,由于大模型具有顯著的聚集效應和馬太效應,人工智能開發(fā)商在訓練人工智能時又極易產(chǎn)生數(shù)據(jù)壟斷風險。
針對上述問題,陳兵認為,要理性對待AIGC創(chuàng)新,探索AIGC應用邊界,優(yōu)化對數(shù)據(jù)爬取的制度設(shè)計,分類分級探索場景化和精細化的算法治理機制,夯實算法開發(fā)者、應用者相應法律責任。“對于數(shù)據(jù)壟斷風險,要發(fā)揮政府對市場的敏捷監(jiān)管、精準監(jiān)管作用,推動企業(yè)‘開源’發(fā)展,并確立多元監(jiān)管機制?!标惐瑫r表示。
此外,曹新明提醒,生成式人工智能可能不止會侵犯版權(quán)。例如,未經(jīng)他人允許使用人工智能模仿其聲音、動作、姿勢、手勢,甚至使用人工智能“盜臉”,就侵犯了公民人格權(quán)。
“針對這些問題,可選擇安裝‘護欄技術(shù)’對人工智能予以約束,同時應避免大模型受到某些用戶攻擊?!辈苄旅鞅硎?。