原創(chuàng) 姚立 上海市法學會 東方法學
以ChatGPT為代表的生成式人工智能的誕生,標志著人工智能技術(shù)的重大技術(shù)躍遷,引發(fā)法律服務領(lǐng)域的革新實踐。生成式人工智能在提升律師生產(chǎn)力的同時,其固有的人工智能幻覺、擬人化等特征易導致法律文書中錯誤信息和虛假信息的泛濫,引發(fā)律師執(zhí)業(yè)危機?!榜R塔訴阿維安卡公司”案(Mata v. Avianca,Inc.)中原告律師因向法院提交ChatGPT生成的虛假案例受到制裁,法院鮮明地指出應用先進技術(shù)并無不當之處,但律師應始終恪守職業(yè)責任。正確了解新工具的各項特點是律師合理使用的應然前提,生成式人工智能產(chǎn)品與傳統(tǒng)搜索引擎具有本質(zhì)差異,大語言模型決定了生成式人工智能輸出錯誤內(nèi)容的不可避免性,擬人性是生成式人工智能的主要風險,創(chuàng)造性是生成式人工智能的本質(zhì)特征。為此,需要明確以人為本的人機關(guān)系的關(guān)鍵作用,并且重視律師倫理道德和職業(yè)責任在技術(shù)變革時期發(fā)揮的保障作用,同時律師可以建立一套標準化流程,兼顧提升生產(chǎn)力以及減少技術(shù)風險的目標。
一、生成式人工智能應用于法律文書寫作的前景與風險
生成式人工智能(Generative Artificial Intelligence,GAI)是一種人工智能形式,擅長模仿、學習和生成新內(nèi)容,其關(guān)鍵特征包括自我學習能力、創(chuàng)造性以及處理復雜數(shù)據(jù)集的熟練技巧。它既不同于傳統(tǒng)專注于數(shù)據(jù)分析和模式識別的分析型人工智能(Analytical Artificial Intelligence,AAI),也不同于將來可能出現(xiàn)的具備學習和執(zhí)行智力任務能力的通用人工智能(Artificial General Intelligence,AGI),GAI介于兩者之間,其因創(chuàng)造原創(chuàng)內(nèi)容和創(chuàng)造性解決問題的能力而脫穎而出,但又因缺乏自主性和適應性無法實現(xiàn)通用功能。自2022年11月30日美國OpenAi公司發(fā)布生成式人工智能ChatGPT模型以來,GAI已在內(nèi)容生產(chǎn)的各個領(lǐng)域引發(fā)生產(chǎn)力和生產(chǎn)方式的變革,重塑了人類與技術(shù)的交互模式。在法律領(lǐng)域,GAI正在通過協(xié)助法律研究和分析、文件自動化處理、訴訟等方式革新實踐,重塑法律服務提供方式,并可能改變法律職業(yè)的結(jié)構(gòu)和文化。
法律文書是法律實踐的基石。它不僅是法律實踐的獨立領(lǐng)域,也是法律咨詢、法庭訴訟、合同談判、盡職調(diào)查等其他所有法律活動進行的基礎(chǔ)和前提。法律文書反映了參與方立場、記錄法律程序、提供正式信息、明確權(quán)利義務,并構(gòu)成法律辯論和程序的支柱。這些文書不僅是交流的媒介,更是構(gòu)成了運行中的法律自身。法律文書寫作通常包括識別需求、信息收集、結(jié)構(gòu)設(shè)計、初稿撰寫和審閱修改,要求遵守準確性、邏輯性、正式性和清晰性的專業(yè)標準,以確保法律信息的有效傳達。這些嚴格的要求以及法律和案件本身的復雜性使文書寫作過程充滿挑戰(zhàn),訴訟律師經(jīng)常將起草動議和摘要列為他們最耗時的任務之一。通過自然語言處理、機器學習等技術(shù),GAI可以幫助律師進行法律研究、自動生成合同、法律意見書等各類文書。GAI可以極大提高律師的生產(chǎn)力,釋放更多時間和精力,使其可以專注于更高層次的法律分析和決策,并可為更廣泛的客戶提供更多服務。
然而,將GAI應用于法律文書寫作蘊藏著重大風險。人工智能幻覺(AI Hallucinations),是指人工智能能輸出看似合理且連貫的信息,但這些信息與已知數(shù)據(jù)或現(xiàn)實不完全符合的現(xiàn)象。最常見的是“與事實知識沖突的幻覺”,ChatGPT不僅會輸出不存在的“事實”,還會言之鑿鑿地為這些“事實”提供虛假的依據(jù)。錯誤的信息往往潛藏在若干正確的回答之后,這些自信但不合理和未經(jīng)驗證的回答就會對使用者造成誤導和欺騙。特別是對于法律文書這一對事實、法律以及邏輯要求嚴格的文體,人工智能幻覺所帶來的風險是致命的。法律文書上不僅承載著信息,這些信息還具有規(guī)范性的效果,這些效果牽涉相關(guān)方權(quán)利、義務、責任和豁免的確認與變動,導致現(xiàn)實世界中利益的變化。一旦GAI生成的錯誤信息被納入法律文書中,輕則出現(xiàn)諸如詞匯、標點、段落層面的“低級失誤”,有損律師的專業(yè)形象,中則出現(xiàn)術(shù)語、規(guī)則、法律的適用錯誤引發(fā)不必要的爭議,重則影響客戶合法訴求的實現(xiàn),有關(guān)證據(jù)的虛假信息還將導致職業(yè)責任、刑事責任的指控以及制裁。
ChatGPT發(fā)布后的一年時間,就發(fā)生了數(shù)起將GAI生成的錯誤內(nèi)容納入法律文書的案例。2023年2月,美國紐約南區(qū)聯(lián)邦地區(qū)法院的“馬塔訴阿維安卡公司案”(Mata v. Avianca,Inc.)中,兩名律師及其律所因提交了ChatGPT虛構(gòu)的司法意見而受到法院制裁。2023年5月,美國科羅拉多州一名律師的動議因為引用了ChatGPT生成的虛假案件而被駁回。英國《律師協(xié)會公報》(The Law Society Gazette)也在2023年5月報道了一起發(fā)生在曼徹斯特法院的案例,法院在審理過程中發(fā)現(xiàn)民事訴訟當事人援引了四個虛假案件支持其主張——這些案件均由ChatGPT提供。
本文將以“馬塔訴阿維安卡公司案”作為研究對象,結(jié)合美國實踐發(fā)展與法律界的評論,研究GAI在法律文書寫作過程中的主要風險、應用誤區(qū)、GAI技術(shù)下人機關(guān)系的應然模式,探究職業(yè)倫理責任在GAI變革中發(fā)揮的作用,并提出建立標準化GAI使用流程的建議。
二、“馬塔訴阿維安卡公司案”概覽
(一)
案件背景
馬塔訴阿維安卡公司案(Mata v. Avianca,Inc.)可能是首例在司法文書中涉及律師使用GAI撰寫法律文書的不當行為的案件。律師史蒂文·施瓦茨(Steven Schwartz)于1992年起獲準在紐約州執(zhí)業(yè),其主要執(zhí)業(yè)領(lǐng)域是人身傷害和工人賠償法,執(zhí)業(yè)范圍僅限于州法院,未取得聯(lián)邦法院的執(zhí)業(yè)資格。原告羅伯特·馬塔(Roberto Mata)于2019年8月27日搭乘哥倫比亞航空公司(Avianca Airlines)670號航班從薩爾瓦多飛往紐約。在飛行途中被金屬餐車撞傷,膝蓋嚴重受損,被告阿維安卡公司(Avianca,Inc.)是該航班的實際承運人,和哥倫比亞航公司同屬一家控股母公司。
原告馬塔聘請史蒂文·施瓦茨律師于2020年7月20日在紐約州最高法院向被告提起初次訴訟。被告母公司阿維安卡控股公司面臨嚴重財務困境,已作為債務人在2020年5月10日根據(jù)美國破產(chǎn)法第11章向紐約南區(qū)地方法院申請破產(chǎn),包括被告阿維安卡公司在內(nèi)的23家附屬債務人同時申請破產(chǎn),原告對被告的人身傷害損害賠償訴訟因自動停止(Automatic Stay)規(guī)則而暫停。
被告退出破產(chǎn)程序后,同原告于2022年1月31日共同簽署協(xié)議終止原告提起的初次訴訟。2022年2月2日,原告在同一地方法院向被告提起第二次訴訟,向被告主張基于1999年蒙特利爾公約的人身損害賠償。由于被告成功主張聯(lián)邦法院對案件的管轄權(quán),該起訴訟在2月23日由紐約州最高法院移送至紐約南區(qū)聯(lián)邦地區(qū)法院,由法官凱文·卡斯特爾(Judge Kevin Castel)負責審理。由于史蒂文·施瓦茨律師未取得紐約南區(qū)職業(yè)資格,原告代理律師變更為其同事彼得·洛杜卡(Peter LoDuca)。
本案的核心爭議點在于訴訟時效規(guī)則的適用及計算。蒙特利爾公約第35條對訴訟時限(Limitation of Actions)的規(guī)定是航空器到達目的地點之日、應當?shù)竭_目的地點之日或者運輸終止之日起2年期間,該條向來是蒙特利爾公約頗具爭議的條款之一,有關(guān)訴訟時限的法律性質(zhì)、2年期間是否可變以及訴訟時限對第三方訴訟的影響等等均存在解釋分歧。與此相對,法院地紐約州民事執(zhí)行法與規(guī)則(New York Civil Practice Law and Rules)第214(5)條則規(guī)定人身傷害賠償訴訟的訴訟時效(Statute of Limitations)為事故發(fā)生之日起3年。
被告在2023年1月13日提出的駁回動議中主張:第一,該起索賠訴訟僅受蒙特利爾公約管轄。第二,蒙特利爾公約第35條規(guī)定的2年訴訟時限并非訴訟時效,而是權(quán)利人可以根據(jù)蒙特利爾公約啟動訴訟的先決條件(Condition Precedent)。因此,鑒于本案原告自其抵達之日起2年又5個月后提起本次訴訟,該訴訟不能被受理。第三,航空公司陷入破產(chǎn)程序的事實并不會暫停(Toll)蒙特利爾公約第35條2年期間的計算。
(二)
律師使用GAI的決策過程
彼得·洛杜卡律師作為律師出庭,并負責文書的簽署和提交,而史蒂文·施瓦茨律師由于提出最初訴狀,將繼續(xù)承擔案件的實質(zhì)性法律工作。
施瓦茨律師是一位擁有30年執(zhí)業(yè)經(jīng)驗的紐約律師,熟稔于處理紐約州法下的爭議,但對本案涉及的聯(lián)邦法律、蒙特利爾公約和破產(chǎn)暫停規(guī)則均不太熟悉,也無法通過律所電腦訪問聯(lián)邦判例數(shù)據(jù)庫。因此他將目光轉(zhuǎn)向了新興發(fā)布的ChatGPT,認為這是“一個超級搜索引擎”。
施瓦茨律師將所需檢索內(nèi)容輸入對話框,ChatGPT便生成了符合目的的案例引文。雖然他本人無法檢索到ChatGPT中的部分案件,但他相信了ChatGPT內(nèi)容的可靠性,自認為這些案件只是尚未公布或是不在其可訪問的數(shù)據(jù)庫中。實際上ChatGPT也無法檢索到合適的案件,它只是通過自我學習、創(chuàng)造性以及處理復雜數(shù)據(jù)集的能力模仿既有的真實案件標題、法院名稱、案件編號以及法官和律師姓名創(chuàng)造出頗具迷惑性的虛假案件。也就是說,在施瓦茨律師尚未察覺中,人工智能幻覺的現(xiàn)象發(fā)生了。
這些虛構(gòu)的案件很好滿足了施瓦茨律師法律論證所需,在后續(xù)提交的書面證詞中可以見到,施瓦茨律師并非完全沒有懷疑ChatGPT內(nèi)容的真實性,但當他向其提出質(zhì)疑時,ChatGPT卻“自信地”確認了案件的真實性,輔之以案件的案情摘要作為佐證,并進一步聲稱這些案件可以在Westlaw和LexisNexis等專業(yè)法律數(shù)據(jù)庫中找到。由于施瓦茨律師無法訪問上述數(shù)據(jù)庫,驗證就此作罷。實際上,一旦施瓦茨律師進入數(shù)據(jù)庫檢索,就會發(fā)現(xiàn)這些案件根本不存在。
在ChatGPT的幫助下,施瓦茨律師依靠其提供的信息完成了對駁回動議的回應。經(jīng)過一次延期,在2023年3月1日,洛杜卡律師向法院提交了施瓦茨律師起草的法律文書。
(三)
GAI幻覺的內(nèi)容
被告律師很快發(fā)現(xiàn)了這份法律文書的端倪。有5個案例無法檢索,還有幾個案例帶有虛假的法官意見或錯誤的信息。被告向法官提交的回復意見簡況如表1所示。
表1 被告向法官提交的回復意見簡況
可以看到,為了有效回應被告的駁回動議,原告律師的論證思路主要是將訴訟時效的適用規(guī)則拉回到其熟悉的紐約州法領(lǐng)域,并以破產(chǎn)法的暫停效力作為補充。遺憾的是,面對難以實現(xiàn)的意圖,ChatGPT只得以編造的案件予以回應。
法院根據(jù)被告的回復作出命令,要求原告律師提交一份宣誓書,附上其引用的案件副本。對此,施瓦茨律師選擇再一次回到ChatGPT,經(jīng)過一次延期,洛杜卡律師于4月25日提交了施瓦茨律師準備的宣誓書,并附上了ChatGPT提供的案件摘要。宣誓書聲明除了無法找到Zicherman案以外,將提供其他所有案件的副本或摘錄的內(nèi)容。在施瓦茨律師提供的附件中僅有案件的摘錄,并沒有提供任何一篇案件全文,該宣誓書對案件材料的來源是含糊的,沒有指明任何在線數(shù)據(jù)庫的名稱,也沒有承認對ChatGPT的依賴。
(四)
司法處罰及其影響
法院仍然無法找到這些案件,進一步的調(diào)查發(fā)現(xiàn),雖然原告律師提供的這些案件摘錄在表面上具有與真實司法判決一致的特征——如引用看似合理的聯(lián)邦法官小組、可信的案卷序號以及判例——但其文體和推理上的缺陷與常見法院摘要存在顯著差異。這清晰地表明了這些案件不可能由美國法院發(fā)布。這也就意味著原告律師將處于一個非常尷尬的境地。
“法院面臨著前所未有的情況”,主審法官凱文·卡斯特爾在5月4日發(fā)布的命令中認為,“原告律師針對駁回動議提出的反對意見充滿了對不存在案例內(nèi)容的引用……原告律師應法院先前命令提交的案例副本中似乎有6起是偽造的司法判決?!狈ㄔ簩⒏鶕?jù)美國聯(lián)邦民事訴訟規(guī)則第11(b)(2)條和第11(c)條;美國法典第28卷第1927條以及法院的固有權(quán)力(the inherent power of the court)對原告律師實施制裁。在同一份命令中原告律師被要求參加6月8日舉行的制裁聽證會,為自己的行為進行辯解。直到此時,施瓦茨律師似乎才意識到ChatGPT提供的案例可能有誤,在5月25日提交給法院的另一份宣誓書中,施瓦茨承認他犯了錯誤,表示他“不明白[ChatGPT]不是一個搜索引擎,而是一個生成語言處理工具,主要被設(shè)計用來生成類似人類的文本回復……我基本沒有懷疑這些回復的真實性?!?/p>
法官卡斯特爾在隨后的制裁意見中聲明了他對人工智能技術(shù)進步的肯定性看法,“使用可靠的人工智能工具并沒有本質(zhì)上的不當之處”,緊接著指出律師一直以來肩負著確保提交文件準確性的責任,施瓦茨律師及其同事在提交這些不存在的案例時就違背了自己的責任。法院指出,如果施瓦茨律師在被告律師和法院最初提出質(zhì)疑后就陳明事實,而不是繼續(xù)堅持這些虛假案例的存在,那么情節(jié)就會大不相同。法院認為,施瓦茨律師的行為超出了“客觀上不合理”的范圍,當他“有意地去忽視”他引用案例中大量存在的不正常跡象時,他的行為就變得不誠實。
最終,法官卡斯特爾對兩名律師及其律所實施制裁。法院裁定原告律師的行為具有主觀上的惡意,違反了美國聯(lián)邦民事訴訟規(guī)則第11條,原告律師的律所對兩位律師的違規(guī)行為承擔連帶責任。他們被處以5千美元連帶責任(約合3.6萬元人民幣)的罰款,并被要求向原告以及在虛構(gòu)案例中被錯誤引用姓名的法官通報本法院施加的制裁。法官于同日發(fā)布決定,駁回原告訴請,根據(jù)蒙特利爾公約第35條,確認原告索賠請求因超過公約規(guī)定的2年期間而無法成立。
“馬塔訴阿維安卡公司案”引發(fā)了連鎖反應。法院開始要求律師和自訴原告披露使用GAI起草法律文書的情況,并要求對GAI生成內(nèi)容的準確性進行單獨驗證。美國得克薩斯州北區(qū)法院法官布蘭特利·斯塔爾(Judge Brantley Starr)在2023年6月發(fā)布了一項長期命令,要求所有律師必須保證沒有使用GAI起草法律文書或突出顯示GAI生成的文本以便檢驗其準確性。賓夕法尼亞州東區(qū)法院法官邁克爾·M·貝爾森(Judge Michael M. Baylson)同樣在2023年6月發(fā)布命令,要求各方律師一旦在向法院提交的法律文書中使用了GAI,就必須披露GAI在準備法律文書過程中的使用方式,以及證明其對法律的每一次引用或論證都已得到驗證。此外,威斯康星州州律師協(xié)會為會員舉辦了一場以“ChatGPT人工智能——概述和影響”為主題的網(wǎng)絡研討會,用于傳授安全并合乎道德地使用GAI的最佳方式。英國大律師公會也在2024年1月發(fā)布了《基于大型語言模型的ChatGPT和生成式人工智能軟件的使用注意事項》,幫助大律師了解使用GAI的技術(shù)基礎(chǔ)和風險,以便其遵守法律和道德標準。
三、啟示和建議
(一)
了解GAI的本質(zhì)與局限是正確使用的前提
GAI是一種基于預訓練的大語言模型,其基本原理是運用機器學習算法在海量文本數(shù)據(jù)上進行預先訓練,使模型學習語言的通用規(guī)律和結(jié)構(gòu),然后運用統(tǒng)計概率的方法,不斷循環(huán)預測下一個詞語的可能性情況,從而生成順序文本。當GAI生成的一段文本中的每一個詞語都是如此自然,合乎人們通常的預期,那么它看起來就像是由人類編寫的,或者至少是由一臺能夠自我思考的機器編寫的,這也就是GAI中I(智能)的由來。就其本質(zhì)而言,GAI的核心功能就是精準地預測下一個最可能出現(xiàn)的詞語,它并不關(guān)心真相或準確性等概念,其返回的答案僅僅是一種“統(tǒng)計結(jié)果”。
GAI并不是一個超級搜索引擎。施瓦茨律師的錯誤始于將ChatGPT認定為超級搜索引擎。從GAI的基本原理可以得知,它與搜索引擎具有明顯的差異,后者的工作原理是對信息進行索引,為用戶返回相關(guān)性最高的內(nèi)容,而前者,則是基于已有的數(shù)據(jù)生成相關(guān)的內(nèi)容。從回復的內(nèi)容來看,GAI的回應是基于其訓練數(shù)據(jù)的即時創(chuàng)造,而搜索引擎則返回已經(jīng)存在的網(wǎng)頁鏈接。從內(nèi)容的可靠性來看,GAI的生成特性切斷了內(nèi)容和來源的聯(lián)系,在高度復雜的算法以及海量參數(shù)下,人們往往很難理解GAI內(nèi)部的決策過程或為輸出內(nèi)容提供清晰的解釋,無法得知生成內(nèi)容的來源是百科全書或是娛樂小報,甚至出現(xiàn)內(nèi)容與來源信息脫節(jié)的情況,難以確保內(nèi)容的可靠性;而搜索引擎提供內(nèi)容的原始鏈接,使得用戶可以建立內(nèi)容和來源的直接聯(lián)系,形成可追溯的信息鏈條可以確保內(nèi)容的可靠性。
GAI的大語言模型本質(zhì)解釋了錯誤內(nèi)容產(chǎn)生的原因。大語言模型本質(zhì)揭示了GAI生成的內(nèi)容是一種基于模型生成的概率答案,并不是一個從既有數(shù)據(jù)庫中搜索確定的固定答案,這決定了GAI必然有可能生成錯誤內(nèi)容。GAI生成內(nèi)容的準確性很大程度上依賴于預訓練數(shù)據(jù)和算法本身。預訓練數(shù)據(jù)質(zhì)量受到預訓練語料庫代表性不足以及數(shù)據(jù)集時效性偏差的影響。而算法偏見、歧視和不平等問題也一直影響著生成內(nèi)容的質(zhì)量的準確性?!皦嚎s-解壓”機制帶來信息內(nèi)容損耗、基于人類反饋的強化學習帶來的偏差、用戶錯誤互動形成的語境坍塌等也是導致生成錯誤內(nèi)容的原因。此外,在訓練過程中GAI被引導與人類偏好對齊,導致GAI“阿諛奉承”(Sycophancy)行為的普遍存在。GAI是如此期望能夠“滿足用戶的期待”,以至于它并非客觀中立地呈現(xiàn)信息,而是判斷用戶的意圖,并不遺余力地通過數(shù)據(jù)搜集和組合生成討好用戶的內(nèi)容。正如在馬塔案中,雖然數(shù)據(jù)庫中沒有合適的案例,但是ChatGPT并沒有向施瓦茨律師告知這一令人失望的信息,反而編造了眾多有利于原告馬塔的虛假案例,幫助施瓦茨律師“順利”完成法律文書,并進一步幫助其生成虛假案例的內(nèi)容摘錄,最終招致法院制裁。
GAI的擬人化特性(Anthropomorphism)是一項主要風險。GAI的設(shè)計給人留下了用戶正在與具有人類特質(zhì)的對象進行交互的印象,這樣的擬人化互動能減少人機之間的“陌生感”,增進“親切感”,進而產(chǎn)生“信任”,這份“信任”就可能表現(xiàn)為用戶不假思索對GAI生成內(nèi)容的確信。因此,英國大律師公會在《基于大型語言模型的ChatGPT和生成式人工智能軟件的使用注意事項》將GAI的擬人化特性列為第一個關(guān)鍵風險。因為在當前階段,GAI不具有任何相關(guān)意義上的人類特征,沒有情感和意識,無法進行思考、推理、自我批判,GAI生成的內(nèi)容也只是龐大數(shù)據(jù)之上的統(tǒng)計結(jié)果,將GAI與人類智能相混淆只能帶來危害。施瓦茨律師在交互中誤認為ChatGPT是具有人類特性的對象,向其確認虛構(gòu)案例的真實情況,將自己的法律義務、職業(yè)操守、個人榮譽寄托在對機器生成的回復以及機器本身的信任上,無疑是荒謬的。
GAI的“創(chuàng)造性”是其本質(zhì)特征。GAI中的G(生成式)是其區(qū)別于傳統(tǒng)AAI的關(guān)鍵特質(zhì),也是其“創(chuàng)造性”的來源。得益于海量數(shù)據(jù)的訓練基礎(chǔ),GAI生成的概率答案不僅是對現(xiàn)有內(nèi)容的重組或復制,還能建立跨學科間的廣泛知識鏈接,從而生成新穎的內(nèi)容,包括新的理論框架、新的產(chǎn)品或新的方法。這決定了GAI生成內(nèi)容創(chuàng)新性的本質(zhì)特征。內(nèi)容創(chuàng)新和內(nèi)容錯誤則可以視為一體兩面的現(xiàn)象,主要受制于目的、環(huán)境、文體等具體情境中對準確性需求程度的不同,例如商業(yè)廣告策劃對準確性的需求程度極低,需要更多創(chuàng)意,避免對現(xiàn)有廣告的抄襲;而法律文書則對準確性提出極高的要求,這是法的安定性的必然要求。施瓦茨律師向以創(chuàng)新性為特征的ChatGPT尋求以準確性為標準的司法判例,無異于緣木求魚,得到令人失望的結(jié)果也就在所難免。
以上特性揭示了律師在使用GAI過程中的多種風險和使用限制,但這并非意味著GAI參與法律文書寫作弊大于利,諸多國內(nèi)外研究給予其積極評價。問題的關(guān)鍵在于,GAI的使用者應當根據(jù)其職責和任務權(quán)衡使用GAI的潛在風險和挑戰(zhàn),清楚自己行為的目的,負責任地使用GAI。
(二)
堅持以人為本的人機關(guān)系模式,明確GAI在人機協(xié)作中的智能副駕角色
面對GAI為代表新一輪生產(chǎn)力變革,應當堅持人本主義立場,以人之主體性處理與GAI的關(guān)系,將人的獨立、自由、尊嚴、全面發(fā)展作為核心。在人機關(guān)系中,需要明確人類的決策和創(chuàng)造力的不可替代性,人應當處于主導地位。GAI作為協(xié)助者,其作用是擴展人類的能力,而不是取代人類的判斷。就人類與GAI的關(guān)系而言,“其本質(zhì)還是人與物之間的關(guān)系。”以人為本的人機關(guān)系模式可以有效克服GAI生成錯誤內(nèi)容的危害性,GAI生成的內(nèi)容只是人類作出決策的眾多參考信息中的一部分,人類決策者將對信息進行綜合評估,并考慮其他非量化因素,如倫理、社會影響和個人經(jīng)驗,從而確保最終決定的準確性和有效性。施瓦茨律師在法律文書撰寫過程中完全依賴ChatGPT,將其提供的信息“作為他實質(zhì)性論點的唯一來源”。這就導致了人機關(guān)系的“倒置”,正如法院所述,“施瓦茨律師及其律所在提交由ChatGPT創(chuàng)建的不存在的帶有虛假引用和引證不存在的司法意見的材料時,便放棄了自己的責任。”將個人法律義務、職業(yè)操守、個人榮譽寄托在對機器生成的回復以及機器本身的信任上,實際上把是GAI與自己等同比較,“人作為主體的超越性就遭到破壞,自我地位的降低隨之而來?!比藳Q定的自主性也遭到削弱,使人異化為工具的傳聲筒,淪為技術(shù)的附庸。
明確GAI的角色是實現(xiàn)高效和有意義人機協(xié)作的關(guān)鍵。GAI在人機關(guān)系中應當擔當“copilot”(“智能副駕”或作“助手”)的角色。Copilot是微軟推出的一款人工智能產(chǎn)品,但其準確描繪了GAI理想的角色定位。Copilot的原初含義來自航空領(lǐng)域,指的是副駕駛員,即與主駕駛員(pilot)一同工作,在飛行中共同負責飛機的操作和管理。副駕駛員在飛行過程中不僅是主駕駛員的助手,還是在緊急情況下的支持者,確保飛行的安全性和效率。這一角色的特征和職責使得它可以作為理解人類與GAI關(guān)系的一個有力隱喻。就目標而言,在飛行中,主駕駛員和副駕駛員共享相同的目標——安全、高效地到達目的地;在人機關(guān)系中,人類與GAI共同工作,以實現(xiàn)特定的目標,如提高工作效率、解決復雜問題等,彰顯了共同努力達成目標的合作精神。就互補能力而言,副駕駛員具有與主駕駛員相似的技能和訓練,但在實際飛行中可能會擔當不同的職責,以互補主駕駛員的能力;在人機關(guān)系方面,GAI補充人類的能力,特別是在快速提供基于數(shù)據(jù)的見解和建議、生成新的概念、設(shè)計或文本、開展跨領(lǐng)域知識鏈接、執(zhí)行重復任務和識別模式等方面,而人類則提供思考、評價、批判、反思、決策等人類獨有的能力,并主導人機協(xié)作的程序。就溝通和協(xié)調(diào)而言,飛行安全要求主駕駛員和副駕駛員之間有著密切的溝通和協(xié)調(diào),以確保每一項操作都是基于共同的理解和協(xié)商;在人機關(guān)系方面,人類與GAI的有效協(xié)作同樣需要良好的溝通機制,人類需要能夠理解GAI的建議和輸出,GAI則需在人類的指導下進行調(diào)整和學習。就監(jiān)督和支持而言,副駕駛員在必要時提供監(jiān)督和支持,確保飛行操作的正確性和應對緊急情況;而人類對GAI的監(jiān)督確保GAI操作的正確性和安全性,人類可以干預GAI的操作,以防止錯誤或不當行為。將GAI定位為智能副駕的角色強調(diào)了其作為人類活動的輔助和增強工具的概念,是人的對象化的智能器官,旨在通過人機合作最大化利用其潛力,同時確保人類保持對活動的主導和控制。這種關(guān)系模型強調(diào)了人機之間的合作、互補性和共同目標的追求,同時也體現(xiàn)了對安全、適應性和靈活性的共同重視。
提升用戶技術(shù)素養(yǎng)是實現(xiàn)有效人機協(xié)作的關(guān)鍵。為了優(yōu)化人機之間的協(xié)同作用,通過針對性的教育和培訓措施提高用戶對GAI技術(shù)的理解和技術(shù)熟練度至關(guān)重要。主要包括教育用戶如何有效地與GAI交互,如何評估GAI生成內(nèi)容的準確性和可靠性,以及如何識別和避免潛在的偏見和誤用。在馬塔案后,威斯康星州律師協(xié)會為會員舉辦了一場以“ChatGPT人工智能——概述和影響”為主題的網(wǎng)絡研討會,用于傳授安全并合乎道德地使用GAI的最佳方式。2023年12月英國公布《人工智能司法工作人員指南》,用于指導司法工作人員理解人工智能的主要風險和問題以及如何避免在使用過程中發(fā)生這些風險和問題。英國大律師公會也在2024年1月發(fā)布了《基于大型語言模型的ChatGPT和生成式人工智能軟件的使用注意事項》,幫助大律師了解使用GAI的技術(shù)基礎(chǔ)和風險,以便其遵守法律和道德標準。
(三)
以律師倫理道德與職業(yè)責任作為基礎(chǔ)保障
律師的倫理道德與職業(yè)責任應當作為應對GAI變革的基礎(chǔ),倫理規(guī)范應成為防范GAI風險的重要準則。雖然GAI提出的問題可能很新穎,但至少有一些道德答案是不變的。正如馬塔案中法官卡斯特爾在制裁意見中所述:“技術(shù)進步是司空見慣的,使用可靠的人工智能工具提供幫助并沒有本質(zhì)上的不當之處。但現(xiàn)有規(guī)則對律師施加了把關(guān)作用,以確保他們提交的文件的準確性?!甭蓭煹穆殬I(yè)道德與責任是其實現(xiàn)社會價值和維護社會正義的基石。誠信、盡責、專業(yè)是律師職業(yè)道德的關(guān)鍵部分。誠信要求律師在所有職業(yè)活動中都必須保持最高水平的誠實和信用。這意味著律師在與客戶、法庭以及第三方交往時,應確保所有的陳述、文件和證據(jù)都是真實、準確無誤的。誠實信用的原則禁止律師進行任何形式的欺騙或誤導行為。盡責要求律師全心全意地為客戶服務,盡最大努力保護客戶的法律權(quán)益。這包括及時響應客戶的需求、恪守律師與客戶之間的保密義務以及在提供法律服務時盡可能利用自己的知識、技能和資源。專業(yè)性要求律師不僅擁有必要的法律知識和技能,而且在其職業(yè)行為中體現(xiàn)出高度的職業(yè)操守。這包括在所有情況下都保持專業(yè)的態(tài)度,尊重客戶、法官、對手律師以及其他法律專業(yè)人員。專業(yè)性也要求律師在行使其職業(yè)職責時,遵守相關(guān)的法律、規(guī)則和職業(yè)準則。
在馬塔案中,施瓦茨律師通過向ChatGPT咨詢來彌補自己并不具備美國聯(lián)邦法規(guī)、蒙特利爾公約、美國破產(chǎn)法相應領(lǐng)域法律知識的事實,無疑違反了專業(yè)性要求;未經(jīng)審查即向法院提交ChatGPT生成的虛假案例,無疑是不盡責的;在法院提出質(zhì)疑后,仍然隱瞞事實掩蓋真相,無疑是不誠信的;其辦案同事洛杜卡以及律所缺失對法律文書的核查無疑也違反了盡責要求。一系列違反律師職業(yè)倫理道德的行為不斷擴大了ChatGPT錯誤內(nèi)容的影響,最終招致法院的制裁,法院援引聯(lián)邦民事訴訟規(guī)則第11條規(guī)定,指出“在準備文書的過程中未采取必要的謹慎”構(gòu)成了對司法管轄權(quán)的濫用,還援引了紐約職業(yè)行為規(guī)則第3.3(a)(1)條“律師不得故意向法庭做出虛假事實或法律陳述,或未能糾正律師先前向法院作出的重要事實或法律的虛假陳述,以及紐約職業(yè)行為規(guī)則第5.1條,律師事務所和直接主管的確保遵守義務。換言之,“新科技的產(chǎn)生并非意味著以往法律規(guī)范的全面傾覆,”良好的遵行現(xiàn)有的律師職業(yè)倫理準則,將在很大程度上保障GAI在法律文書寫作過程中的可靠性和有效性,實現(xiàn)科技向善。
(四)
制定標準化策略優(yōu)化GAI應用流程
為了提升GAI在法律文書撰寫中的效率、準確性和可靠性,實現(xiàn)人機協(xié)作過程中的勞動分工和行動整合,開發(fā)一套指導原則和標準操作流程(Standard Operating Procedures,SOP)至關(guān)重要。這套流程應詳細說明如何選擇和使用高質(zhì)量的提示詞(Prompts)、如何有效地利用GAI生成的草稿以及如何對GAI生成物進行后續(xù)的人工審核和修改。標準操作流程還應包括對于GAI使用范圍的明確界定,確保律師能夠在適當?shù)那闆r下利用GAI技術(shù),并在需要人類專業(yè)判斷和細致審查的情況下進行人工干預。通過建立這樣一套標準操作流程,律師可以更系統(tǒng)、更高效地利用GAI技術(shù)進行法律文書的撰寫工作,同時最小化因使用GAI技術(shù)而可能引入的誤差和風險,確保法律服務的專業(yè)性和可靠性。
結(jié)語
具備對自然語言的理解與響應能力的GAI展現(xiàn)出草擬訴狀、撰寫案件摘要及其他法律文書方面的應用潛力,可以極大提升律師的生產(chǎn)力,重塑法律服務提供方式。但其固有的幻覺現(xiàn)象則會為律師的執(zhí)業(yè)活動帶來重大風險。馬塔案中施瓦茨律師對GAI生成內(nèi)容的輕信和依賴為自己、同事及律所帶來法院的制裁。馬塔案帶來的啟示是應用新技術(shù)的前提是了解其本質(zhì)以及局限,人機關(guān)系應當以人為本,將人的獨立、自由、尊嚴、全面發(fā)展作為核心。此外,在技術(shù)變革引發(fā)的不確定時期,應當重視倫理道德和職業(yè)責任發(fā)揮的保障作用。在未來,可以建立一套可靠的標準化流程,實現(xiàn)在應用GAI提升生產(chǎn)力的同時,將技術(shù)可能帶來的誤差和風險最小化。
原標題:《姚立|生成式人工智能ChatGPT編造法律案例的風險與啟示——評2023年美國“馬塔訴阿維安卡公司案”》
閱讀原文