在資本市場熱捧ChatGPT概念的同時,,法律工作者也在評估ChatGPT自身可能會帶來哪些法律安全風(fēng)險以及其法律合規(guī)路徑。目前人工智能領(lǐng)域,,尤其是自然語言處理技術(shù)領(lǐng)域正在快速發(fā)展階段,,該技術(shù)很可能會陷入所謂的“科林格里奇窘境”,與此相對應(yīng)的法律監(jiān)管似乎并未“跟得上步伐”,,而ChatGPT等AI聊天基礎(chǔ)存在的現(xiàn)實合規(guī)問題也急需重視,。
ChatGPT等基于自然語言處理技術(shù)的聊天AI,,就短期來看亟需要解決的法律合規(guī)問題主要有三個:
其一,,聊天AI提供的答復(fù)的知識產(chǎn)權(quán)問題,其中最主要的合規(guī)難題是聊天AI產(chǎn)出的答復(fù)是否產(chǎn)生相應(yīng)的知識產(chǎn)權(quán),?是否需要知識產(chǎn)權(quán)授權(quán)?
其二,,聊天AI對巨量的自然語言處理文本(一般稱之為語料庫)進(jìn)行數(shù)據(jù)挖掘和訓(xùn)練的過程是否需要獲得相應(yīng)的知識產(chǎn)權(quán)授權(quán),?
其三,ChatGPT等聊天AI的回答機(jī)制之一是通過對大量已經(jīng)存在的自然語言文本進(jìn)行數(shù)學(xué)上的統(tǒng)計,,得到一個基于統(tǒng)計的語言模型,,這一機(jī)制導(dǎo)致聊天AI很可能會“一本正經(jīng)的胡說八道”,進(jìn)而導(dǎo)致虛假信息傳播的法律風(fēng)險,,在這一技術(shù)背景下,,如何盡可能降低聊天AI的虛假信息傳播風(fēng)險?
總體而言,,目前我國對于人工智能立法依然處在預(yù)研究階段,,還沒有正式的立法計劃或者相關(guān)的動議草案,相關(guān)部門對于人工智能領(lǐng)域的監(jiān)管尤為謹(jǐn)慎,,隨著人工智能的逐步發(fā)展,,相應(yīng)的法律合規(guī)難題只會越來越多。
一,、ChatGPT并非是“跨時代的人工智能技術(shù)”
ChatGPT本質(zhì)上是自然語言處理技術(shù)發(fā)展的產(chǎn)物,,本質(zhì)上依然僅是一個語言模型。
2023開年之初全球科技巨頭微軟的巨額投資讓ChatGPT成為科技領(lǐng)域的“頂流”并成功出圈,。隨著資本市場ChatGPT概念板塊的大漲,,國內(nèi)眾多科技企業(yè)也著手布局這一領(lǐng)域,在資本市場熱捧ChatGPT概念的同時,作為法律工作者,,我們不禁要評估ChatGPT自身可能會帶來哪些法律安全風(fēng)險,,其法律合規(guī)路徑何在?
在討論ChatGPT的法律風(fēng)險及合規(guī)路徑之前,,我們首先應(yīng)當(dāng)審視ChatGPT的技術(shù)原理——ChatGPT是否如新聞所言一樣,,可以給提問者回答任何其想要的問題?
在颯姐團(tuán)隊看來,,ChatGPT似乎遠(yuǎn)沒有部分新聞所宣傳的那樣“神”——一句話總結(jié),,其僅僅是Transformer和GPT等自然語言處理技術(shù)的集成,本質(zhì)上依然是一個基于神經(jīng)網(wǎng)絡(luò)的語言模型,,而非一項“跨時代的AI進(jìn)步”,。
前面已經(jīng)提到ChatGPT是自然語言處理技術(shù)發(fā)展的產(chǎn)物,就該技術(shù)的發(fā)展史來看,,其大致經(jīng)歷了基于語法的語言模型——基于統(tǒng)計的語言模型——基于神經(jīng)網(wǎng)絡(luò)的語言模型三大階段,,ChatGPT所在的階段正是基于神經(jīng)網(wǎng)絡(luò)的語言模型階段,想要更為直白地理解ChatGPT的工作原理及該原理可能引發(fā)的法律風(fēng)險,,必須首先闡明的就是基于神經(jīng)網(wǎng)絡(luò)的語言模型的前身——基于統(tǒng)計的語言模型的工作原理,。
在基于統(tǒng)計的語言模型階段,AI工程師通過對巨量的自然語言文本進(jìn)行統(tǒng)計,,確定詞語之間先后連結(jié)的概率,,當(dāng)人們提出一個問題時,AI開始分析該問題的構(gòu)成詞語共同組成的語言環(huán)境之下,,哪些詞語搭配是高概率的,,之后再將這些高概率的詞語拼接在一起,返回一個基于統(tǒng)計學(xué)的答案,??梢哉f這一原理自出現(xiàn)以來就貫穿了自然語言處理技術(shù)的發(fā)展,甚至從某種意義上說,,之后出現(xiàn)的基于神經(jīng)網(wǎng)絡(luò)的語言模型亦是對基于統(tǒng)計的語言模型的修正,。
舉一個容易理解的例子,颯姐團(tuán)隊在ChatGPT聊天框中輸入問題“大連有哪些旅游勝地,?”
AI第一步會分析問題中的基本語素“大連,、哪些、旅游,、勝地”,,再在已有的語料庫中找到這些語素所在的自然語言文本集合,在這個集合中找尋出現(xiàn)概率最多的搭配,,再將這些搭配組合以形成最終的答案,。如AI會發(fā)現(xiàn)在“大連,、旅游、勝地”這三個詞高概率出現(xiàn)的語料庫中,,有“中山公園”一詞,,于是就會返回“中山公園”,又如“公園”這個詞與花園,、湖泊,、噴泉、雕像等詞語搭配的概率最大,,因此就會進(jìn)一步返回“這是一個歷史悠久的公園,,有美麗的花園、湖泊,、噴泉和雕像,。”
換言之,,整個過程都是基于AI背后已有的自然語言文本信息(語料庫)進(jìn)行的概率統(tǒng)計,,因此返回的答案也都是“統(tǒng)計的結(jié)果”,這就導(dǎo)致了ChatGPT在許多問題上會“一本正經(jīng)的胡說八道”,。如剛才的這個問題“大連有哪些旅游勝地”的回答,,大連雖然有中山公園,但是中山公園中并沒有湖泊,、噴泉和雕像,。大連在歷史上的確有“斯大林廣場”,但是斯大林廣場自始至終都不是一個商業(yè)廣場,,也沒有任何購物中心、餐廳和娛樂場所,。顯然,,ChatGPT返回的信息是虛假的。
二,、ChatGPT作為語言模型目前其最適合的應(yīng)用場景
雖然上個部分我們直白的講明了基于統(tǒng)計的語言模型的弊端,,但ChatGPT畢竟已經(jīng)是對基于統(tǒng)計的語言模型大幅度改良的基于神經(jīng)網(wǎng)絡(luò)的語言模型,其技術(shù)基礎(chǔ)Transformer和GPT都是最新一代的語言模型,,ChatGPT本質(zhì)上就是將海量的數(shù)據(jù)結(jié)合表達(dá)能力很強(qiáng)的Transformer模型結(jié)合,,從而對自然語言進(jìn)行了一個非常深度的建模,返回的語句雖然有時候是“胡說八道”,,但乍一看還是很像“人類回復(fù)的”,,因此這一技術(shù)在需要海量的人機(jī)交互的場景下具有廣泛的應(yīng)用場景。
就目前來看,,這樣的場景有三個:
其一,,搜索引擎,;
其二,銀行,、律所,、各類中介機(jī)構(gòu)、商場,、醫(yī)院,、政府政務(wù)服務(wù)平臺中的人機(jī)交互機(jī)制,如上述場所中的客訴系統(tǒng),、導(dǎo)診導(dǎo)航,、政務(wù)咨詢系統(tǒng);
第三,,智能汽車,、智能家居(如智能音箱、智能燈光)等的交互機(jī)制,。
結(jié)合ChatGPT等AI聊天技術(shù)的搜索引擎很可能會呈現(xiàn)出傳統(tǒng)搜索引擎為主+基于神經(jīng)網(wǎng)絡(luò)的語言模型為輔的途徑,。目前傳統(tǒng)的搜索巨頭如谷歌和百度均在基于神經(jīng)網(wǎng)絡(luò)的語言模型技術(shù)上有著深厚的積累,譬如谷歌就有與ChatGPT相媲美的Sparrow和Lamda,,有著這些語言模型的加持,,搜索引擎將會更加“人性化”。
ChatGPT等AI聊天技術(shù)運用在客訴系統(tǒng)和醫(yī)院,、商場的導(dǎo)診導(dǎo)航以及政府機(jī)關(guān)的政務(wù)咨詢系統(tǒng)中將大幅度降低相關(guān)單位的人力資源成本,,節(jié)約溝通時間,但問題在于基于統(tǒng)計的回答有可能產(chǎn)生完全錯誤的內(nèi)容回復(fù),,由此帶來的風(fēng)控風(fēng)險恐怕還需要進(jìn)一步評估,。
相比于上述兩個應(yīng)用場景,ChatGPT應(yīng)用在智能汽車,、智能家居等領(lǐng)域成為上述設(shè)備的人機(jī)交互機(jī)制的法律風(fēng)險則要小很多,,因為這類領(lǐng)域應(yīng)用環(huán)境較為私密,AI反饋的錯誤內(nèi)容不至于引起大的法律風(fēng)險,,同時這類場景對內(nèi)容準(zhǔn)確性要求不高,,商業(yè)模式也更為成熟。
三,、ChatGPT的法律風(fēng)險及合規(guī)路徑初探
第一,,人工智能在我國的整體監(jiān)管圖景
和許多新興技術(shù)一樣,ChatGPT所代表的自然語言處理技術(shù)也面臨著“科林格里奇窘境(Collingridge dilemma)”,。這一窘境包含了信息困境與控制困境,,所謂信息困境,即一項新興技術(shù)所帶來的社會后果不能在該技術(shù)的早期被預(yù)料到,;所謂控制困境,,即當(dāng)一項新興技術(shù)所帶來的不利的社會后果被發(fā)現(xiàn)時,,技術(shù)卻往往已經(jīng)成為整個社會和經(jīng)濟(jì)結(jié)構(gòu)的一部分,致使不利的社會后果無法被有效控制,。
目前人工智能領(lǐng)域,,尤其是自然語言處理技術(shù)領(lǐng)域正在快速發(fā)展階段,該技術(shù)很可能會陷入所謂的“科林格里奇窘境”,,與此相對應(yīng)的法律監(jiān)管似乎并未“跟得上步伐”,。我國目前尚無國家層面上的人工智能產(chǎn)業(yè)立法,但地方已經(jīng)有相關(guān)的立法嘗試,。就在去年9月,,深圳市公布了全國首部人工智能產(chǎn)業(yè)專項立法《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》,緊接著上海也通過了《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》,,相信不久之后各地均會出臺類似的人工智能產(chǎn)業(yè)立法,。
在人工智能的倫理規(guī)制方面,國家新一代人工智能治理專業(yè)委員會亦在2021年發(fā)布了《新一代人工智能倫理規(guī)范》,,提出將倫理道德融入人工智能研發(fā)和應(yīng)用的全生命周期,,或許在不久的將來,類似阿西莫夫小說中的“機(jī)器人三定律”將成為人工智能領(lǐng)域監(jiān)管的鐵律,。
第二,,ChatGPT帶來的虛假信息法律風(fēng)險問題
將目光由宏觀轉(zhuǎn)向微觀,拋開人工智能產(chǎn)業(yè)的整體監(jiān)管圖景和人工智能倫理規(guī)制問題,,ChatGPT等AI聊天基礎(chǔ)存在的現(xiàn)實合規(guī)問題也急需重視,。
這其中較為棘手的是ChatGPT回復(fù)的虛假信息問題,正如本文在第二部分提及的,,ChatGPT的工作原理導(dǎo)致其回復(fù)可能完全是“一本正經(jīng)的胡說八道”,,這種看似真實實則離譜的虛假信息具有極大的誤導(dǎo)性。當(dāng)然,,像對“大連有哪些旅游勝地”這類問題的虛假回復(fù)可能不會造成嚴(yán)重后果,,但倘若ChatGPT應(yīng)用到搜索引擎、客訴系統(tǒng)等領(lǐng)域,,其回復(fù)的虛假信息可能造成極為嚴(yán)重的法律風(fēng)險,。
實際上這樣的法律風(fēng)險已經(jīng)出現(xiàn),,2022年11月幾乎與ChatGPT同一時間上線的Meta服務(wù)科研領(lǐng)域的語言模型Galactica就因為真假答案混雜的問題,,測試僅僅3天就被用戶投訴下線。在技術(shù)原理無法短時間突破的前提下,,倘若將ChatGPT及類似的語言模型應(yīng)用到搜索引擎,、客訴系統(tǒng)等領(lǐng)域,就必須對其進(jìn)行合規(guī)性改造,。當(dāng)檢測到用戶可能詢問專業(yè)性問題時,,應(yīng)當(dāng)引導(dǎo)用戶咨詢相應(yīng)的專業(yè)人員,,而非在人工智能處尋找答案,同時應(yīng)當(dāng)顯著提醒用戶聊天AI返回的問題真實性可能需要進(jìn)一步驗證,,以最大程度降低相應(yīng)的合規(guī)風(fēng)險,。
第三,ChatGPT帶來的知識產(chǎn)權(quán)合規(guī)問題
當(dāng)將目光由宏觀轉(zhuǎn)向微觀時,,除了AI回復(fù)信息的真實性問題,,聊天AI尤其是像ChatGPT這樣的大型語言模型的知識產(chǎn)權(quán)問題亦應(yīng)該引起合規(guī)人員的注意。
首先的合規(guī)難題是“文本數(shù)據(jù)挖掘”是否需要相應(yīng)的知識產(chǎn)權(quán)授權(quán)問題,。正如前文所指明的ChatGPT的工作原理,,其依靠巨量的自然語言本文(或言語料庫),ChatGPT需要對語料庫中的數(shù)據(jù)進(jìn)行挖掘和訓(xùn)練,,ChatGPT需要將語料庫中的內(nèi)容復(fù)制到自己的數(shù)據(jù)庫中,,相應(yīng)的行為通常在自然語言處理領(lǐng)域被稱之為“文本數(shù)據(jù)挖掘”。當(dāng)相應(yīng)的文本數(shù)據(jù)可能構(gòu)成作品的前提下,,文本數(shù)據(jù)挖掘行為是否侵犯復(fù)制權(quán)當(dāng)前仍存在爭議,。
在比較法領(lǐng)域,日本和歐盟在其著作權(quán)立法中均對合理使用的范圍進(jìn)行了擴(kuò)大,,將AI中的“文本數(shù)據(jù)挖掘”增列為一項新的合理使用的情形,。雖然2020年我國著作權(quán)法修法過程中有學(xué)者主張將我國的合理使用制度由“封閉式”轉(zhuǎn)向“開放式”,但這一主張最后并未被采納,,目前我國著作權(quán)法依舊保持了合理使用制度的封閉式規(guī)定,,僅著作權(quán)法第二十四條規(guī)定的十三中情形可以被認(rèn)定為合理使用,換言之,,目前我國著作權(quán)法并未將AI中的“文本數(shù)據(jù)挖掘”納入到合理適用的范圍內(nèi),,文本數(shù)據(jù)挖掘在我國依然需要相應(yīng)的知識產(chǎn)權(quán)授權(quán)。
其次的合規(guī)難題是ChatGPT產(chǎn)生的答復(fù)是否具有獨創(chuàng)性,?對于AI生成的作品是否具有獨創(chuàng)性的問題,,颯姐團(tuán)隊認(rèn)為其判定標(biāo)準(zhǔn)不應(yīng)當(dāng)與現(xiàn)有的判定標(biāo)準(zhǔn)有所區(qū)別,換言之,,無論某一答復(fù)是AI完成的還是人類完成的,,其都應(yīng)當(dāng)根據(jù)現(xiàn)有的獨創(chuàng)性標(biāo)準(zhǔn)進(jìn)行判定。其實這個問題背后是另一個更具有爭議性的問題,,如果AI生成的答復(fù)具有獨創(chuàng)性,,那么著作權(quán)人可以是AI嗎?顯然,,在包括我國在內(nèi)的大部分國家的知識產(chǎn)權(quán)法律下,,作品的作者僅有可能是自然人,AI無法成為作品的作者,。
最后,,ChatGPT倘若在自己的回復(fù)中拼接了第三方作品,,其知識產(chǎn)權(quán)問題應(yīng)當(dāng)如何處理?颯姐團(tuán)隊認(rèn)為,,如果ChatGPT的答復(fù)中拼接了語料庫中擁有著作權(quán)的作品(雖然依據(jù)ChatGPT的工作原理,,這種情況出現(xiàn)的概率較小),,那么按照中國現(xiàn)行的著作權(quán)法,,除非構(gòu)成合理使用,否則非必須獲得著作權(quán)人的授權(quán)后才可以復(fù)制,。(財富中文網(wǎng))
作者肖颯為財富中文網(wǎng)專欄作家,,“科技+金融”深度法律服務(wù)者
本內(nèi)容為作者獨立觀點,不代表財富中文網(wǎng)立場,。未經(jīng)允許不得轉(zhuǎn)載,。
編輯:劉蘭香