目前世界范圍內(nèi)對生成式人工智能技術(shù)的重視不單單僅是重視技術(shù)本身,,更體現(xiàn)了對該技術(shù)背后蘊藏的解放和發(fā)展當(dāng)前其他領(lǐng)域生產(chǎn)力潛力的關(guān)注,?!渡墒饺斯ぶ悄芊?wù)管理辦法(征求意見稿)》的出臺顯示出我國對于生成式人工智能技術(shù)發(fā)展的關(guān)注與支持,為相關(guān)科研機構(gòu),、企業(yè)的發(fā)展納入到合規(guī),、安全的框架之中,這對于構(gòu)建本土化AIGC研發(fā)環(huán)境極其有利,。
4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《辦法》)公開征求意見的通知,。本《辦法》征求意見稿的出臺可謂在近期大火的生成式人工智能行業(yè)中掀起軒然大波,,就此我們對《辦法》的具體條款進行解讀。
第一條:為促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,,根據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律,、行政法規(guī),制定本辦法,。
解讀:從立法路徑而言,,該辦法是在網(wǎng)安法、數(shù)安法,、個保法“三駕馬車”的前提下提出的,,因此企業(yè)應(yīng)該關(guān)注生成式人工智能服務(wù)的本質(zhì)。該類服務(wù)首先是一個網(wǎng)絡(luò)應(yīng)用,,其次是一個“數(shù)據(jù)密集型”應(yīng)用,,且極其容易觸碰“個人信息”的雷區(qū),因此在合規(guī)中企業(yè)不僅僅需要關(guān)注本辦法,,更多的是關(guān)注監(jiān)管要求的沿革路徑,其相對于網(wǎng)安數(shù)安個保法的基礎(chǔ)性條款有了哪些地方新的升級和新的要求,。
第二條:研發(fā),、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務(wù)的,,適用本辦法,。
本辦法所稱生成式人工智能,是指基于算法,、模型,、規(guī)則生成文本、圖片,、聲音,、視頻、代碼等內(nèi)容的技術(shù),。
解讀:本條規(guī)定了《辦法》監(jiān)管對象的范圍,。當(dāng)生成式人工智能的產(chǎn)品不再是內(nèi)部的自行使用,、測試使用或是為某個領(lǐng)域某個企業(yè)的定向開發(fā),而是在互聯(lián)網(wǎng)上向公眾提供公開的服務(wù)時便需要符合本法規(guī),。
何為“生成式人工智能”,,第二條第二款中給出了一個十分寬泛的定義,廣義的“算法模型和規(guī)則生成文本,、圖片,、聲音的”可以涵蓋大多數(shù)網(wǎng)絡(luò)應(yīng)用,任何人工信息的輸入皆需要經(jīng)過算法模型或者是一定規(guī)則的處理,,最終以另一種信息的表現(xiàn)形式呈現(xiàn)在輸出端,,因此在實務(wù)中執(zhí)法部門如何理解“生成”二字尤為重要。
第四條:提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,,尊重社會公德,、公序良俗,符合以下要求:
(一)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會主義核心價值觀,,不得含有顛覆國家政權(quán),、推翻社會主義制度,煽動分裂國家,、破壞國家統(tǒng)一,,宣揚恐怖主義、極端主義,,宣揚民族仇恨,、民族歧視,暴力,、淫穢色情信息,,虛假信息,以及可能擾亂經(jīng)濟秩序和社會秩序的內(nèi)容,。
(二)在算法設(shè)計,、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化,、提供服務(wù)等過程中,,采取措施防止出現(xiàn)種族、民族,、信仰,、國別、地域,、性別,、年齡、職業(yè)等歧視,。
(三)尊重知識產(chǎn)權(quán),、商業(yè)道德,,不得利用算法、數(shù)據(jù),、平臺等優(yōu)勢實施不公平競爭,。
(四)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準確,采取措施防止生成虛假信息,。
(五)尊重他人合法利益,,防止傷害他人身心健康,損害肖像權(quán),、名譽權(quán)和個人隱私,,侵犯知識產(chǎn)權(quán)。禁止非法獲取,、披露,、利用個人信息和隱私、商業(yè)秘密,。
解讀:此條可謂是實質(zhì)統(tǒng)領(lǐng)性的條款,,關(guān)注內(nèi)容、算法,、數(shù)據(jù),、平臺不正競爭、用戶隱私等各個層面的問題,。首先是以國家統(tǒng)一,、國家安全為第一要務(wù),重視內(nèi)容監(jiān)管,。生成內(nèi)容不能觸碰違反社會主義核心價值觀的底線,,且謹防打著人工智能的旗號進行違法有害內(nèi)容的有意輸出。其次是謹防“算法偏見”現(xiàn)象,。除了杜絕主動輸出危害內(nèi)容之外,,也對在算法設(shè)計、數(shù)據(jù)選取等較為隱性的服務(wù)實現(xiàn)步驟進行規(guī)制,,實現(xiàn)從模型到數(shù)據(jù)的全過程平等無偏見。
同時,,提前為可能在算法,、算力、數(shù)據(jù)等方面的壟斷的企業(yè)打了“預(yù)防針”,。國家提倡數(shù)字時代的共享共治,,在保護企業(yè)智力成果、投入成本的同時也謹防惡性競爭,、市場壟斷等行為的發(fā)生,。
可以看出政府努力引領(lǐng)“可信”生成式人工智能服務(wù)的發(fā)展,。對于該類服務(wù)來說“可信”是最難以達成的,黑箱模型使得很少有有效手段阻止模型輸出內(nèi)容的“胡說八道”,,即便是行業(yè)頂尖的GPT-4也難以避免該現(xiàn)象的發(fā)生,。并且,核心問題指向服務(wù)生成內(nèi)容可信程度的波動化,,一時超常的準確表現(xiàn),,一時難以分辨的潛藏錯誤是阻礙對該類服務(wù)賦予更多信任的主要原因。因此第四條第四款中只是要求企業(yè)采取一定的措施對生成內(nèi)容準確性進行維護,。
第五條:利用生成式人工智能產(chǎn)品提供聊天和文本,、圖像、聲音生成等服務(wù)的組織和個人(以下稱“提供者”),,包括通過提供可編程接口等方式支持他人自行生成文本,、圖像、聲音等,,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,;
解讀:第五條進一步明確在公眾用戶和產(chǎn)品服務(wù)提供商之間的關(guān)系,將“生成內(nèi)容生產(chǎn)者”的責(zé)任劃歸到產(chǎn)品服務(wù)提供商(文中稱為“提供者”)之下,。在這里有些很有趣的地方,,譬如A公司調(diào)用B公司的接口向公眾C提供服務(wù),誰是內(nèi)容提供商,?若B公司的接口并不向公眾開放,,而是通過其他方式供給于A,那么A才需要承擔(dān)法律上內(nèi)容生產(chǎn)者的責(zé)任,;但若B公司也以公開的形式向A公司出售服務(wù),,那么AB兩公司權(quán)利義務(wù)關(guān)系依照本辦法可能還存在模糊之處。
《辦法》中將將數(shù)據(jù)合法性也劃歸到“提供者”之下,,對服務(wù)背后的數(shù)據(jù)進行統(tǒng)一的要求,,可以看出日后提供者身份的“認定”是兵家必爭之地。該條最直接的意義便是對模型輸入端進行優(yōu)化,,從而盡可能地保證輸出端內(nèi)容的純凈性,、準確性。從長遠的來看,,該要求對整個數(shù)據(jù)相關(guān)產(chǎn)業(yè)鏈提出的新的要求,,是對整個行業(yè)數(shù)據(jù)收集、傳輸,、交易,、檢驗、維護與保護的全面規(guī)制。同時也完全符合現(xiàn)行立法對數(shù)據(jù)處理的各方面要求,,能夠極大程度防止后續(xù)違法行為的發(fā)生,,屬于一舉多得。
第八條:生成式人工智能產(chǎn)品研制中采用人工標注時,,提供者應(yīng)當(dāng)制定符合本辦法要求,,清晰、具體,、可操作的標注規(guī)則,,對標注人員進行必要培訓(xùn),抽樣核驗標注內(nèi)容的正確性,。
解讀:網(wǎng)絡(luò)中對此條款的爭議很大,,說很有可能促使誕生“打標員”這一新職業(yè),人工智能行業(yè)也可以是“勞動密集型”的,。事實上,,標注的成本不論是過去還是現(xiàn)在都是相當(dāng)?shù)母叩模瑸榱藰俗⒌臏蚀_性,,減少錯誤標注的數(shù)據(jù)污染,,復(fù)雜的規(guī)則制定、培訓(xùn),、檢驗已經(jīng)成為行業(yè)的基本操作,,服務(wù)的開發(fā)者會自發(fā)使得標注盡量標準化來提高模型的表現(xiàn)。
第十條:提供者應(yīng)當(dāng)明確并公開其服務(wù)的適用人群,、場合,、用途,采取適當(dāng)措施防范用戶過分依賴或沉迷生成內(nèi)容,。
解讀:這條的設(shè)立頗具有先見之明的,。在過去,網(wǎng)絡(luò)服務(wù)提供內(nèi)容導(dǎo)致用戶沉迷的例子不在少數(shù),,而深度合成內(nèi)容具有高度的擬人性和強交互性,,讓人難以區(qū)分,很可能會深陷其中,,不愿接受現(xiàn)實的樣子,。不符合法律規(guī)定的相關(guān)服務(wù)很有可能成為新時代的“賽博大煙”。
第十一條:提供者在提供服務(wù)過程中,,對用戶的輸入信息和使用記錄承擔(dān)保護義務(wù),。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,,不得向他人提供用戶輸入信息。法律法規(guī)另有規(guī)定的,從其規(guī)定,。
解讀:信息泄露問題在對話式內(nèi)容生成服務(wù)中已經(jīng)初見端倪,。服務(wù)提供者為了根據(jù)用戶的輸入提供“完全個性化”的輸出,需要將輸入投喂到模型當(dāng)中,,很難在數(shù)據(jù)處理的過程中保證數(shù)據(jù)的“靜止性”,。近期中國支付清算協(xié)會也發(fā)布倡議書,提示支付行業(yè)從業(yè)人員合規(guī)使用ChatGPT等工具,,以避免行業(yè)關(guān)鍵數(shù)據(jù)泄露風(fēng)險,。
“畫像”是一個行業(yè)中的詞,并沒有規(guī)范的定義,,何種行為可以被定義為“畫像”也是至關(guān)重要的問題,。對用戶輸入的整合和統(tǒng)計當(dāng)然的可以提供更為個性化的服務(wù),微軟近期的服務(wù)甚至可以將本地文件內(nèi)容整合其中,,但是這種行為在本條中似乎被排除,。之后行業(yè)如何在不“畫像”的情形下提供更為智能的服務(wù)是整個行業(yè)需要思考的問題。
第十三條:提供者應(yīng)當(dāng)建立用戶投訴接收處理機制,,及時處置個人關(guān)于更正,、刪除、屏蔽其個人信息的請求,;發(fā)現(xiàn),、知悉生成的文本、圖片,、聲音,、視頻等侵害他人肖像權(quán)、名譽權(quán),、個人隱私,、商業(yè)秘密,或者不符合本辦法要求時,,應(yīng)當(dāng)采取措施,,停止生成,防止危害持續(xù),。
第十五條:對于運行中發(fā)現(xiàn),、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,,應(yīng)在3個月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成,。
第十九條:提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德,、社會公德行為時,,包括從事網(wǎng)絡(luò)炒作,、惡意發(fā)帖跟評、制造垃圾郵件,、編寫惡意軟件,,實施不正當(dāng)?shù)纳虡I(yè)營銷等,應(yīng)當(dāng)暫?;蛘呓K止服務(wù),。
解讀:對于生成式人工智能的“非法輸出”,政府可以說是有預(yù)見的,,并不是一刀切的禁止,,而是給企業(yè)留有相當(dāng)?shù)挠嗟亍R环矫嫣峁┱咝枰⒂脩敉对V接收處理機制,,另一方面需要主動進行內(nèi)容核查,,發(fā)現(xiàn)違法內(nèi)容及時采取措施,停止服務(wù),,防止危害持續(xù)生成,,并在限定時間內(nèi)優(yōu)化模型。這對提供商整個模型反饋更新機制提出了很高的要求,。
寫在最后
目前《辦法》還處在征求意見階段,,未來一定會收納各方意見進行調(diào)整?!掇k法》的出臺對于整個行業(yè)的發(fā)展是引導(dǎo),、也是壓力。各個開發(fā)者需要在數(shù)據(jù)維護,、模型設(shè)計,、模型輸出、用戶交互等全流程進行新的服務(wù)設(shè)計和改進,。目前世界范圍內(nèi)對生成式人工智能技術(shù)的重視不單單僅是重視技術(shù)本身,,更體現(xiàn)了對該技術(shù)背后蘊藏的解放和發(fā)展當(dāng)前其他領(lǐng)域生產(chǎn)力潛力的關(guān)注?!掇k法》的出臺顯示出我國對于生成式人工智能技術(shù)發(fā)展的關(guān)注與支持,,為相關(guān)科研機構(gòu)、企業(yè)的發(fā)展納入到合規(guī),、安全的框架之中,,這對于構(gòu)建本土化AIGC研發(fā)環(huán)境極其有利。(財富中文網(wǎng))
作者肖颯為財富中文網(wǎng)專欄作家,,“科技+金融”深度法律服務(wù)者
本內(nèi)容為作者獨立觀點,,不代表財富中文網(wǎng)立場。未經(jīng)允許不得轉(zhuǎn)載,。
編輯:劉蘭香