國(guó)家網(wǎng)信辦:利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確

肖颯
本《辦法》征求意見(jiàn)稿的出臺(tái)可謂在近期大火的生成式人工智能行業(yè)中掀起軒然大波,,就此颯姐團(tuán)隊(duì)對(duì)《辦法》的具體條款進(jìn)行解讀,。
第一條:為促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律,、行政法規(guī),,制定本辦法。
從立法路徑而言,,該辦法是在網(wǎng)安法,、數(shù)安法、個(gè)保法“三駕馬車(chē)”的前提下提出的,,因此企業(yè)應(yīng)該關(guān)注生成式人工智能服務(wù)的本質(zhì),。該類(lèi)服務(wù)首先是一個(gè)網(wǎng)絡(luò)應(yīng)用,其次是一個(gè)“數(shù)據(jù)密集型”應(yīng)用,,且極其容易觸碰“個(gè)人信息”的雷區(qū),,因此在合規(guī)中企業(yè)不僅僅需要關(guān)注本辦法,,更多的是關(guān)注監(jiān)管要求的沿革路徑,其相對(duì)于網(wǎng)安數(shù)安個(gè)保法的基礎(chǔ)性條款有了哪些地方新的升級(jí)和新的要求,。
第二條:研發(fā),、利用生成式人工智能產(chǎn)品,面向中華人民共和國(guó)境內(nèi)公眾提供服務(wù)的,,適用本辦法,。
本辦法所稱(chēng)生成式人工智能,是指基于算法,、模型,、規(guī)則生成文本、圖片,、聲音,、視頻、代碼等內(nèi)容的技術(shù),。
解讀:本條規(guī)定了《辦法》監(jiān)管對(duì)象的范圍,。當(dāng)生成式人工智能的產(chǎn)品不再是內(nèi)部的自行使用、測(cè)試使用或是為某個(gè)領(lǐng)域某個(gè)企業(yè)的定向開(kāi)發(fā),,而是在互聯(lián)網(wǎng)上向公眾提供公開(kāi)的服務(wù)時(shí)便需要符合本法規(guī),。
何為“生成式人工智能”,第二條第二款中給出了一個(gè)十分寬泛的定義,,廣義的“算法模型和規(guī)則生成文本,、圖片、聲音的”可以涵蓋大多數(shù)網(wǎng)絡(luò)應(yīng)用,,任何人工信息的輸入皆需要經(jīng)過(guò)算法模型或者是一定規(guī)則的處理,,最終以另一種信息的表現(xiàn)形式呈現(xiàn)在輸出端,因此在實(shí)務(wù)中執(zhí)法部門(mén)如何理解“生成”二字尤為重要,。
第四條:提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,,尊重社會(huì)公德、公序良俗,,符合以下要求:
(一)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會(huì)主義核心價(jià)值觀,,不得含有顛覆國(guó)家政權(quán)、推翻社會(huì)主義制度,,煽動(dòng)分裂國(guó)家,、破壞國(guó)家統(tǒng)一,宣揚(yáng)恐怖主義,、極端主義,,宣揚(yáng)民族仇恨、民族歧視,,暴力,、淫穢色情信息,,虛假信息,以及可能擾亂經(jīng)濟(jì)秩序和社會(huì)秩序的內(nèi)容,。
(二)在算法設(shè)計(jì),、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化,、提供服務(wù)等過(guò)程中,,采取措施防止出現(xiàn)種族、民族,、信仰,、國(guó)別、地域,、性別,、年齡、職業(yè)等歧視,。
(三)尊重知識(shí)產(chǎn)權(quán),、商業(yè)道德,不得利用算法,、數(shù)據(jù),、平臺(tái)等優(yōu)勢(shì)實(shí)施不公平競(jìng)爭(zhēng)。
(四)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,,采取措施防止生成虛假信息。
(五)尊重他人合法利益,,防止傷害他人身心健康,,損害肖像權(quán)、名譽(yù)權(quán)和個(gè)人隱私,,侵犯知識(shí)產(chǎn)權(quán),。禁止非法獲取、披露,、利用個(gè)人信息和隱私,、商業(yè)秘密。
解讀:此條可謂是實(shí)質(zhì)統(tǒng)領(lǐng)性的條款,,關(guān)注內(nèi)容,、算法、數(shù)據(jù),、平臺(tái)不正競(jìng)爭(zhēng),、用戶(hù)隱私等各個(gè)層面的問(wèn)題。首先是以國(guó)家統(tǒng)一,、國(guó)家安全為第一要?jiǎng)?wù),,重視內(nèi)容監(jiān)管,。生成內(nèi)容不能觸碰違反社會(huì)主義核心價(jià)值觀的底線(xiàn),且謹(jǐn)防打著人工智能的旗號(hào)進(jìn)行違法有害內(nèi)容的有意輸出,。其次是謹(jǐn)防“算法偏見(jiàn)”現(xiàn)象,。除了杜絕主動(dòng)輸出危害內(nèi)容之外,也對(duì)在算法設(shè)計(jì),、數(shù)據(jù)選取等較為隱性的服務(wù)實(shí)現(xiàn)步驟進(jìn)行規(guī)制,,實(shí)現(xiàn)從模型到數(shù)據(jù)的全過(guò)程平等無(wú)偏見(jiàn)。
同時(shí),,提前為可能在算法,、算力、數(shù)據(jù)等方面的壟斷的企業(yè)打了“預(yù)防針”,。國(guó)家提倡數(shù)字時(shí)代的共享共治,,在保護(hù)企業(yè)智力成果、投入成本的同時(shí)也謹(jǐn)防惡性競(jìng)爭(zhēng),、市場(chǎng)壟斷等行為的發(fā)生,。
可以看出政府努力引領(lǐng)“可信”生成式人工智能服務(wù)的發(fā)展。對(duì)于該類(lèi)服務(wù)來(lái)說(shuō)“可信”是最難以達(dá)成的,,黑箱模型使得很少有有效手段阻止模型輸出內(nèi)容的“胡說(shuō)八道”,,即便是行業(yè)頂尖的GPT-4也難以避免該現(xiàn)象的發(fā)生。并且,,核心問(wèn)題指向服務(wù)生成內(nèi)容可信程度的波動(dòng)化,,一時(shí)超常的準(zhǔn)確表現(xiàn),一時(shí)難以分辨的潛藏錯(cuò)誤是阻礙對(duì)該類(lèi)服務(wù)賦予更多信任的主要原因,。因此第四條第四款中只是要求企業(yè)采取一定的措施對(duì)生成內(nèi)容準(zhǔn)確性進(jìn)行維護(hù),。
第五條:利用生成式人工智能產(chǎn)品提供聊天和文本、圖像,、聲音生成等服務(wù)的組織和個(gè)人(以下稱(chēng)“提供者”),,包括通過(guò)提供可編程接口等方式支持他人自行生成文本、圖像,、聲音等,,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任;
解讀:第五條進(jìn)一步明確在公眾用戶(hù)和產(chǎn)品服務(wù)提供商之間的關(guān)系,,將“生成內(nèi)容生產(chǎn)者”的責(zé)任劃歸到產(chǎn)品服務(wù)提供商(文中稱(chēng)為“提供者”)之下,。在這里有些很有趣的地方,譬如A公司調(diào)用B公司的接口向公眾C提供服務(wù),,誰(shuí)是內(nèi)容提供商,?若B公司的接口并不向公眾開(kāi)放,而是通過(guò)其他方式供給于A,,那么A才需要承擔(dān)法律上內(nèi)容生產(chǎn)者的責(zé)任,;但若B公司也以公開(kāi)的形式向A公司出售服務(wù),,那么AB兩公司權(quán)利義務(wù)關(guān)系依照本辦法可能還存在模糊之處。
《辦法》中將將數(shù)據(jù)合法性也劃歸到“提供者”之下,,對(duì)服務(wù)背后的數(shù)據(jù)進(jìn)行統(tǒng)一的要求,,可以看出日后提供者身份的“認(rèn)定”是兵家必爭(zhēng)之地。該條最直接的意義便是對(duì)模型輸入端進(jìn)行優(yōu)化,,從而盡可能地保證輸出端內(nèi)容的純凈性,、準(zhǔn)確性。從長(zhǎng)遠(yuǎn)的來(lái)看,,該要求對(duì)整個(gè)數(shù)據(jù)相關(guān)產(chǎn)業(yè)鏈提出的新的要求,,是對(duì)整個(gè)行業(yè)數(shù)據(jù)收集、傳輸,、交易,、檢驗(yàn)、維護(hù)與保護(hù)的全面規(guī)制,。同時(shí)也完全符合現(xiàn)行立法對(duì)數(shù)據(jù)處理的各方面要求,,能夠極大程度防止后續(xù)違法行為的發(fā)生,屬于一舉多得,。
第八條:生成式人工智能產(chǎn)品研制中采用人工標(biāo)注時(shí),,提供者應(yīng)當(dāng)制定符合本辦法要求,清晰,、具體,、可操作的標(biāo)注規(guī)則,對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn),,抽樣核驗(yàn)標(biāo)注內(nèi)容的正確性,。
解讀:網(wǎng)絡(luò)中對(duì)此條款的爭(zhēng)議很大,說(shuō)很有可能促使誕生“打標(biāo)員”這一新職業(yè),,人工智能行業(yè)也可以是“勞動(dòng)密集型”的,。事實(shí)上,,標(biāo)注的成本不論是過(guò)去還是現(xiàn)在都是相當(dāng)?shù)母叩?,為了?biāo)注的準(zhǔn)確性,減少錯(cuò)誤標(biāo)注的數(shù)據(jù)污染,,復(fù)雜的規(guī)則制定,、培訓(xùn)、檢驗(yàn)已經(jīng)成為行業(yè)的基本操作,,服務(wù)的開(kāi)發(fā)者會(huì)自發(fā)使得標(biāo)注盡量標(biāo)準(zhǔn)化來(lái)提高模型的表現(xiàn),。
第十條:提供者應(yīng)當(dāng)明確并公開(kāi)其服務(wù)的適用人群、場(chǎng)合,、用途,,采取適當(dāng)措施防范用戶(hù)過(guò)分依賴(lài)或沉迷生成內(nèi)容,。
解讀:這條的設(shè)立頗具有先見(jiàn)之明的。在過(guò)去,,網(wǎng)絡(luò)服務(wù)提供內(nèi)容導(dǎo)致用戶(hù)沉迷的例子不在少數(shù),,而深度合成內(nèi)容具有高度的擬人性和強(qiáng)交互性,讓人難以區(qū)分,,很可能會(huì)深陷其中,,不愿接受現(xiàn)實(shí)的樣子。不符合法律規(guī)定的相關(guān)服務(wù)很有可能成為新時(shí)代的“賽博大煙”,。
第十一條:提供者在提供服務(wù)過(guò)程中,,對(duì)用戶(hù)的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù)。不得非法留存能夠推斷出用戶(hù)身份的輸入信息,,不得根據(jù)用戶(hù)輸入信息和使用情況進(jìn)行畫(huà)像,,不得向他人提供用戶(hù)輸入信息。法律法規(guī)另有規(guī)定的,,從其規(guī)定,。
解讀:信息泄露問(wèn)題在對(duì)話(huà)式內(nèi)容生成服務(wù)中已經(jīng)初見(jiàn)端倪。服務(wù)提供者為了根據(jù)用戶(hù)的輸入提供“完全個(gè)性化”的輸出,,需要將輸入投喂到模型當(dāng)中,,很難在數(shù)據(jù)處理的過(guò)程中保證數(shù)據(jù)的“靜止性”。近期中國(guó)支付清算協(xié)會(huì)也發(fā)布倡議書(shū),,提示支付行業(yè)從業(yè)人員合規(guī)使用ChatGPT等工具,,以避免行業(yè)關(guān)鍵數(shù)據(jù)泄露風(fēng)險(xiǎn)。
“畫(huà)像”是一個(gè)行業(yè)中的詞,,并沒(méi)有規(guī)范的定義,,何種行為可以被定義為“畫(huà)像”也是至關(guān)重要的問(wèn)題。對(duì)用戶(hù)輸入的整合和統(tǒng)計(jì)當(dāng)然的可以提供更為個(gè)性化的服務(wù),,微軟近期的服務(wù)甚至可以將本地文件內(nèi)容整合其中,,但是這種行為在本條中似乎被排除。之后行業(yè)如何在不“畫(huà)像”的情形下提供更為智能的服務(wù)是整個(gè)行業(yè)需要思考的問(wèn)題,。
第十三條:提供者應(yīng)當(dāng)建立用戶(hù)投訴接收處理機(jī)制,,及時(shí)處置個(gè)人關(guān)于更正、刪除,、屏蔽其個(gè)人信息的請(qǐng)求,;發(fā)現(xiàn)、知悉生成的文本,、圖片,、聲音、視頻等侵害他人肖像權(quán)、名譽(yù)權(quán),、個(gè)人隱私,、商業(yè)秘密,或者不符合本辦法要求時(shí),,應(yīng)當(dāng)采取措施,,停止生成,防止危害持續(xù),。
第十五條:對(duì)于運(yùn)行中發(fā)現(xiàn),、用戶(hù)舉報(bào)的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過(guò)濾等措施外,,應(yīng)在3個(gè)月內(nèi)通過(guò)模型優(yōu)化訓(xùn)練等方式防止再次生成,。
第十九條:提供者發(fā)現(xiàn)用戶(hù)利用生成式人工智能產(chǎn)品過(guò)程中違反法律法規(guī),違背商業(yè)道德,、社會(huì)公德行為時(shí),,包括從事網(wǎng)絡(luò)炒作、惡意發(fā)帖跟評(píng),、制造垃圾郵件,、編寫(xiě)惡意軟件,實(shí)施不正當(dāng)?shù)纳虡I(yè)營(yíng)銷(xiāo)等,,應(yīng)當(dāng)暫?;蛘呓K止服務(wù)。
解讀:對(duì)于生成式人工智能的“非法輸出”,,政府可以說(shuō)是有預(yù)見(jiàn)的,,并不是一刀切的禁止,而是給企業(yè)留有相當(dāng)?shù)挠嗟?。一方面提供者需要建立用?hù)投訴接收處理機(jī)制,,另一方面需要主動(dòng)進(jìn)行內(nèi)容核查,發(fā)現(xiàn)違法內(nèi)容及時(shí)采取措施,,停止服務(wù),,防止危害持續(xù)生成,并在限定時(shí)間內(nèi)優(yōu)化模型,。這對(duì)提供商整個(gè)模型反饋更新機(jī)制提出了很高的要求,。
寫(xiě)在最后
目前《辦法》還處在征求意見(jiàn)階段,未來(lái)一定會(huì)收納各方意見(jiàn)進(jìn)行調(diào)整,?!掇k法》的出臺(tái)對(duì)于整個(gè)行業(yè)的發(fā)展是引導(dǎo),、也是壓力,。各個(gè)開(kāi)發(fā)者需要在數(shù)據(jù)維護(hù)、模型設(shè)計(jì)、模型輸出,、用戶(hù)交互等全流程進(jìn)行新的服務(wù)設(shè)計(jì)和改進(jìn),。目前世界范圍內(nèi)對(duì)生成式人工智能技術(shù)的重視不單單僅是重視技術(shù)本身,更體現(xiàn)了對(duì)該技術(shù)背后蘊(yùn)藏的解放和發(fā)展當(dāng)前其他領(lǐng)域生產(chǎn)力潛力的關(guān)注,?!掇k法》的出臺(tái)顯示出我國(guó)對(duì)于生成式人工智能技術(shù)發(fā)展的關(guān)注與支持,為相關(guān)科研機(jī)構(gòu),、企業(yè)的發(fā)展納入到合規(guī),、安全的框架之中,這對(duì)于構(gòu)建本土化AIGC研發(fā)環(huán)境極其有利,。

六和璧
在ChatGPT和Bard這類(lèi)工具大火,,國(guó)內(nèi)科技巨頭紛紛加碼投資這個(gè)領(lǐng)域之際,《辦法》可以說(shuō)對(duì)于促進(jìn)行業(yè)的健康發(fā)展具有積極意義,。
雖然現(xiàn)在是征求意見(jiàn)階段,,但我觀察過(guò)大部分政策的意見(jiàn)稿和最終版,差別是很小的,。因此對(duì)于這一版,,倒也可以視作是正式的政策來(lái)看。
第四條提到“生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確”,,這非??量獭<词故荂hatGPT這樣的工具,,也無(wú)法確保每一個(gè)都是“真實(shí)準(zhǔn)確”,,而像Midjourney本身就是創(chuàng)意性質(zhì)的圖像生成工具,其生成的一系列特朗普被捕入獄的照片已經(jīng)到了“以假亂真”的程度,,因此如果一刀切“真實(shí)性”,,那無(wú)疑門(mén)檻太高也會(huì)扼殺一些創(chuàng)意性質(zhì)的軟件。
而第六條中“網(wǎng)信部門(mén)申報(bào)安全評(píng)估”的要求無(wú)疑也是監(jiān)管加碼的表現(xiàn),,這也許會(huì)限制類(lèi)似產(chǎn)品開(kāi)發(fā)的進(jìn)度和節(jié)奏,。
ChenQ
那得人工智能技術(shù)的非常成熟了

Samcmo
政府(各國(guó)ai應(yīng)用管理)都表現(xiàn)出了審慎地相對(duì)性保守——所以管理的政府危機(jī)爆發(fā)度不是一般的高!微軟/谷歌/open-ai不是現(xiàn)在急于研究一致推出標(biāo)準(zhǔn)化,,而應(yīng)該建立公關(guān)發(fā)展委員會(huì)-危機(jī)公關(guān)研究應(yīng)對(duì)中心的雙公關(guān)機(jī)制護(hù)航下的全球ai推廣,,在雙公關(guān)護(hù)航全球發(fā)展順利應(yīng)對(duì)成熟駕輕就速了再推出標(biāo)準(zhǔn)化。