AI模型“生成不了白人”,谷歌高級副總裁道歉

蘇牧野
在美國國父一例中,Gemini違反了歷史常識,,而這令人發(fā)笑的低級錯(cuò)誤可能是最容易“糾正”的一類,。有技術(shù)專家分析Gemini出錯(cuò)原因時(shí)猜測,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現(xiàn)種族多樣性的關(guān)鍵詞,,比如用戶輸入的“一個(gè)廚師的肖像”這樣的提示語,,會被調(diào)整為“一位土著廚師的肖像”。
事實(shí)上,,人工智能最近幾年的發(fā)展一而再,、再而三地說明,人類專家越少的干預(yù)反而越能產(chǎn)生好的模型效果,。
換句話說,,“美國國父”是真實(shí)存在過的人物,對他們的描繪大致可以被判定為準(zhǔn)確或不準(zhǔn)確的,。相比較起來,,那些沒有正確答案的問題,,對AI來說要棘手得多。

福榮
谷歌Gemini的圖片生成功能因?yàn)檫^于“政治正確”,,生成了很多嚴(yán)重偏離事實(shí)的圖片,,遭到網(wǎng)友吐槽,稱其為“人工智能種族主義”,,谷歌致歉,,連夜下架Gemini文生圖功能,現(xiàn)在谷歌高級副總裁也來道歉了,,可見事態(tài)嚴(yán)重,。
大家肯定會好奇為什么會出現(xiàn)這個(gè)問題呢?我在網(wǎng)上看到一位谷歌AI的前高管說法:谷歌可能在背后在用戶提示詞基礎(chǔ)上添加了種族多樣性術(shù)語,。在這種情況下,,像“士兵的肖像”這樣的提示詞可能會變成“土著士兵的肖像”。在這種情況下,,可以隨機(jī)選擇附加術(shù)語,,那么谷歌算法上的某種“政治正確”就很可能會更加優(yōu)先地顯示基于深色膚色生成的圖像。比如說,,如果 Gemini 為每個(gè)提示生成 10 張圖像,,谷歌會讓系統(tǒng)分析圖像中描繪的人的膚色,并將膚色較深的人的圖像推到隊(duì)列中的較高位置,。因此,,如果 Gemini 只顯示前 4 張圖,那么最有可能看到膚色較深的,。這也就解釋了為什么人們看到這些本應(yīng)是白人形象的歷史人物變成深膚色了,。
我感覺這會是一個(gè)轉(zhuǎn)折點(diǎn)事件。大家都知道互聯(lián)網(wǎng)平臺發(fā)布內(nèi)容都是要進(jìn)行內(nèi)容審核,。很顯然這次Gemini沒有進(jìn)行審核,,也很難審核,這是否意味著未來加強(qiáng)AIGC的監(jiān)管會先從內(nèi)容審核切入,?讓我們拭目以待吧,。