OpenAI董事會之爭似已告一段落,,但它預(yù)示著,,AI技術(shù)帶給人類社會的沖擊以及人類圍繞它的思辨,才剛剛開始,。
這場爭議被總結(jié)為“加速派”與“對齊派”之爭,。前者認(rèn)為應(yīng)當(dāng)加速AI研發(fā)及應(yīng)用,讓它盡快造福人類,,在發(fā)展中解決可能出現(xiàn)的問題,;后者則認(rèn)為應(yīng)當(dāng)謹(jǐn)慎行事,先要確保AI“對齊”人類利益,,并為之設(shè)置足夠護(hù)欄后,,再推進(jìn)技術(shù)進(jìn)步。兩派意見都有著大量擁躉,。
一位接近OpenAI的知情者引述一位前董事會成員說:“我們每向人工智能靠近一步,,每個人都會承受十分的精神錯亂”——那些站在AI技術(shù)最前沿、有可能在可見的未來為通用人工智能(AGI)“接生”的技術(shù)公司決策者們肩負(fù)的巨大責(zé)任,,從這句話中可窺一斑,。
這些技術(shù)人今天所做的思考與決策,將決定未來人類與AI的共處方式,。
在近日于上海舉辦的2023年《財富》MPW女性峰會上,,三位來自技術(shù)企業(yè)的女性高管以及一位女性技術(shù)學(xué)者同臺,圍繞AI路線之爭,、如何構(gòu)建負(fù)責(zé)任的AI,、女性在AI研發(fā)中的作用等議題分享了思考與實踐。以下為編輯后的對話實錄:

王昉:我想從最近大熱的電影《奧本海默》談起,。奧本海默是個天才物理學(xué)家,發(fā)明了核彈,,但后來悲哀地發(fā)現(xiàn)核彈可以被用來毀滅人類,。很多人認(rèn)為,,在這一點上,AI 與核技術(shù)高度類似,。請問董老師,,您同意嗎?
董潔林:AI和核技術(shù)完全不同,。核技術(shù)的邊界非常清晰,,它對人類的好處和壞處,大家也都理解得很明白,。另外它的制造門檻非常高,。各個國家一旦認(rèn)識到它的負(fù)面破壞力,可以用政策和手段來控制它的擴(kuò)散,。
但是AI不一樣,,它帶來的善和惡是混搭的。研發(fā)大模型的技術(shù)門檻比較高一點,,但沒有那么高,,應(yīng)用這個技術(shù)的門檻則比較低,所以它非常容易擴(kuò)散?,F(xiàn)在的開源模式下,,它已經(jīng)擴(kuò)散得到處都是了。在這個情況下,,AI在未來行善作惡的可能性,,讓很多人充滿期待的同時,讓另一些人憂心忡忡,。所以AI與核是非常不同的兩類科技,。
王昉:在OpenAI之爭中,代表“對齊派”的OpenAI首席科學(xué)家伊利亞·蘇茨克維爾(Ilya Sutskever)打過一個讓我印象深刻的比方,。他說,,未來AI將會監(jiān)管人類,那時的AI對于人類,,就像今天的人類對寵物一樣,,人類并不憎恨寵物,但是當(dāng)人類決定在城市與城市之間修建高速公路的時候,,也不會向?qū)櫸飩冋髑笠庖?;?dāng)未來的AI可以自行其是的時候,也不會來向人類征求意見,。我們該怎么看這個比喻,?
董潔林:AI與人的關(guān)系,和人與寵物的關(guān)系還是非常不一樣的,因為寵物不是人創(chuàng)造的,,而AI是人創(chuàng)造的,。寵物頂多是在跟人互動的過程中形成了某一種關(guān)系,這個關(guān)系一直在演化,。但AI是人創(chuàng)造的,,在創(chuàng)造的過程中,我們有主動權(quán)來決定它能做什么,、不能做什么,。即使將來有一天它有了某種“自主性”,人類依然可以為它設(shè)置負(fù)面清單,,使得它在做“決策”時無法做一些事情,,必須人來做。所以這個事情還是可控的,,沒有必要自己嚇自己,。
王昉:伊利亞認(rèn)為,AGI,,也就是通用人工智能技術(shù),,一旦問世,將不斷進(jìn)化,。如果它誕生之初的代碼沒寫對,,它將在歧路上越走越遠(yuǎn)。那么,,我們現(xiàn)在怎么才能把代碼“寫對”,?
崔麗:首先,大模型或生成式AI還處于技術(shù)發(fā)展初期,,技術(shù),、生態(tài)、市場都在快速迭代之中,,因此,,僅憑預(yù)判和思考來提前解決未來可能出現(xiàn)的問題是非常困難的。所以我主張在發(fā)展中去發(fā)現(xiàn)問題,,解決問題,,去摸著石頭過河。
其次,,技術(shù)沒有善惡,,善惡在人,。AI的本質(zhì)依然是硅基,、無機(jī)、數(shù)學(xué)范疇。而人類則是碳基,、有機(jī)生物,,除了自然科學(xué)還有社會科學(xué),人類的認(rèn)知,、決策和行為都有深刻的文化,、歷史、價值觀等背景,。AI甚至不理解什么叫“責(zé)任”,,更談不上“負(fù)責(zé)”,因此,,應(yīng)當(dāng)是由人類去負(fù)責(zé)任地構(gòu)建,、使用和監(jiān)管AI。
目前產(chǎn)業(yè)界已經(jīng)為AI設(shè)定了一個3H的理想目標(biāo):Helpful,,即幫助使用者解決他們的問題,;Honest即不捏造資訊或誤導(dǎo)使用者;Harmless即不能對人或環(huán)境造成物理,、心理,、社會危害,與人類價值觀對齊,。
然而這些原則非常寬泛,,我們需要更具體地考慮諸如幻覺(hallucination)、黑盒帶來的不可解釋性和不可控性,,隱私,、偏見、濫用和資源消耗等等問題,。為應(yīng)對這些挑戰(zhàn),,我們需要在四大方面去努力,依次是安全,、公平,、透明和高效。
此外,,還需結(jié)合應(yīng)用場景來考慮問題,,比如面向大規(guī)模公眾的應(yīng)用,要更多關(guān)注安全和公平,,而面向特定領(lǐng)域的應(yīng)用則需要同時關(guān)注準(zhǔn)確,、安全、透明和高效,。比如說,,如果AI給出的答案用在創(chuàng)意領(lǐng)域,那沒太大關(guān)系,但是如果用在專業(yè)領(lǐng)域,,比如醫(yī)療或電信行業(yè),,我們當(dāng)然不希望它一拍腦袋整個網(wǎng)絡(luò)就宕機(jī)了。
王昉:幻覺(hallucination)是生成式AI目前存在的比較突出的問題,。我們應(yīng)當(dāng)如何更好地訓(xùn)練AI,?
崔麗:一是“換位思考,因材施教”,,比如將我們虛擬的概念或?qū)R要求,,轉(zhuǎn)化成AI的語境,壓縮空間或聯(lián)合概率,,徹底回歸到對它更有效的工作方式上,,因材施教,提高輸出更準(zhǔn)確內(nèi)容的概率,。二是原型知識萃取,,加強(qiáng)數(shù)據(jù)治理,比如在給予虛擬概念時需要謹(jǐn)慎,,同時常識或原型類知識優(yōu)先級應(yīng)該提升,,而不是完全平等地考慮精調(diào)。最后是“用魔法打敗魔法”,,我們可以采用Agent或多個優(yōu)秀大模型聯(lián)合決策,,對各自形成制衡。合理的組織設(shè)計可以減少犯錯的次數(shù),。
王昉:OpenAI戰(zhàn)火告一段落之后,,《紐約時報》發(fā)布了一篇文章,標(biāo)題是“AI belongs to the capitalists now”,,意思就是資本主義又一次獲得了勝利,。資本總是勝利嗎?IBM也做很多與AI相關(guān)的研發(fā),,內(nèi)部是如何思考AI發(fā)展方向的,?
孟繁晶:IBM一直是AI技術(shù)的創(chuàng)造者和推動者,在我們看來,,AI一定是要負(fù)責(zé)任的,。我們最近與Meta以及50多家機(jī)構(gòu)、大學(xué),、開源社區(qū)一起,,構(gòu)建了一個AI Alliance,承諾把所有的技術(shù)開放出去,,讓大家一起來避免出現(xiàn)一些負(fù)面的仇恨,,或者對人類的威脅,。
我認(rèn)為,負(fù)責(zé)任AI有兩個層面的含義,。一是,如何負(fù)責(zé)任地研發(fā)AI技術(shù),?在IBM,,我們開發(fā)了一個叫“watsonx”的平臺,提供全生命周期的AI訓(xùn)練,、驗證以及部署,,既監(jiān)管數(shù)據(jù)——數(shù)據(jù)里如果就有偏見,就有仇恨,,最后的模型一定會學(xué)到,,又監(jiān)管整個AI的模型——在運行過程當(dāng)中,模型有沒有出現(xiàn)偏移和仇恨,?
負(fù)責(zé)任AI的另一層含義是,,AI可以對我們的可持續(xù)發(fā)展作出巨大貢獻(xiàn)。舉個簡單的例子,,IBM和很多機(jī)構(gòu)合作,,嘗試用AI來解決人口拐賣這個社會問題。人口拐賣80%的受害者是女性和兒童,,為什么這個行業(yè)一直都存在,?因為高暴利,利潤高達(dá)1500億美金,,跟毒品,、走私一樣。我們可以把跟人口拐賣相關(guān)的各個利益鏈條上的所有數(shù)據(jù),,包含交通數(shù)據(jù),、衛(wèi)星數(shù)據(jù)、銀行間的轉(zhuǎn)賬數(shù)據(jù),,融合在一起后交給AI模型,,就可以在交易發(fā)生的過程中甚至之前就發(fā)現(xiàn)風(fēng)險,預(yù)防拐賣行為的發(fā)生,。
王昉:圍繞AI研發(fā)是盡量加速還是步伐慢一點,,IBM內(nèi)部有沒有過爭論?
孟繁晶:不僅是爭論,,IBM已經(jīng)付諸行動,。我們內(nèi)部有一個AI倫理委員會,審查相關(guān)所有工作,,我們決定做審慎的AI技術(shù),,也就是有所為有所不為,。一個典型例子是,IBM做了一個決定,,雖然人臉識別技術(shù)可以解決很多問題,,但是因為我們沒有辦法確信它將只被用在向善的方面,所以我們放棄了人臉識別相關(guān)的所有研究工作,。
王昉:來自南京的硅基智能站在AI應(yīng)用的前沿,,已經(jīng)為全世界50萬人他們制作了數(shù)字分身。你們是堅定的“加速派”,?
陳莉萍:對,,我們是科技加速派。只需看看,,過去300多年的技術(shù)發(fā)展,,并沒有給人類造成非常大的沖擊,而是給人類帶來了很多的便利性,。當(dāng)然每個技術(shù)在初期會帶來一些風(fēng)險,,比如汽車發(fā)明的時候會代替馬車,但是也會發(fā)生交通事故?,F(xiàn)在的新能源車也可能會引起火災(zāi),,但是大家還是會選擇它,這是一個進(jìn)化的方向,。所以我們認(rèn)為,,發(fā)展中遇到的問題,一定是由發(fā)展來解決,,也一定能夠解決,。
硅基智能是2017年成立的,那時大家對“硅基”兩個字還比較陌生,。我們認(rèn)為AI基于硅基,,是一種生命體,我們就是一家在實驗室里造生命體的公司,。我們的愿景是2025年為全球創(chuàng)造1億硅基勞動力,,為各行各業(yè)服務(wù)。
比如我們會生產(chǎn)數(shù)字老師,,讓成千上萬的孩子擁有家庭教師的陪伴,;我們可以生產(chǎn)數(shù)字醫(yī)生,讓更多的患者擁有醫(yī)療顧問,,隨時了解自己的醫(yī)療方案,;我們也去做很多的數(shù)字律師,讓更多人獲取法律援助,。我們認(rèn)為這就是一種科技向善,。
我們?nèi)绾巫孉I負(fù)責(zé)任,?首先,在大模型的訓(xùn)練過程中,,我們遵循了阿希莫夫的“機(jī)器人三定律”:機(jī)器人不能傷害人類,;它們必須服從于人類;它們必須保護(hù)自己,。其次,,在大模型的訓(xùn)練過程當(dāng)中,我們增加了一個訓(xùn)練,,叫“人類反饋強(qiáng)化學(xué)習(xí)”,通過人為標(biāo)注,,告訴它人類更喜歡哪些結(jié)果,,這樣訓(xùn)練出來的模型就更偏向于人類的價值觀和選擇偏好。
崔麗:對于如何讓AI更負(fù)責(zé),,我補(bǔ)充一些看法,。在立法及監(jiān)管側(cè),我們可以強(qiáng)制要求對AI生成的內(nèi)容做標(biāo)識,,同時應(yīng)區(qū)別對待客觀問題——比如幻覺,、黑盒,和主觀問題——包括隱私,、IPR,、濫用等。法規(guī)也要與時俱進(jìn),,加強(qiáng)對偏主觀問題的約束,,而對于偏客觀問題,應(yīng)該給予一定的容錯空間,,以促進(jìn)創(chuàng)新,。此外,我們可以嘗試將現(xiàn)有的大模型納入立法建設(shè)中,,尊重大模型的知識來賦能現(xiàn)有的監(jiān)管體系,。最后,我們普通人作為AI技術(shù)的使用者,,不應(yīng)該過度依賴AI,,要保持獨立思考和批判性思維。
王昉:雖然 OpenAI事件中,,出現(xiàn)了一位短暫出任CEO的女性,,但AI競技場中的前臺活躍人物,包括馬斯克,、扎克伯格,、奧特曼,,絕大多數(shù)還是男性。在AI技術(shù)的發(fā)展中,,女性缺失會帶來什么樣的問題,?
董潔林:女性缺失會造成很嚴(yán)重的女性歧視,女性現(xiàn)在馬上應(yīng)該做的就是參與,。從學(xué)生時代開始,,女生要大量進(jìn)入理工科領(lǐng)域,進(jìn)入計算機(jī)和與AI相關(guān)的行業(yè),,不參與就會受到歧視,。等到歧視已經(jīng)發(fā)生,再呼吁平權(quán)就太晚了,。
實際上女性參與的主要障礙是我們自己,,大學(xué)理工科一般并不歧視女生,但是女性自己選擇不參與,,可能因為缺乏興趣,,可能因為其他原因,這導(dǎo)致技術(shù)公司中女性程序員比較少,,產(chǎn)品經(jīng)理人也比較少,,高管也比較少,董事會成員也比較少,。女性要把自己的障礙去掉,,從做學(xué)生開始參與到AI大潮中,我相信這樣做的社會回報和個人經(jīng)濟(jì)回報都會是非常高的,。
孟繁晶:呼應(yīng)一下董老師的觀點,。IBM從2019年開始做 “千人百校AI啟蒙季”,面對中小學(xué)生推開,,要在他們心中種一個小種子,。IBM中研發(fā)體系中,女性占50%,,所以在技術(shù)研發(fā)那一刻起,,男女生已經(jīng)在一起了。
王昉:請問硅基智能的莉萍,,找你們做數(shù)字人分身的,,是女性多還是男性多?
陳莉萍:很多女性已經(jīng)參與到這個行業(yè)里面來,,用自己的數(shù)字分身做知識博主,、做直播。數(shù)字世界特別適合展現(xiàn)美的文化,,而女性更容易展示自己的美,,所以她們更有優(yōu)勢利用數(shù)字化的平臺展示自己,,甚至不一定要掌握很多技術(shù)的女性都很容易在這個平臺上找到自己的定位。
王昉:AI時代,,女性管理者是否更有優(yōu)勢,?
崔麗:在這個事情上,男人女人是共同體,,大家應(yīng)該把自己的優(yōu)勢貢獻(xiàn)出來,。女性的優(yōu)勢是非常敏感,可以獲取多元的知識,,本能意識到危機(jī),;容易有直覺,且往往是基于常識的判斷,;而且女性通常更包容及有同理心,。如果能夠有效的將這些特點與男性的優(yōu)勢相結(jié)合,可以共同推動AI向更好的方向發(fā)展,。(財富中文網(wǎng))