OpenAI董事會之爭似已告一段落,,但它預(yù)示著,AI技術(shù)帶給人類社會的沖擊以及人類圍繞它的思辨,,才剛剛開始,。
這場爭議被總結(jié)為“加速派”與“對齊派”之爭。前者認(rèn)為應(yīng)當(dāng)加速AI研發(fā)及應(yīng)用,,讓它盡快造福人類,,在發(fā)展中解決可能出現(xiàn)的問題;后者則認(rèn)為應(yīng)當(dāng)謹(jǐn)慎行事,,先要確保AI“對齊”人類利益,,并為之設(shè)置足夠護欄后,再推進技術(shù)進步,。兩派意見都有著大量擁躉,。
一位接近OpenAI的知情者引述一位前董事會成員說:“我們每向人工智能靠近一步,每個人都會承受十分的精神錯亂”——那些站在AI技術(shù)最前沿,、有可能在可見的未來為通用人工智能(AGI)“接生”的技術(shù)公司決策者們肩負(fù)的巨大責(zé)任,,從這句話中可窺一斑。
這些技術(shù)人今天所做的思考與決策,,將決定未來人類與AI的共處方式,。
在近日于上海舉辦的2023年《財富》MPW女性峰會上,三位來自技術(shù)企業(yè)的女性高管以及一位女性技術(shù)學(xué)者同臺,,圍繞AI路線之爭,、如何構(gòu)建負(fù)責(zé)任的AI、女性在AI研發(fā)中的作用等議題分享了思考與實踐,。以下為編輯后的對話實錄:
王昉:我想從最近大熱的電影《奧本海默》談起,。奧本海默是個天才物理學(xué)家,,發(fā)明了核彈,但后來悲哀地發(fā)現(xiàn)核彈可以被用來毀滅人類,。很多人認(rèn)為,,在這一點上,AI 與核技術(shù)高度類似,。請問董老師,,您同意嗎?
董潔林:AI和核技術(shù)完全不同,。核技術(shù)的邊界非常清晰,,它對人類的好處和壞處,大家也都理解得很明白,。另外它的制造門檻非常高,。各個國家一旦認(rèn)識到它的負(fù)面破壞力,可以用政策和手段來控制它的擴散,。
但是AI不一樣,,它帶來的善和惡是混搭的。研發(fā)大模型的技術(shù)門檻比較高一點,,但沒有那么高,,應(yīng)用這個技術(shù)的門檻則比較低,所以它非常容易擴散?,F(xiàn)在的開源模式下,,它已經(jīng)擴散得到處都是了。在這個情況下,,AI在未來行善作惡的可能性,,讓很多人充滿期待的同時,讓另一些人憂心忡忡,。所以AI與核是非常不同的兩類科技,。
王昉:在OpenAI之爭中,代表“對齊派”的OpenAI首席科學(xué)家伊利亞·蘇茨克維爾(Ilya Sutskever)打過一個讓我印象深刻的比方,。他說,,未來AI將會監(jiān)管人類,那時的AI對于人類,,就像今天的人類對寵物一樣,,人類并不憎恨寵物,但是當(dāng)人類決定在城市與城市之間修建高速公路的時候,,也不會向?qū)櫸飩冋髑笠庖姡划?dāng)未來的AI可以自行其是的時候,也不會來向人類征求意見,。我們該怎么看這個比喻,?
董潔林:AI與人的關(guān)系,和人與寵物的關(guān)系還是非常不一樣的,,因為寵物不是人創(chuàng)造的,,而AI是人創(chuàng)造的。寵物頂多是在跟人互動的過程中形成了某一種關(guān)系,,這個關(guān)系一直在演化,。但AI是人創(chuàng)造的,在創(chuàng)造的過程中,,我們有主動權(quán)來決定它能做什么,、不能做什么。即使將來有一天它有了某種“自主性”,,人類依然可以為它設(shè)置負(fù)面清單,,使得它在做“決策”時無法做一些事情,必須人來做,。所以這個事情還是可控的,,沒有必要自己嚇自己。
王昉:伊利亞認(rèn)為,,AGI,,也就是通用人工智能技術(shù),一旦問世,,將不斷進化,。如果它誕生之初的代碼沒寫對,它將在歧路上越走越遠(yuǎn),。那么,,我們現(xiàn)在怎么才能把代碼“寫對”?
崔麗:首先,,大模型或生成式AI還處于技術(shù)發(fā)展初期,,技術(shù)、生態(tài),、市場都在快速迭代之中,,因此,僅憑預(yù)判和思考來提前解決未來可能出現(xiàn)的問題是非常困難的,。所以我主張在發(fā)展中去發(fā)現(xiàn)問題,,解決問題,去摸著石頭過河,。
其次,,技術(shù)沒有善惡,,善惡在人。AI的本質(zhì)依然是硅基,、無機,、數(shù)學(xué)范疇。而人類則是碳基,、有機生物,,除了自然科學(xué)還有社會科學(xué),人類的認(rèn)知,、決策和行為都有深刻的文化,、歷史、價值觀等背景,。AI甚至不理解什么叫“責(zé)任”,,更談不上“負(fù)責(zé)”,因此,,應(yīng)當(dāng)是由人類去負(fù)責(zé)任地構(gòu)建,、使用和監(jiān)管AI。
目前產(chǎn)業(yè)界已經(jīng)為AI設(shè)定了一個3H的理想目標(biāo):Helpful,,即幫助使用者解決他們的問題,;Honest即不捏造資訊或誤導(dǎo)使用者;Harmless即不能對人或環(huán)境造成物理,、心理,、社會危害,與人類價值觀對齊,。
然而這些原則非常寬泛,,我們需要更具體地考慮諸如幻覺(hallucination)、黑盒帶來的不可解釋性和不可控性,,隱私,、偏見、濫用和資源消耗等等問題,。為應(yīng)對這些挑戰(zhàn),,我們需要在四大方面去努力,依次是安全,、公平,、透明和高效。
此外,,還需結(jié)合應(yīng)用場景來考慮問題,,比如面向大規(guī)模公眾的應(yīng)用,要更多關(guān)注安全和公平,,而面向特定領(lǐng)域的應(yīng)用則需要同時關(guān)注準(zhǔn)確,、安全,、透明和高效。比如說,,如果AI給出的答案用在創(chuàng)意領(lǐng)域,,那沒太大關(guān)系,但是如果用在專業(yè)領(lǐng)域,,比如醫(yī)療或電信行業(yè),我們當(dāng)然不希望它一拍腦袋整個網(wǎng)絡(luò)就宕機了,。
王昉:幻覺(hallucination)是生成式AI目前存在的比較突出的問題,。我們應(yīng)當(dāng)如何更好地訓(xùn)練AI?
崔麗:一是“換位思考,,因材施教”,,比如將我們虛擬的概念或?qū)R要求,轉(zhuǎn)化成AI的語境,,壓縮空間或聯(lián)合概率,,徹底回歸到對它更有效的工作方式上,因材施教,,提高輸出更準(zhǔn)確內(nèi)容的概率,。二是原型知識萃取,加強數(shù)據(jù)治理,,比如在給予虛擬概念時需要謹(jǐn)慎,,同時常識或原型類知識優(yōu)先級應(yīng)該提升,而不是完全平等地考慮精調(diào),。最后是“用魔法打敗魔法”,,我們可以采用Agent或多個優(yōu)秀大模型聯(lián)合決策,對各自形成制衡,。合理的組織設(shè)計可以減少犯錯的次數(shù),。
王昉:OpenAI戰(zhàn)火告一段落之后,《紐約時報》發(fā)布了一篇文章,,標(biāo)題是“AI belongs to the capitalists now”,,意思就是資本主義又一次獲得了勝利。資本總是勝利嗎,?IBM也做很多與AI相關(guān)的研發(fā),,內(nèi)部是如何思考AI發(fā)展方向的?
孟繁晶:IBM一直是AI技術(shù)的創(chuàng)造者和推動者,,在我們看來,,AI一定是要負(fù)責(zé)任的。我們最近與Meta以及50多家機構(gòu),、大學(xué),、開源社區(qū)一起,,構(gòu)建了一個AI Alliance,承諾把所有的技術(shù)開放出去,,讓大家一起來避免出現(xiàn)一些負(fù)面的仇恨,,或者對人類的威脅。
我認(rèn)為,,負(fù)責(zé)任AI有兩個層面的含義,。一是,如何負(fù)責(zé)任地研發(fā)AI技術(shù),?在IBM,,我們開發(fā)了一個叫“watsonx”的平臺,提供全生命周期的AI訓(xùn)練,、驗證以及部署,,既監(jiān)管數(shù)據(jù)——數(shù)據(jù)里如果就有偏見,就有仇恨,,最后的模型一定會學(xué)到,,又監(jiān)管整個AI的模型——在運行過程當(dāng)中,模型有沒有出現(xiàn)偏移和仇恨,?
負(fù)責(zé)任AI的另一層含義是,,AI可以對我們的可持續(xù)發(fā)展作出巨大貢獻。舉個簡單的例子,,IBM和很多機構(gòu)合作,,嘗試用AI來解決人口拐賣這個社會問題。人口拐賣80%的受害者是女性和兒童,,為什么這個行業(yè)一直都存在,?因為高暴利,利潤高達1500億美金,,跟毒品,、走私一樣。我們可以把跟人口拐賣相關(guān)的各個利益鏈條上的所有數(shù)據(jù),,包含交通數(shù)據(jù),、衛(wèi)星數(shù)據(jù)、銀行間的轉(zhuǎn)賬數(shù)據(jù),,融合在一起后交給AI模型,,就可以在交易發(fā)生的過程中甚至之前就發(fā)現(xiàn)風(fēng)險,預(yù)防拐賣行為的發(fā)生,。
王昉:圍繞AI研發(fā)是盡量加速還是步伐慢一點,,IBM內(nèi)部有沒有過爭論?
孟繁晶:不僅是爭論,,IBM已經(jīng)付諸行動,。我們內(nèi)部有一個AI倫理委員會,,審查相關(guān)所有工作,我們決定做審慎的AI技術(shù),,也就是有所為有所不為,。一個典型例子是,IBM做了一個決定,,雖然人臉識別技術(shù)可以解決很多問題,,但是因為我們沒有辦法確信它將只被用在向善的方面,所以我們放棄了人臉識別相關(guān)的所有研究工作,。
王昉:來自南京的硅基智能站在AI應(yīng)用的前沿,,已經(jīng)為全世界50萬人他們制作了數(shù)字分身。你們是堅定的“加速派”,?
陳莉萍:對,我們是科技加速派,。只需看看,,過去300多年的技術(shù)發(fā)展,并沒有給人類造成非常大的沖擊,,而是給人類帶來了很多的便利性,。當(dāng)然每個技術(shù)在初期會帶來一些風(fēng)險,比如汽車發(fā)明的時候會代替馬車,,但是也會發(fā)生交通事故?,F(xiàn)在的新能源車也可能會引起火災(zāi),但是大家還是會選擇它,,這是一個進化的方向,。所以我們認(rèn)為,發(fā)展中遇到的問題,,一定是由發(fā)展來解決,,也一定能夠解決。
硅基智能是2017年成立的,,那時大家對“硅基”兩個字還比較陌生,。我們認(rèn)為AI基于硅基,是一種生命體,,我們就是一家在實驗室里造生命體的公司,。我們的愿景是2025年為全球創(chuàng)造1億硅基勞動力,為各行各業(yè)服務(wù),。
比如我們會生產(chǎn)數(shù)字老師,,讓成千上萬的孩子擁有家庭教師的陪伴;我們可以生產(chǎn)數(shù)字醫(yī)生,,讓更多的患者擁有醫(yī)療顧問,,隨時了解自己的醫(yī)療方案,;我們也去做很多的數(shù)字律師,讓更多人獲取法律援助,。我們認(rèn)為這就是一種科技向善,。
我們?nèi)绾巫孉I負(fù)責(zé)任?首先,,在大模型的訓(xùn)練過程中,,我們遵循了阿希莫夫的“機器人三定律”:機器人不能傷害人類;它們必須服從于人類,;它們必須保護自己,。其次,在大模型的訓(xùn)練過程當(dāng)中,,我們增加了一個訓(xùn)練,,叫“人類反饋強化學(xué)習(xí)”,通過人為標(biāo)注,,告訴它人類更喜歡哪些結(jié)果,,這樣訓(xùn)練出來的模型就更偏向于人類的價值觀和選擇偏好。
崔麗:對于如何讓AI更負(fù)責(zé),,我補充一些看法,。在立法及監(jiān)管側(cè),我們可以強制要求對AI生成的內(nèi)容做標(biāo)識,,同時應(yīng)區(qū)別對待客觀問題——比如幻覺,、黑盒,和主觀問題——包括隱私,、IPR,、濫用等。法規(guī)也要與時俱進,,加強對偏主觀問題的約束,,而對于偏客觀問題,應(yīng)該給予一定的容錯空間,,以促進創(chuàng)新,。此外,我們可以嘗試將現(xiàn)有的大模型納入立法建設(shè)中,,尊重大模型的知識來賦能現(xiàn)有的監(jiān)管體系,。最后,我們普通人作為AI技術(shù)的使用者,,不應(yīng)該過度依賴AI,,要保持獨立思考和批判性思維。
王昉:雖然 OpenAI事件中,出現(xiàn)了一位短暫出任CEO的女性,,但AI競技場中的前臺活躍人物,,包括馬斯克、扎克伯格,、奧特曼,,絕大多數(shù)還是男性。在AI技術(shù)的發(fā)展中,,女性缺失會帶來什么樣的問題,?
董潔林:女性缺失會造成很嚴(yán)重的女性歧視,女性現(xiàn)在馬上應(yīng)該做的就是參與,。從學(xué)生時代開始,,女生要大量進入理工科領(lǐng)域,進入計算機和與AI相關(guān)的行業(yè),,不參與就會受到歧視,。等到歧視已經(jīng)發(fā)生,再呼吁平權(quán)就太晚了,。
實際上女性參與的主要障礙是我們自己,,大學(xué)理工科一般并不歧視女生,但是女性自己選擇不參與,,可能因為缺乏興趣,可能因為其他原因,,這導(dǎo)致技術(shù)公司中女性程序員比較少,,產(chǎn)品經(jīng)理人也比較少,高管也比較少,,董事會成員也比較少,。女性要把自己的障礙去掉,從做學(xué)生開始參與到AI大潮中,,我相信這樣做的社會回報和個人經(jīng)濟回報都會是非常高的,。
孟繁晶:呼應(yīng)一下董老師的觀點。IBM從2019年開始做 “千人百校AI啟蒙季”,,面對中小學(xué)生推開,,要在他們心中種一個小種子。IBM中研發(fā)體系中,,女性占50%,,所以在技術(shù)研發(fā)那一刻起,男女生已經(jīng)在一起了,。
王昉:請問硅基智能的莉萍,,找你們做數(shù)字人分身的,是女性多還是男性多?
陳莉萍:很多女性已經(jīng)參與到這個行業(yè)里面來,,用自己的數(shù)字分身做知識博主,、做直播。數(shù)字世界特別適合展現(xiàn)美的文化,,而女性更容易展示自己的美,,所以她們更有優(yōu)勢利用數(shù)字化的平臺展示自己,甚至不一定要掌握很多技術(shù)的女性都很容易在這個平臺上找到自己的定位,。
王昉:AI時代,,女性管理者是否更有優(yōu)勢?
崔麗:在這個事情上,,男人女人是共同體,,大家應(yīng)該把自己的優(yōu)勢貢獻出來。女性的優(yōu)勢是非常敏感,,可以獲取多元的知識,,本能意識到危機;容易有直覺,,且往往是基于常識的判斷,;而且女性通常更包容及有同理心。如果能夠有效的將這些特點與男性的優(yōu)勢相結(jié)合,,可以共同推動AI向更好的方向發(fā)展,。(財富中文網(wǎng))