假新聞2.0:人工智能將攪亂美國總統(tǒng)大選,?
社交媒體已經(jīng)對此前的美國總統(tǒng)大選造成了嚴(yán)重破壞?,F(xiàn)在,,生成式人工智能陰森逼近,,我們準(zhǔn)備好了嗎,?
預(yù)計(jì)人工智能將為那些針對選民的虛假信息提供不懈動力——但也有可能為打擊這種虛假信息做出貢獻(xiàn),。圖片來源:SCOTTY PERRY—BLOOMBERG/GETTY IMAGES
今年2月27日,,在如火如荼的芝加哥市市長選舉前夕,一個自稱“芝加哥湖畔新聞”(Chicago Lakefront News)的推特(Twitter)賬號發(fā)布了候選人保羅·瓦拉斯(Paul Vallas)的一張照片和一段音頻,。此前擔(dān)任市政府預(yù)算主任和學(xué)區(qū)主管的瓦拉斯,,是四位角逐芝加哥最高職位的參選人之一。根據(jù)這段音頻,,他似乎在刻意淡化警察槍擊事件,,說“在我那個時代,”一位警察在其職業(yè)生涯中可能會殺死多達(dá)18位平民,,“沒有人會眨一下眼睛,。”這段音頻繼續(xù)說道:“這種‘停止為警察提供資金’的言論將導(dǎo)致芝加哥陷于動蕩,,無法無天,。我們現(xiàn)在需要做的,不是撤銷警察資金,,而是重新為他們提供資金支持,。”
事實(shí)證明,,瓦拉斯并沒有說過這些話,。這段音頻很快就被證偽,很可能是用某個容易訪問,、用于克隆聲音的人工智能軟件制作而成的,。在音頻發(fā)布前幾天才注冊的“芝加哥湖畔新聞”賬號很快就刪除了這條推文——但在此之前,它已經(jīng)被成千上萬的人看到并廣泛轉(zhuǎn)發(fā),,一些人顯然上當(dāng)了,,相信“錄音”是真實(shí)的。依照目前的情形看,,這段音頻對市長選舉影響甚微:瓦拉斯贏得了多數(shù)選票,,并在本文發(fā)稿時進(jìn)入第二輪決選階段(他最終以微弱劣勢敗北——譯注)。但專家們表示,,這種克隆瓦拉斯聲音的做法堪稱一次令人驚悚的預(yù)演:拜人工智能的飛速發(fā)展所賜,,2024年美國總統(tǒng)大選很可能會遭遇類似虛假信息的侵襲。
這些新型人工智能系統(tǒng)被統(tǒng)稱為“生成式人工智能”,。比如,,最近大火特火的文本處理工具ChatGPT只需要幾個提示,就能夠生成學(xué)生期末論文和商業(yè)電子郵件,。但它只是這種技術(shù)的一個例子而已,。一家名為ElevenLabs的公司發(fā)布了一款可以利用僅僅幾秒長的樣本來克隆聲音的軟件。此外,,現(xiàn)在任何人都能夠訂購OpenAI的DALL-E 2,、Stable Diffusion或Midjourney等軟件生成的逼真靜態(tài)圖像。盡管人工智能利用文本提示創(chuàng)建視頻的能力還處于初級階段,,例如位于紐約的新創(chuàng)企業(yè)Runway開發(fā)的軟件可以生成幾秒鐘長的視頻片段,,但精通深度偽造技術(shù)的騙子完全能夠制作出足以亂真,、讓許多人上當(dāng)受騙的假視頻。
紐約大學(xué)(New York University)的認(rèn)知科學(xué)名譽(yù)教授,、人工智能專家加里·馬庫斯(Gary Marcus)憂心忡忡地表示:“這真的令人不寒而栗,,寢食難安?!彼恢痹诰婀?,支撐這項(xiàng)技術(shù)的大型語言模型是民主面臨的一大威脅。盡管我們已經(jīng)在過去幾屆的美國總統(tǒng)大選中見證過人們利用社交媒體發(fā)布和傳播虛假信息的景象,,但人工智能的強(qiáng)悍能力遠(yuǎn)非人類所能企及——正是這種以前所未有的數(shù)量和速度傳播假消息的能力,,以及非母語人士現(xiàn)在只需要敲幾下鍵盤就可以用大多數(shù)語言寫出通暢文本這一事實(shí),讓這種新技術(shù)成為一個巨大的威脅,?!昂茈y想象人工智能生成的虛假信息不會在下次大選中掀起波瀾?!彼f,。
并不是每個人都確信,如今的情勢像馬庫斯描述的那樣驚悚——至少現(xiàn)在還不是,。專門研究人工智能和新興技術(shù)影響的布魯金斯學(xué)會(Brookings Institution)的研究員克里斯·梅塞羅爾(Chris Meserole)指出,,最近幾屆的美國總統(tǒng)選舉已經(jīng)出現(xiàn)了非常高水平的人造虛假信息,他不確定新的人工智能語言模型會帶來顯著的變化,?!拔艺J(rèn)為這不會徹底改變游戲規(guī)則,2024年預(yù)計(jì)不會跟2020年或2016年有明顯的不同,?!彼f。
梅塞羅爾還表示,,視頻深度偽造技術(shù)還不足以攪亂2024年美國總統(tǒng)大選(盡管他認(rèn)為,,2028年的情況恐怕會有所不同)。真正讓梅塞羅爾擔(dān)憂的是語音克隆,。他指出,,一個很容易想象的場景是,一段音頻在選舉的關(guān)鍵時刻浮出水面,,它記錄的據(jù)稱是候選人在私下場合里發(fā)表的可恥言論,。盡管在場人士可能會否認(rèn)音頻的真實(shí)性,但外人恐怕很難確定,。
那么,,虛假敘事究竟是會說服任何人,還是只會強(qiáng)化一些人的現(xiàn)有信念,?牛津互聯(lián)網(wǎng)研究所(Oxford Internet Institute)的技術(shù)與監(jiān)管教授桑德拉·瓦赫特(Sandra Wachter)稱,,相關(guān)研究給出了相互矛盾的結(jié)論,。但在一場勢均力敵的選舉中,即便是這種邊際效應(yīng),,也可能是決定性的,。
面對機(jī)器生成式假新聞的威脅,一些人認(rèn)為人工智能本身可能是最好的防御手段,。在西班牙,一家名為Newtral,、專門對政客言論進(jìn)行事實(shí)核查的公司,,正在試驗(yàn)類似于ChatGPT的大型語言模型。該公司的首席技術(shù)官魯本·米格斯·佩雷斯(Ruben Miguez Perez)表示,,這些模型不能真正驗(yàn)證事實(shí),,但可以幫助人們更好地揭穿謊言。這種技術(shù)能夠在一段內(nèi)容做出值得核查的事實(shí)聲明時進(jìn)行標(biāo)記,,還可以檢測其他宣揚(yáng)相同敘事的內(nèi)容,,這一過程稱為“聲明匹配”。他說,,與其他機(jī)器學(xué)習(xí)技術(shù)結(jié)合使用,,這些大型語言模型也有望根據(jù)內(nèi)容蘊(yùn)含的情緒來評估某種說法是錯誤信息的可能性。米格斯·佩雷斯指出,,借助這些方法,,Newtral已經(jīng)將識別可疑陳述所耗費(fèi)的時間減少了70%到80%。
大型社交媒體平臺,,比如Facebook和谷歌(Google)旗下的YouTube,,一直在研究具備類似功能的人工智能系統(tǒng)。Facebook的母公司Meta表示,,在2020年美國總統(tǒng)大選前夕,,這家社交平臺為超過1.8億條被第三方事實(shí)核查員揭穿的內(nèi)容貼上了警告標(biāo)識。盡管如此,,仍然有大量虛假信息蒙混過關(guān),。事實(shí)上,人工智能模型尤其難以捕捉那些借助圖像和文本來傳遞觀點(diǎn)的“表情包”,。Meta宣稱,,自2020年美國總統(tǒng)大選以來,其人工智能系統(tǒng)獲得了長足進(jìn)步,,但虛假敘事散布者正在持續(xù)不斷地設(shè)計(jì)一批批人工智能模型從未見過的新變體,。
馬庫斯指出,合理的監(jiān)管或許能夠發(fā)揮一定作用:政府應(yīng)該要求大型語言模型的創(chuàng)建者刻上“數(shù)字水印”,,從而讓其他算法更容易識別人工智能生成的內(nèi)容,。作為ChatGPT的創(chuàng)建者,,OpenAI確實(shí)談過這種水印,但尚未付諸實(shí)施,。與此同時,,該公司還發(fā)布了免費(fèi)的人工智能內(nèi)容檢測軟件,但這種軟件只在大約三分之一的情況下有效,。馬庫斯還表示,,美國國會應(yīng)該將大規(guī)模制造和傳播虛假信息定為非法行為。盡管第一修正案(First Amendment)的支持者可能會高聲反對,,但憲法的制定者無論如何都想象不到未來有一天,,人們只需要按一下按鈕,就可以利用技術(shù)生成無數(shù)令人信服的謊言,。
話說回來,,美國在建國之時,即18世紀(jì)末期,,也是一個傳播虛假信息的黃金時代,。層出不窮的匿名傳單和黨派報(bào)紙肆無忌憚地兜售政敵和對立黨派的卑鄙故事。牛津大學(xué)的瓦赫特指出,,民主在那時得以幸存,。也許這一次也會如此。但我們很可能會見證一場史無前例的選舉活動,。
譯者:任文科