我們不能僅把這起事件視作一次產(chǎn)品誤用或駕駛員疏忽,,而應從中透視出更宏大的現(xiàn)實張力。
3月29日晚,一輛小米SU7在安徽銅陵的高速路段撞上隔離帶的水泥樁,,其后發(fā)生燃燒,,車上3名大學生全部死亡。一樁悲劇,,如同滴落水中的一滴墨,,瞬間擴散在公眾的想象中——“智能汽車”、“新勢力造車”,、“自動駕駛”“遙控模式,。這些技術名詞與血肉之軀交匯,背后隱含的,,是整個時代的一個重大命題:當技術以“速度”為美,、以“智能”為榮,我們是否忘記了最基本的“可控性”和“倫理邊界”,?
我們不能僅把這起事件視作一次產(chǎn)品誤用或駕駛員疏忽,,而應從中透視出更宏大的現(xiàn)實張力——技術系統(tǒng)的復雜化與社會系統(tǒng)的滯后之間,正在張開一道巨大的鴻溝,。這不是一輛車的事故,這是“未來社會”構建過程中的一次斷裂,。
技術幻覺與資本敘事的聯(lián)盟
所有關于“智能”的敘事,,其實早已不再是單純的工程技術問題,而是一種資本驅(qū)動的“敘事性現(xiàn)實”,。從特斯拉開始,,到蔚來、理想,、小鵬,,再到今天的小米,所有新勢力造車品牌,,都在構建一種未來主義敘事——即我們正進入一個“機器代人”的新時代,,而他們正是引領者。
這不是技術真相的傳達,,而是一種幻覺制造術:把不成熟的輔助系統(tǒng)包裝成“智能代駕”,;把實驗室中的功能命名為“全場景自動泊車”;把人類的幻想變成廣告語言,。這種幻覺依賴兩個條件:公眾的技術焦慮,,以及資本對“速度+規(guī)?!钡钠谩?/p>
而小米作為一家科技巨頭,,其跨界造車行為本身,,就夾雜著極強的“資本信號”意味:雷軍高調(diào)發(fā)布會、手機思維移植到汽車工業(yè),、供應鏈的極致壓縮……它更像是一次“工業(yè)+敘事”的聯(lián)姻,。
但問題在于,技術幻想可以虛構,,生命不能被消費,。如果我們把汽車的本質(zhì)理解為“生活中的機器人”,那么它對人類生活的侵入程度,,遠超手機,、電腦等其他消費電子。這要求我們建立一種“延遲滿足的技術倫理”——即在真正安全可控前,,必須壓抑對“炫酷功能”的沖動,。但今天,這種倫理已經(jīng)被市場的加速邏輯吞噬,。
“人類責任”的外包困局
小米的車禍事件之所以引發(fā)巨大反響,,還在于它暴露了一個根本性的張力:人類對機器的過度信任,正在逐步卸載自身責任,。
從用戶視角來看,,他們被告知“這是一輛智能汽車”,他們看到宣傳視頻中“車能自己開,、能自己泊,、能自動召喚”,自然會將這種“技術形象”內(nèi)化為安全承諾,。然而當事故發(fā)生時,,車企卻退回到冷冰冰的法律免責聲明中:“所有功能需人監(jiān)督,僅為輔助,?!?/p>
這就是“責任外包”的典型機制:企業(yè)利用技術模糊性,收割用戶信任,,但在出事時,,卻把一切推給“使用不當”。換句話說,,消費者承擔了系統(tǒng)不成熟的風險,,卻沒有任何控制該系統(tǒng)的權力。
更可怕的是,,這種機制并非偶然,,而是整個AI時代的普遍特征,。我們已經(jīng)看到AI算法在招聘、信貸,、醫(yī)療等諸多領域做出關鍵性決策,,但真正“負責任”的人是誰?系統(tǒng)出錯時,,誰來承擔后果,?這不是一輛車的問題,而是“人類責任機制”的整體危機,。
制度真空下的“算法政治”
如果說工業(yè)時代的權力是“標準化+制度約束”,,那么今天的智能時代,則是“黑箱化+技術壟斷”,。智能汽車的事故不僅是工程事故,,更是制度事故:我們的法律和監(jiān)管體系,尚未為“人機共治”的新現(xiàn)實做好準備,。
在美國,,NHTSA(國家公路交通安全局)已經(jīng)逐步推出對L2以上自動駕駛系統(tǒng)的事故報告機制,要求車企上報所有涉及“高級輔助駕駛”的交通事故,。歐洲也在推動“可解釋AI”的法律框架,。而在中國,這方面仍存在巨大制度真空,。
最具風險的,,不是技術不成熟,而是監(jiān)管體系對技術權力的“失語”:我們甚至不知道一輛車究竟具備何種自動駕駛能力,,不知道系統(tǒng)是否記錄駕駛狀態(tài),,不知道功能命名是否被“營銷化誤導”……
這其實已經(jīng)進入了“算法政治”的范疇——誰定義“智能”?誰控制數(shù)據(jù),?誰擁有責任話語權?在制度缺席的狀態(tài)下,,技術公司就是事實上的立法者,、法官和執(zhí)行者。
這不僅威脅個體安全,,更將侵蝕整個社會的公正感與信任機制,。
智能社會的“認知斷裂”
我們正在進入一個深刻的“認知斷裂”時代——系統(tǒng)越來越復雜,公眾對其理解卻越來越淺,。
大多數(shù)普通用戶對智能汽車的功能理解,,停留在宣傳片與社交媒體的碎片中。他們以為“智能”就意味著“安全”,,以為“自動”就等于“無憂”,。而事實上,,系統(tǒng)設計的邊界、風險提示,、容錯機制,,遠比一個廣告復雜得多。
這種“認知斷裂”一旦與生命安全綁定,,就會變成致命的“信任災難”,。這不僅會擊穿消費者對某個品牌的信心,更會動搖整個技術社會的信任基礎——公眾將不再相信“新技術”,,而這種不信任一旦形成,,將以極高代價進行反噬。
我們正在靠“模糊宣傳+技術壓榨”推進智能化進程,,但沒有同步推進公眾素養(yǎng)建設,。這是對未來的極度不負責任。
轉(zhuǎn)向“深度人機共進”的文明分水嶺
如果要從這場事故中看到某種希望,,那就是:也許它可以成為一次“文明反思的契機”,。我們要從“技術狂熱”轉(zhuǎn)向“人機共進”,從“工具崇拜”轉(zhuǎn)向“責任重構”,。
這不是技術層面的補丁,,而是思維范式的轉(zhuǎn)向:
在設計上,應推動“強約束的可用性”,,而非“炫技式自由”,;在制度上,應構建一整套人機權責分離的監(jiān)管體系,;在社會層面,,應建立針對AI和智能系統(tǒng)的基礎教育機制;在倫理上,,應推動一種“算法謙卑主義”——技術不是萬能,,也不應裝作萬能。
我們不該再問:“我們還能做出多智能的車,?”而應開始問:“我們是否準備好,,成為一個負責任的智能社會?”
下一次,,代價會更高
這次,,是小米SU7。下一次,,可能是飛行汽車,,可能是無人出租車,可能是AI診療系統(tǒng),。技術的進步從不會停止,,但人類的制度,、認知與倫理,常常會落后,。
當我們在興奮地談論“新質(zhì)生產(chǎn)力”“中國智造出?!薄肮I(yè)4.0”時,也許更該花些時間問一句:我們是否已經(jīng)建立了足以承載這一切的文明基礎,?
技術不是終點,,而是試煉。我們是否能夠從每一次事故中,,真正走出“升級打怪”的思維,,轉(zhuǎn)向一場關于人類自身的深度更新?
如果不能,,那么下一次,,我們將付出更高的代價——而且可能,不再有“下一次”,。(財富中文網(wǎng))
作者王衍行為財富中文網(wǎng)專欄作家,,中國人民大學重陽金融研究院高級研究員、中國銀行業(yè)協(xié)會前副秘書長,、財政部內(nèi)部控制標準委員會咨詢專家
本內(nèi)容為作者獨立觀點,,不代表財富中文網(wǎng)立場。未經(jīng)允許不得轉(zhuǎn)載,。