去年4月,江西省南昌國際體育中心,,張學(xué)友舉辦了一場(chǎng)演唱會(huì),,現(xiàn)場(chǎng)約有六萬粉絲。演唱會(huì)開始沒多久,,警察來到中心看臺(tái)帶走了一名男子,。據(jù)警方介紹,男子是一名在逃嫌犯,。為了看張學(xué)友,,前一天上午他和妻子朋友們驅(qū)車近100公里。在一場(chǎng)萬人演唱會(huì)上,,他以為不會(huì)有人注意到他,。
確實(shí),在6萬人中鎖定一個(gè)目標(biāo)不容易,,但對(duì)AI來說,,不是問題。
人臉識(shí)別技術(shù)的本事可不止是抓逃犯,。在我國,,人臉識(shí)別技術(shù)至少進(jìn)入安防、金融,、交通,、零售、醫(yī)療,、校園等多個(gè)領(lǐng)域,。這項(xiàng)AI技術(shù)給用戶帶來便捷,給各行各業(yè)帶來了實(shí)實(shí)在在的推動(dòng)甚至是變革,。
阿里巴巴的螞蟻金服利用“微笑支付”功能,,讓用戶在肯德基點(diǎn)餐更便捷;
杭州一所高中以此技術(shù)監(jiān)控學(xué)生出勤率,;
深圳以及其他城市的交警則以之鎖定亂穿馬路的行人和自行車,;
北京天壇附近一處公園,將該技術(shù)應(yīng)用于公廁,以防止游客盜竊廁紙,。
北京的地鐵可能也要采用人臉識(shí)別技術(shù)了,。

有消息稱,北京或?qū)⒔⒌罔F“白名單”及快速安檢通道制度,,通過應(yīng)用人臉識(shí)別技術(shù),,乘客“刷臉”即可快速通過安檢通道。
據(jù)稱,,此舉能提升安檢效率,、精準(zhǔn)識(shí)別可疑乘客、降低地鐵安檢成本,、增強(qiáng)對(duì)犯罪分子的震懾力,。
這項(xiàng)看上去合情合理的舉措,卻引發(fā)了不少擔(dān)憂,。
有人設(shè)想了一下未來北京地鐵的情形,。
早高峰時(shí)期,“白名單”乘客有序地通過無安檢或者不嚴(yán)格安檢的通道,,比之前確實(shí)快多了,。而有少數(shù)乘客——或許是因?yàn)闆]有去申請(qǐng)進(jìn)入白名單,或許是真的沒通過白名單申請(qǐng)——他們需要去到另一個(gè)隊(duì)列,,接受嚴(yán)格的安檢,。半個(gè)月之后,網(wǎng)上開始有人呼吁為“可疑”乘客設(shè)置單獨(dú)的地鐵車廂,,因?yàn)楹退麄兂俗卉噹?,感覺隨時(shí)有危險(xiǎn)。
光明網(wǎng)評(píng)論員在“別把人臉識(shí)別技術(shù)搞成現(xiàn)代‘刺黥’”一文中,,就此事提出質(zhì)疑:“一個(gè)人即使是涉嫌犯罪或涉違約侵權(quán),,其有罪與否、違約侵權(quán)與否,,都要經(jīng)過法庭的公開審理才可定論,。審理期間,公訴人與律師,、原告和被告之間,,都要對(duì)各自的證據(jù)進(jìn)行質(zhì)證,而后經(jīng)庭審法官依法判定,,即使這樣,,還不能避免冤錯(cuò)案件。而應(yīng)用人臉識(shí)別技術(shù)對(duì)乘客實(shí)施分類,,則是公民被一個(gè)設(shè)備看了一下臉,,在無知情況下就被定類,。這,可行嗎,?”
有偏見,,與你無關(guān)

人臉識(shí)別可能帶來的歧視和偏見,已經(jīng)引發(fā)擔(dān)憂了,。究其原因,,一是源于AI技術(shù)本身,一是源于該技術(shù)被不當(dāng)使用,。
誰說AI是中立的
軟件公司Salesforce的首席科學(xué)家理查德?佐赫爾在《財(cái)富》國際頭腦風(fēng)暴科技大會(huì)上指出:“偏見將成為未來人工智能領(lǐng)域里的一個(gè)根本性問題,。”
顛覆認(rèn)知的是,,大規(guī)模的數(shù)據(jù)收集與分析并不代表能產(chǎn)生客觀中立的觀點(diǎn),反而有可能加深先前存在的偏見,。
如果一家銀行使用社交媒體來預(yù)測(cè)某人拖欠貸款的可能性,,或是警方依賴預(yù)測(cè)模型來決定將哪類人列為嫌疑對(duì)象,那么從數(shù)據(jù)中發(fā)現(xiàn)的任何種族,、性別或階級(jí)偏見都可以反映出來,,并且可能被這些模型放大,從而產(chǎn)生帶有歧視性的結(jié)果,。
再具體一點(diǎn)說,。比如有人發(fā)現(xiàn),一些人臉識(shí)別系統(tǒng)在識(shí)別深膚色和淺膚色人臉時(shí),,精確度往往不高,,原因是用于訓(xùn)練該系統(tǒng)的深膚色人臉數(shù)據(jù)遠(yuǎn)遠(yuǎn)不足。最臭名昭著的一個(gè)例子是,,美國部分州的司法部門使用了一套人臉識(shí)別系統(tǒng),,用來決定是否應(yīng)該批準(zhǔn)犯罪嫌疑人保釋或假釋。然而在犯罪記錄相似的前提下,,系統(tǒng)卻認(rèn)為黑人嫌犯比白人嫌犯有更高的再次犯罪風(fēng)險(xiǎn),。
佐赫爾認(rèn)為,在構(gòu)建人工智能系統(tǒng)的人自身變得更加多元化之前,,有些類型的偏見是不太可能被徹底消除的,。目前,很多從事人工智能軟件開發(fā)的計(jì)算機(jī)工程師都是白人,,而且當(dāng)前開發(fā)的很多人工智能軟件都只反映了城市富裕人口的需求,。
有爭議的應(yīng)用場(chǎng)景
正如美國蘋果CEO庫克所說:“技術(shù)本身沒有好與壞,一切由我們?nèi)藖頉Q定”,。讓我們感到害怕的不是人臉識(shí)別技術(shù)本身,,而是其被過度,、不當(dāng)?shù)膽?yīng)用。
今年9月,,一段運(yùn)用人臉識(shí)別技術(shù)來監(jiān)控學(xué)生的視頻,,在網(wǎng)上引發(fā)了熱議。

“趴桌子2次,,玩手機(jī)2次,,睡覺1次,聽講0次,,閱讀0次,,舉手0次,笑了0次,,厭惡表情出現(xiàn)了10次……”
這項(xiàng)被稱作是能夠?qū)崿F(xiàn)對(duì)學(xué)生“精準(zhǔn)監(jiān)控”的技術(shù),,在網(wǎng)絡(luò)上迅速引發(fā)了爭議。有網(wǎng)友指出,,“學(xué)校應(yīng)該是個(gè)培養(yǎng)人的地方,,而正常人就應(yīng)該有喜怒哀樂興奮懈怠開懷懶倦的情緒不是嗎?”
這條視頻出自AI獨(dú)角獸公司曠視科技,,事發(fā)當(dāng)晚該公司發(fā)出聲明稱:“近日網(wǎng)絡(luò)上出現(xiàn)的一幅課堂行為分析圖片,,為技術(shù)場(chǎng)景化概念演示。曠視在教育領(lǐng)域的產(chǎn)品專注于保護(hù)孩子在校園的安全,?!?/p>
但在同一天,剛剛開學(xué)的某高校同學(xué)們發(fā)現(xiàn),,校門口,、學(xué)生宿舍門口、圖書館,、實(shí)驗(yàn)樓,、教室里多了很多的人臉識(shí)別攝像頭。所用設(shè)備就是曠視科技的產(chǎn)品,。
危險(xiǎn)的臉歧視并不是最可怕的,,在一些時(shí)候,人臉識(shí)別技術(shù)被認(rèn)為具有危險(xiǎn)性,。
《經(jīng)濟(jì)學(xué)人》刊發(fā)于2017年的報(bào)道提出,,人臉本身存在特殊性,“人臉和其他生物特征數(shù)據(jù),,比如和指紋之間存在一個(gè)巨大區(qū)別是,,它們可以遠(yuǎn)距離起作用。任何人只要有手機(jī)都能拍攝一張照片供人臉識(shí)別程序使用,?!?/p>
因此人臉面部特征有著更為廣闊的運(yùn)用前景,,隨之而來的是更高的風(fēng)險(xiǎn)。

還記得前不久,,一款名為“ZAO”的AI換臉軟件突然火爆全網(wǎng)吧,?上線當(dāng)晚就直接沖到了App Store的第二名??梢哉f這款軟件說把用戶想要體驗(yàn)的AI換臉門檻降到了最低,。但隨著ZAO越來越火,用戶們對(duì)它的質(zhì)疑聲也變得越來越大,。
我們來看看它的用戶協(xié)議,。該項(xiàng)條款包括但不限于:人臉照片、圖片,、視頻資料等肖像資料中所含的用戶或肖像權(quán)利人的肖像權(quán),,以及利用技術(shù)對(duì)其肖像進(jìn)行形式改動(dòng)。
這也就意味著,,如果你簽了該協(xié)議,,你就在無形中將自己的肖像權(quán)拱手讓人了,以后你的臉將完全有可能被別人隨意使用,,變換。
其實(shí)早在2017年12月,,國外某ID名為“deepfakes”的Reddit論壇用戶首次將自己制作的AI換臉視頻發(fā)布在了網(wǎng)絡(luò)上,,它能夠把照片和視頻中的人臉替換成任何想要替換的人臉,且效果十分逼真,,有些肉眼甚至難以分辨真假,。
當(dāng)時(shí),“deepfakes”把情色電影里的女主角換成了蓋爾?加朵等好萊塢明星,,這也是世界上所有人們第一次公開見識(shí)到AI換臉的強(qiáng)大——和危險(xiǎn),。
市場(chǎng)調(diào)研公司Market Research Future稱,人臉識(shí)別市場(chǎng)每年增長20%,,預(yù)計(jì)到2022年將達(dá)到每年90億美元,。
開發(fā)頂尖軟件的競爭中,勝出的公司必然要算法精確度很高,,可以迅速識(shí)別面部,,盡量減少誤差。與人工智能其他領(lǐng)域一樣,,要開發(fā)出最好的面部識(shí)別算法,,就得收集大量數(shù)據(jù),也就是面部圖像用來訓(xùn)練,。
“收集并分析這些數(shù)據(jù)是有許多益處的,?!眲P洛格學(xué)院的一位營銷學(xué)副教授卡特勒說道?!叭欢娘L(fēng)險(xiǎn)也很大,,因?yàn)橥瑯拥男畔⒁材軌虮粣阂馐褂谩,!?strong>而即便是出于最大的善意研究這些數(shù)據(jù),,它們依然有可能產(chǎn)生預(yù)料之外的負(fù)面副作用。
為了改進(jìn)算法,,很多公司經(jīng)常在未經(jīng)許可的情況下利用數(shù)十億張面部照片來進(jìn)行算法訓(xùn)練,。你自己的臉就可能在面部識(shí)別公司的“訓(xùn)練庫”里,也可能在公司客戶的數(shù)據(jù)庫里,。
最近,,美國國家廣播公司的一篇報(bào)道重點(diǎn)批評(píng)了類似做法,道詳細(xì)描述了IBM如何從照片共享網(wǎng)站Flickr中抓走超過100萬張面部照片,,用作人工智能研究,。
此外也存在黑客攻擊的風(fēng)險(xiǎn)。網(wǎng)絡(luò)安全公司Gemini Advisors的安德雷?巴雷舍維奇說,,曾經(jīng)見過從印度國家生物特征數(shù)據(jù)庫中竊取的資料,,都在“暗網(wǎng)”上出售。他還沒發(fā)現(xiàn)有人出售美國人面部數(shù)據(jù)庫,,但補(bǔ)充說,,“這只是時(shí)間問題?!比绻l(fā)生這種情況,,從酒店或零售商盜取的顧客面部圖片可以幫助罪犯實(shí)施詐騙或冒充身份。
我們是否太寬容

數(shù)據(jù)泄露和數(shù)據(jù)嚴(yán)重濫用通常會(huì)引發(fā)消費(fèi)者的強(qiáng)烈抗議,。然而,我們實(shí)際上對(duì)數(shù)據(jù)濫用的容忍度也讓人意外,。
人臉識(shí)別公司FaceFirst的特雷普說:“80,、90后更愿意提供面部圖像?!渡贁?shù)派報(bào)告》里呈現(xiàn)的世界即將到來,。如果做得好,人們將享受到便利,,而且將變成積極的經(jīng)歷,。不會(huì)感覺太古怪,。”
那么問題來了:是否越來越多的人愿意用隱私來換取便利,?他們都知道背后的風(fēng)險(xiǎn)么,?監(jiān)管部門是否能扮演保護(hù)者的角色?
喬治敦大學(xué)的研究員加維支持由法律監(jiān)督該項(xiàng)技術(shù),。但她也表示立法者很難跟上技術(shù)發(fā)展的腳步:“跟指紋不一樣的是,,長期以來指紋采集的方式和時(shí)間一直有規(guī)則限制,而面部識(shí)別技術(shù)領(lǐng)域沒有規(guī)則,?!?/p>
很多情況下,消費(fèi)者沒有意識(shí)到自己在巨大數(shù)據(jù)集的正式與非正式研究中扮演“參加者”的角色,。
在注冊(cè)獲得一項(xiàng)免費(fèi)服務(wù),,或申請(qǐng)信用卡時(shí),“大多數(shù)人都不知道自己同意了哪些事項(xiàng),,也不知道他們的數(shù)據(jù)會(huì)被用來做什么,。” 凱洛格學(xué)院的卡特勒教授說,?!八麄兓蛟S會(huì)感到不安,但對(duì)于他們的數(shù)據(jù)會(huì)被如何使用,,以及可能帶來的損害則無了解,。”
大多數(shù)人除了接受伴隨新技術(shù)的益處而來的弊端之外別無選擇,,因?yàn)榫芙^的成本往往太高,。
不能缺席的法律法規(guī)

很多人開始警惕人臉識(shí)別技術(shù)的濫用,,“反人臉識(shí)別”技術(shù)也開始涌現(xiàn),。比如“腦門貼紙”——穿戴繪制特定圖案的眼鏡、帽子,、衣服能夠有效干擾機(jī)器視覺,,避免算法對(duì)人的識(shí)別。
當(dāng)然,,這并非是理想的解決方案,。
中國清華大學(xué)法學(xué)教授勞東燕在其公眾號(hào)發(fā)文稱,有必要對(duì)人臉識(shí)別進(jìn)行法律規(guī)制,。勞東燕主闡述了四點(diǎn)原因,,一是人臉是重要的個(gè)人生物數(shù)據(jù),,相關(guān)機(jī)構(gòu)或組織在收集之前需證明合法性;二是需征求公眾意見,,經(jīng)過嚴(yán)格的聽證過程,;三是驗(yàn)證分類標(biāo)準(zhǔn)的合理性和合法性;四是驗(yàn)證人臉識(shí)別技術(shù)的通行效率,。
法學(xué)博士史宇航稱,,在我國正在制定的“民法典人格權(quán)編”草案二審稿中,就將面部特征等個(gè)人生物識(shí)別信息納入個(gè)人信息的范疇,。除此以外,,面部特征還涉及肖像權(quán)的保護(hù)問題,是傳統(tǒng)法律關(guān)系與新興法律關(guān)系的碰撞與融合,。圍繞面部特征等個(gè)人信息的收集,、利用,各國法律大多是以用戶的“知情-同意”作為合法的基礎(chǔ),。
美國已經(jīng)有多個(gè)城市制定了與人臉識(shí)別數(shù)據(jù)相關(guān)的法案,,禁止人臉識(shí)別技術(shù)的使用。
英國警方因?yàn)槭褂萌四樧R(shí)別技術(shù),,被認(rèn)為侵犯了隱私而被告上法庭,。這也是英國首宗因人臉識(shí)別技術(shù)而起的法律訴訟。
加拿大隱私專員辦公室已在調(diào)查商場(chǎng)使用面部識(shí)別技術(shù)的合法性問題,。
2019年8月,,瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)對(duì)瑞典一所中學(xué)因違反通用數(shù)據(jù)保護(hù)條例而判處2萬歐元罰款。中學(xué)工作人員在一個(gè)教室里面安裝了一部人臉識(shí)別相機(jī)作為實(shí)驗(yàn),,以檢測(cè)采用此種方式登記學(xué)生考勤是否更為迅速,,該實(shí)驗(yàn)共涉及22名學(xué)生。瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)認(rèn)為中學(xué)征得的同意不是“自由作出的”,,并且不符合最小必要性原則,。
在曠視科技的官方聲明中,我們看到這樣一句話:“曠視始終堅(jiān)持技術(shù)向善,,讓人工智能造福所有人,。”
技術(shù)是沒有善惡之分的,,只有善用或?yàn)E用,。善用技術(shù)的一項(xiàng)標(biāo)準(zhǔn),就是有所為有所不為,。
乘客去坐地鐵,,不用擔(dān)心被安檢人員叫到一邊去仔細(xì)搜查。
行人走在大街上,看藍(lán)天白云,,綠樹紅花,,不用在腦門貼紙,不用擔(dān)心臉部信息被某AI公司給抓取了,。
坐在教室里的孩子,,被窗外的云雀轉(zhuǎn)移了注意力,思緒飄去了遠(yuǎn)方,,就走神了這么一小會(huì),,他不用害怕被AI發(fā)現(xiàn)。
其實(shí),,人類的很多靈感就在走神的瞬間迸發(fā)了出來,。