導(dǎo)讀:此前,AI換臉軟件ZAO的一夜爆紅,不僅讓其服務(wù)器陷入了“滿負荷至崩潰運行“的危機之中,也將用戶的安全與隱私暴露在種種危險地帶。
此前,AI換臉軟件ZAO的一夜爆紅,不僅讓其服務(wù)器陷入了“滿負荷至崩潰運行“的危機之中,也將用戶的安全與隱私暴露在種種危險地帶。
同樣的情況,國外也不少見。
今年七月,一款“變?nèi)荨避浖尡姸?美國)手機用戶惶恐不安。大可稱其為FaceApp,該修圖軟件憑借其能將拍攝的人臉賦予逼真的滄桑感而圈粉無數(shù),自此一躍成為網(wǎng)上的“病毒”,無孔不入。
而且放眼各大社交平臺和曬圖網(wǎng)站,全是它的成果。
剛開始,F(xiàn)aceApp的爆紅似乎并沒有什么異樣,直到一些心懷疑慮的互聯(lián)網(wǎng)調(diào)查員發(fā)現(xiàn)軟件提供商為俄方公司,事情有了新的走向。
民眾一瞬間沸騰起來,社交平臺、網(wǎng)絡(luò)論壇無不充斥著人們的焦慮感:這些俄羅斯人是誰?為什么想要我們的臉部照片?他們會怎樣利用收集的數(shù)據(jù)?一些新聞媒體主播就此提醒廣大民眾;還有一位民主黨人士呼吁(有關(guān)部門)對此展開調(diào)查。全國上下所有人內(nèi)心都有這么個疑問——令人不安的俄方情報機構(gòu)是否在非法利用他們的面部信息來完善本國的人臉識別程序?
而事實證明,F(xiàn)aceApp供應(yīng)商與俄政府之間的聯(lián)系被夸大了,其實什么都沒有。據(jù)《華盛頓郵報》的一項調(diào)查報告顯示,該公司與國際情報組織沒有交集,也不會給非法監(jiān)視組織提供信息資源,目前也并沒有用存儲的照片來升級改造什么人臉識別系統(tǒng)。整件事下來就是對數(shù)據(jù)的小題大做。
但這樣的騷動并不意外。人們對許多看似有趣方便且有利用價值的網(wǎng)絡(luò)服務(wù)都相繼產(chǎn)生擔憂,而FaceApp的窘境不過是最近剛發(fā)生的。人們想知道,這種自動給臉書上照片貼標簽排隊的技術(shù)會讓公司了解他們的個人信息并跟蹤利用他們嗎?在顧客走進一家免付款(cashier-less)亞馬遜商店時,零售商會利用收集的監(jiān)控錄像對付顧客嗎?
人們對此通常是無法感知的——而這就是問題所在。所以背后引發(fā)的一個問題就是:當下AI程序到底會用人類面孔做什么?有多少的恐懼是來源于傳言,而非擺在面前的事實?技術(shù)的力量是否讓人類的擔憂不斷增多?
我們來一起想想這個問題。
人臉識別究竟為何物?
在深入探討人臉識別的風險之前,有必要先了解一下它是如何工作的。
人臉識別技術(shù)(FRT)的功能主要依靠于對人臉節(jié)點測量結(jié)果的識別和模型創(chuàng)建;包括但不限于鼻子的寬度、下巴的長度或雙眼間的距離。這些測量結(jié)果最終會轉(zhuǎn)錄到一個擁有特定代碼的模板中,之后便可以將圖片與數(shù)據(jù)庫中已有圖像進行比對甚至可能進行匹配。
比如,賭場可能會用這種技術(shù)對入場玩家與列有問題賭者的內(nèi)部資料進行比對。還有些調(diào)查人員可以通過駕照數(shù)據(jù)庫、警方存檔的嫌犯照片或臉書這種社交平臺得到想要的資源。然而,照片庫的使用寬限則取決于這些人擁有多少圖片資源的使用權(quán),這也是接下來會說到的——搜查的準確度。
人臉識別可以(或不能)做什么?
與觀眾追的所有間諜劇劇情不同的是,F(xiàn)RT很少會立即反饋準確的信息,在環(huán)境復(fù)雜時亦如此。說政府會通過街道上不清晰的監(jiān)控片段在幾秒內(nèi)找到目標人物的說法實屬夸張。
但人臉識別監(jiān)控的確有可能實現(xiàn),所要面臨的無非是精確度低和各種環(huán)境因素問題。相機質(zhì)量、計算程序、時間、距離、數(shù)據(jù)庫大小甚至包括人口學中的種族和性別都會影響FRT搜索的最終效果。
筆者記得很清楚,2018年美國公民自由聯(lián)盟(ACLU)組織進行了一項測試,其結(jié)果顯示亞馬遜平臺的人臉識別系統(tǒng)Rekognition錯誤地將28名國會成員與警方存底的嫌犯照片進行了匹配。
另一項由麻省理工媒體實驗室(MIT Media Lab)發(fā)起的調(diào)查顯示亞馬遜識別系統(tǒng)還在苦苦掙扎于性別的識別,有19%的可能性會將女性誤認為男性,有超過1/3的可能性會將膚色較深的女性誤判為男性。而亞馬遜將一切的誤差都歸咎于低校準度。
亞馬遜的說法也不為過,至少還是占點理的。畢竟研究人員發(fā)現(xiàn)臉書的識別系統(tǒng)比FBI還準確,因為社交平臺上有相當多的照片可供參考,同時還會主動要求用戶驗證其相片從而完善算法。人們因此會對Rekognition產(chǎn)生誤解,當然所有的FRT軟件都免不了遭受質(zhì)疑:這些軟件能做到的程度只取決于其照片參考量。
亞馬遜的一位發(fā)言人告訴the Verge網(wǎng)說,“80%的可信度對熱狗、椅子、動物或其他社交媒體上的照片是可以接受的,但對于有面部特征的人是不夠的”。
點評的很客觀,也似乎有些打臉。因為公司已經(jīng)下架Rekognition,并將其遞交給了執(zhí)法部門和ICE,但依然沒有確立一個法定的FRT置信度。識別的一再不準確給FRT的前進道路布設(shè)了重重障礙,比如不能單憑技術(shù)作為逮捕嫌疑人的根據(jù),它只可用于協(xié)助調(diào)查。
可別搞錯了,雖說目前美國的FRT能力不能在模糊的監(jiān)控片段中于漆黑道路上鎖定目標,可獲得這種能力只是時間的問題。中國以監(jiān)督百姓生活聞名,近期因通過FRT在短短七分鐘內(nèi)追蹤一名BBC記者,成為了新聞熱點話題。這給美國未來如何使用該技術(shù)提供了先例。
不過有一點很明確:雖然當下美國的人臉識別技術(shù)無法做到一直保持準確,但國內(nèi)的企業(yè)正致力于改進和使用它。目前為止存在的兩大問題:第一,不可靠的技術(shù)也許會讓人蒙受不實的斥責;第二,隨著技術(shù)發(fā)展的更加準確,范圍越廣,監(jiān)控趨勢會向中國靠攏。
FaceApp的用戶置身于何種境地?
FRT的發(fā)展是大勢所趨,現(xiàn)在也許無法做到完全準確或者合理使用,但未來會實現(xiàn)。與此同時,人們需要開始思考該如何、何時、何種程度地使用該技術(shù),在FRT超出監(jiān)管之前制定嚴苛的限制。正如《華盛頓郵報》一名作者寫的,“今天,人臉識別也許會讓你開開心心地進到棒球賽場,但基于系統(tǒng)原先編寫的視覺假設(shè),你也有可能被認為具有暴力犯罪行為,那時可能就不太愉快了”
所以用戶身處的境地更多是關(guān)于哲學意味的。一款滑稽的程序會給照片上的自己加一些逼真的皺紋,這興許很有意思,但背后收集的數(shù)據(jù)可能早晚會用來對付人們自己。當然,這些照片可能會受困于某處的俄方供應(yīng)商,無法觸碰,或者作為參考實現(xiàn)一個更加高效準確的FRT系統(tǒng),用于監(jiān)督人民。該事件指向了數(shù)字世界不安全的核心問題,也促使人們發(fā)問:“長期以來我們?nèi)绱诵湃蔚目此茻o辜的數(shù)據(jù),是否會傷害我們自己?”
來源:Pexels
現(xiàn)在領(lǐng)悟到什么了嗎?
下一次有照片過濾器、網(wǎng)上游戲或數(shù)字趨勢蔓延開來,系好安全帶把自己拴緊,考慮一下要不要躋身潮流。
哪怕覺得自己的自拍會以數(shù)字或文字形式隱匿于某西伯利亞的服務(wù)器,也要想著會有人利用它。
就像國內(nèi)ZAO的橫空出世,地下灰色產(chǎn)業(yè)逐漸浮出水面一般,在掀起病毒式恐慌之前,人們永遠不會意識到問題有多嚴重。。
沒有危機意識的你,也許只有在看毛片黃圖時,意外發(fā)現(xiàn)自己的臉后,才會感到恐慌和危險。