技術(shù)
導(dǎo)讀:目前的人工智能技術(shù)已經(jīng)非常擅長(zhǎng)識(shí)別圖像中的物體,但仍然很容易犯些“低級(jí)錯(cuò)誤”。
在部分情況下,只需在人眼不可見(jiàn)的靜態(tài)噪聲中添加一些可選的筆觸或圖層,就可以“愚弄”AI圖像識(shí)別系統(tǒng),這有時(shí)甚至?xí)斐芍旅暮蠊?/span>
例如,曾有研究人員將打印的涂鴉貼在路牌上導(dǎo)致AI自動(dòng)駕駛系統(tǒng)將限速標(biāo)志識(shí)別為禁行,騰訊科恩實(shí)驗(yàn)室也曾發(fā)布報(bào)告稱路面上難以注意到的小貼紙就能誤導(dǎo)特斯拉錯(cuò)誤判斷并駛?cè)敕聪蜍嚨馈?/p>
這些誤導(dǎo)標(biāo)志被稱為“對(duì)抗補(bǔ)丁”,研究人員現(xiàn)在正忙于開(kāi)發(fā)保護(hù)人工智能系統(tǒng)不受這些例子影響的方法。
但在去年的一篇論文中,Google Brain和普林斯頓大學(xué)的一組研究人員,包括該領(lǐng)域最早的研究人員之一Ian Goodfellow,認(rèn)為這些新研究過(guò)于理論化,沒(méi)有抓住重點(diǎn)。
他們說(shuō),雖然大部分研究的重點(diǎn)是保護(hù)系統(tǒng)免受特別設(shè)計(jì)的標(biāo)志的干擾,但黑客可能會(huì)選擇一種更直接的方法:使用一張完全不同的照片,而不是在現(xiàn)有照片上疊加噪音圖案。這也可能導(dǎo)致系統(tǒng)誤判斷。這一批評(píng)促使加州大學(xué)伯克利分校的博士生Dan Hendrycks編寫了一個(gè)新的圖像數(shù)據(jù)集。
這個(gè)數(shù)據(jù)集中包括一些容易被誤判的圖像,比如松鼠(它們通常會(huì)被誤認(rèn)為是海獅)或蜻蜓(它們會(huì)被誤認(rèn)為是井蓋)。他表示:“這些例子似乎更難防范。”
人工合成的對(duì)抗標(biāo)志需要知道所有的人工智能系統(tǒng)是如何防范誤判的。但相比之下,即使人工智能系統(tǒng)各自的防范措施不同,這些自然的例子也能很好地發(fā)揮作用。
Hendrycks上周在國(guó)際機(jī)器學(xué)習(xí)會(huì)議上發(fā)布了該數(shù)據(jù)集的早期版本,包含大約6000幅圖像。他計(jì)劃在幾周內(nèi)發(fā)布最終版本,其中包括近8000個(gè)圖像。他打算讓研究團(tuán)體使用該數(shù)據(jù)集作為基準(zhǔn)。
換句話說(shuō),與其直接在圖像上訓(xùn)練圖像識(shí)別系統(tǒng),不如將其保留下來(lái)只用于測(cè)試。他說(shuō):“如果人們只是用這些數(shù)據(jù)集訓(xùn)練系統(tǒng),那么系統(tǒng)僅僅只是記住了這些例子。這樣雖然系統(tǒng)已經(jīng)解決了誤判這些圖像的問(wèn)題,但它們對(duì)新圖像的誤判程度并沒(méi)有得到改善?!?/p>
破解這些令人困惑的誤判背后的邏輯,可能會(huì)讓系統(tǒng)的適應(yīng)性更廣?!盀槭裁聪到y(tǒng)會(huì)把蜻蜓和鱷梨色拉醬搞混?”Hendrycks開(kāi)玩笑道,“根本不清楚為什么會(huì)犯這樣的錯(cuò)誤?!?/p>
為什么人工智能會(huì)誤判?
有些人工智能系統(tǒng)的底層計(jì)算機(jī)制是已知的,有些則不是,這被稱為“黑箱”,即該系統(tǒng)的開(kāi)發(fā)者可能都無(wú)法完全了解系統(tǒng)如何做出決策。
對(duì)于圖像識(shí)別技術(shù)來(lái)說(shuō),有時(shí)原因是因?yàn)榻o定的訓(xùn)練數(shù)據(jù)集出了問(wèn)題。比如近日Facebook人工智能實(shí)驗(yàn)室的一項(xiàng)新研究就表明,科技巨頭銷售的物體識(shí)別算法在識(shí)別來(lái)自低收入國(guó)家的物品時(shí)表現(xiàn)得更差。
據(jù)報(bào)道,研究人員測(cè)試了五種流行的現(xiàn)成對(duì)象識(shí)別算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜Rekognition和IBM Watson。而測(cè)試的圖像包括來(lái)自全球不同階級(jí)的家庭的家中用品的圖像。這些圖像可能來(lái)自非洲布隆迪的一個(gè)月收入27美元的家庭,也可能來(lái)自烏克蘭一個(gè)月收入1090美元的家庭。
研究人員發(fā)現(xiàn),與月收入超過(guò)3500美元的家庭相比,當(dāng)被要求識(shí)別月收入50美元的家庭的物品時(shí),物體識(shí)別算法的出錯(cuò)率要高出10%左右。
而且在識(shí)別來(lái)自美國(guó)的照片時(shí),算法的準(zhǔn)確性也比識(shí)別來(lái)自索馬里或布基納法索的照片要高出15%至20%。
研究人員稱,在一系列用于圖像識(shí)別的商業(yè)云服務(wù)中,這些發(fā)現(xiàn)具有一致性。
人工智能算法的這種“偏見(jiàn)”還有很多別的例子,其中一種常見(jiàn)的推測(cè)原因是用于培訓(xùn)的數(shù)據(jù)有了偏頗——它們往往反映了相關(guān)工程師的生活和背景。由于這些人通常是來(lái)自高收入國(guó)家的白人男性,他們訓(xùn)練的算法所要識(shí)別的世界也是如此。
研究人員稱,視覺(jué)算法的訓(xùn)練數(shù)據(jù)主要來(lái)自歐洲和北美,“在人口眾多的地理區(qū)域,特別是非洲、印度、中國(guó)和東南亞,對(duì)視覺(jué)場(chǎng)景的采樣嚴(yán)重不足”。
由于美國(guó)科技公司在人工智能領(lǐng)域處于世界領(lǐng)先地位,這可能會(huì)影響到從照片存儲(chǔ)服務(wù)、圖像搜索功能到更重要的AI安全攝像頭、自動(dòng)駕駛汽車等系統(tǒng)的方方面面。
“評(píng)估人工智能系統(tǒng)并不一定容易,因?yàn)闆](méi)有執(zhí)行這類評(píng)估的標(biāo)準(zhǔn)基準(zhǔn)?!睅椭_(kāi)展這項(xiàng)研究的Facebook人工智能研究科學(xué)家勞倫斯·范德馬頓(Laurens van der Maaten)在接受采訪時(shí)表示。
“對(duì)抗這種偏見(jiàn)最重要的一步是,在培訓(xùn)AI系統(tǒng)之前的數(shù)據(jù)收集環(huán)節(jié)就要謹(jǐn)慎得多?!?/p>
值得注意的是,科技公司們經(jīng)常把自家人工智能產(chǎn)品宣傳為“人人平等、人人可得”,但實(shí)際上,它們可能只是在按照自己的形象來(lái)評(píng)估、定義和塑造世界。