應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

把松鼠當(dāng)海獅 蜻蜓當(dāng)井蓋 為什么圖像識(shí)別AI會(huì)犯這些“低級(jí)錯(cuò)誤”?

2019-07-11 09:48 前瞻網(wǎng)

導(dǎo)讀:目前的人工智能技術(shù)已經(jīng)非常擅長識(shí)別圖像中的物體,但仍然很容易犯些“低級(jí)錯(cuò)誤”。

在部分情況下,只需在人眼不可見的靜態(tài)噪聲中添加一些可選的筆觸或圖層,就可以“愚弄”AI圖像識(shí)別系統(tǒng),這有時(shí)甚至?xí)斐芍旅暮蠊?/span>

例如,曾有研究人員將打印的涂鴉貼在路牌上導(dǎo)致AI自動(dòng)駕駛系統(tǒng)將限速標(biāo)志識(shí)別為禁行,騰訊科恩實(shí)驗(yàn)室也曾發(fā)布報(bào)告稱路面上難以注意到的小貼紙就能誤導(dǎo)特斯拉錯(cuò)誤判斷并駛?cè)敕聪蜍嚨馈?/p>

這些誤導(dǎo)標(biāo)志被稱為“對(duì)抗補(bǔ)丁”,研究人員現(xiàn)在正忙于開發(fā)保護(hù)人工智能系統(tǒng)不受這些例子影響的方法。

但在去年的一篇論文中,Google Brain和普林斯頓大學(xué)的一組研究人員,包括該領(lǐng)域最早的研究人員之一Ian Goodfellow,認(rèn)為這些新研究過于理論化,沒有抓住重點(diǎn)。

他們說,雖然大部分研究的重點(diǎn)是保護(hù)系統(tǒng)免受特別設(shè)計(jì)的標(biāo)志的干擾,但黑客可能會(huì)選擇一種更直接的方法:使用一張完全不同的照片,而不是在現(xiàn)有照片上疊加噪音圖案。這也可能導(dǎo)致系統(tǒng)誤判斷。這一批評(píng)促使加州大學(xué)伯克利分校的博士生Dan Hendrycks編寫了一個(gè)新的圖像數(shù)據(jù)集。

這個(gè)數(shù)據(jù)集中包括一些容易被誤判的圖像,比如松鼠(它們通常會(huì)被誤認(rèn)為是海獅)或蜻蜓(它們會(huì)被誤認(rèn)為是井蓋)。他表示:“這些例子似乎更難防范?!?/p>

人工合成的對(duì)抗標(biāo)志需要知道所有的人工智能系統(tǒng)是如何防范誤判的。但相比之下,即使人工智能系統(tǒng)各自的防范措施不同,這些自然的例子也能很好地發(fā)揮作用。

Hendrycks上周在國際機(jī)器學(xué)習(xí)會(huì)議上發(fā)布了該數(shù)據(jù)集的早期版本,包含大約6000幅圖像。他計(jì)劃在幾周內(nèi)發(fā)布最終版本,其中包括近8000個(gè)圖像。他打算讓研究團(tuán)體使用該數(shù)據(jù)集作為基準(zhǔn)。

換句話說,與其直接在圖像上訓(xùn)練圖像識(shí)別系統(tǒng),不如將其保留下來只用于測(cè)試。他說:“如果人們只是用這些數(shù)據(jù)集訓(xùn)練系統(tǒng),那么系統(tǒng)僅僅只是記住了這些例子。這樣雖然系統(tǒng)已經(jīng)解決了誤判這些圖像的問題,但它們對(duì)新圖像的誤判程度并沒有得到改善?!?/p>

破解這些令人困惑的誤判背后的邏輯,可能會(huì)讓系統(tǒng)的適應(yīng)性更廣。“為什么系統(tǒng)會(huì)把蜻蜓和鱷梨色拉醬搞混?”Hendrycks開玩笑道,“根本不清楚為什么會(huì)犯這樣的錯(cuò)誤。”

為什么人工智能會(huì)誤判?

有些人工智能系統(tǒng)的底層計(jì)算機(jī)制是已知的,有些則不是,這被稱為“黑箱”,即該系統(tǒng)的開發(fā)者可能都無法完全了解系統(tǒng)如何做出決策。

對(duì)于圖像識(shí)別技術(shù)來說,有時(shí)原因是因?yàn)榻o定的訓(xùn)練數(shù)據(jù)集出了問題。比如近日Facebook人工智能實(shí)驗(yàn)室的一項(xiàng)新研究就表明,科技巨頭銷售的物體識(shí)別算法在識(shí)別來自低收入國家的物品時(shí)表現(xiàn)得更差。

據(jù)報(bào)道,研究人員測(cè)試了五種流行的現(xiàn)成對(duì)象識(shí)別算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜Rekognition和IBM Watson。而測(cè)試的圖像包括來自全球不同階級(jí)的家庭的家中用品的圖像。這些圖像可能來自非洲布隆迪的一個(gè)月收入27美元的家庭,也可能來自烏克蘭一個(gè)月收入1090美元的家庭。

研究人員發(fā)現(xiàn),與月收入超過3500美元的家庭相比,當(dāng)被要求識(shí)別月收入50美元的家庭的物品時(shí),物體識(shí)別算法的出錯(cuò)率要高出10%左右。

而且在識(shí)別來自美國的照片時(shí),算法的準(zhǔn)確性也比識(shí)別來自索馬里或布基納法索的照片要高出15%至20%。

研究人員稱,在一系列用于圖像識(shí)別的商業(yè)云服務(wù)中,這些發(fā)現(xiàn)具有一致性。

人工智能算法的這種“偏見”還有很多別的例子,其中一種常見的推測(cè)原因是用于培訓(xùn)的數(shù)據(jù)有了偏頗——它們往往反映了相關(guān)工程師的生活和背景。由于這些人通常是來自高收入國家的白人男性,他們訓(xùn)練的算法所要識(shí)別的世界也是如此。

研究人員稱,視覺算法的訓(xùn)練數(shù)據(jù)主要來自歐洲和北美,“在人口眾多的地理區(qū)域,特別是非洲、印度、中國和東南亞,對(duì)視覺場(chǎng)景的采樣嚴(yán)重不足”。

由于美國科技公司在人工智能領(lǐng)域處于世界領(lǐng)先地位,這可能會(huì)影響到從照片存儲(chǔ)服務(wù)、圖像搜索功能到更重要的AI安全攝像頭、自動(dòng)駕駛汽車等系統(tǒng)的方方面面。

“評(píng)估人工智能系統(tǒng)并不一定容易,因?yàn)闆]有執(zhí)行這類評(píng)估的標(biāo)準(zhǔn)基準(zhǔn)。”幫助開展這項(xiàng)研究的Facebook人工智能研究科學(xué)家勞倫斯·范德馬頓(Laurens van der Maaten)在接受采訪時(shí)表示。

“對(duì)抗這種偏見最重要的一步是,在培訓(xùn)AI系統(tǒng)之前的數(shù)據(jù)收集環(huán)節(jié)就要謹(jǐn)慎得多?!?/p>

值得注意的是,科技公司們經(jīng)常把自家人工智能產(chǎn)品宣傳為“人人平等、人人可得”,但實(shí)際上,它們可能只是在按照自己的形象來評(píng)估、定義和塑造世界。