亚洲日韩久久|国偷自产一区二区三区蜜臀国|国产一区二区日韩|99热这里只亚洲无码,无码

英特爾為美國(guó)國(guó)防部研發(fā)防御技術(shù) 防止人工智能系統(tǒng)被攻擊/欺騙

日期:2020-04-13 來(lái)源:蓋世汽車(chē)閱讀:334
核心提示:英特爾為美國(guó)國(guó)防部研發(fā)防御技術(shù) 防止人工智能系統(tǒng)被攻擊/欺騙
   據(jù)外媒報(bào)道,當(dāng)?shù)貢r(shí)間4月9日,英特爾公司(Intel Corp.)與佐治亞理工學(xué)院(Georgia Institute of Technology)宣布將為美國(guó)國(guó)防先進(jìn)研究計(jì)劃署(U.S. Defense Advanced Research Projects Agency)領(lǐng)導(dǎo)一個(gè)項(xiàng)目團(tuán)隊(duì),研發(fā)防御技術(shù),防止人工智能系統(tǒng)被攻擊和欺騙。
 
  黑科技,前瞻技術(shù),自動(dòng)駕駛,英特爾,英特爾AI,英特爾自動(dòng)駕駛
 ?。▓D片來(lái)源:英特爾)
 
  該項(xiàng)目名為“確保人工智能足夠強(qiáng)大,以抵御欺騙”(Guaranteeing Artificial Intelligence Robustness against Deception,GARD),將持續(xù)4年,耗資數(shù)百萬(wàn)美元,英特爾為主承包商,致力于改善網(wǎng)絡(luò)安全防御機(jī)制,防范會(huì)影響到機(jī)器學(xué)習(xí)模型的欺騙攻擊。
 
  雖然針對(duì)機(jī)器學(xué)習(xí)(ML)系統(tǒng)的對(duì)抗性攻擊很少見(jiàn),但是利用ML和AI進(jìn)行操作的系統(tǒng)的數(shù)量在不斷增加。而此類(lèi)技術(shù)是自動(dòng)駕駛汽車(chē)等半自動(dòng)和自動(dòng)駕駛系統(tǒng)的重要部分,因此有必要繼續(xù)防止AI技術(shù)錯(cuò)誤地對(duì)現(xiàn)實(shí)世界中的物體進(jìn)行分類(lèi)(例如,能夠區(qū)分停車(chē)標(biāo)志與人類(lèi)),因?yàn)樵趯W(xué)習(xí)模型中插入有害信息或微微修改物體本身都會(huì)誤導(dǎo)物體識(shí)別。
 
  GARD團(tuán)隊(duì)的目標(biāo)是為此類(lèi)系統(tǒng)配備工具和增強(qiáng)性功能,更好地幫助其抵御此類(lèi)攻擊。
 
  其實(shí),此類(lèi)攻擊已經(jīng)出現(xiàn)多年。例如,2019年3月,騰訊科恩實(shí)驗(yàn)室(Tencent’s Keen Security Lab)發(fā)布了一份報(bào)告,表示研究人員能夠利用貼在道路上的貼紙,誘使特斯拉Model S變道,并進(jìn)入迎面而來(lái)的車(chē)流中。在2017年,研究人員3D打印了一種烏龜,而且配備了特別設(shè)計(jì)的外殼圖案,以欺騙谷歌的AI圖像識(shí)別算法,讓該算法誤認(rèn)為烏龜是來(lái)復(fù)槍。
 
  自此之后,研究人員一直在研究利用修改過(guò)的路標(biāo)欺騙自動(dòng)駕駛車(chē)輛的方法,例如,利用一塊黑色膠帶欺騙半自動(dòng)駕駛汽車(chē)的攝像頭,讓其誤認(rèn)為速度限制范圍比實(shí)際要更大。
 
  因此,GARD的愿景是利用以前以及現(xiàn)在對(duì)影響計(jì)算機(jī)AI和ML視覺(jué)系統(tǒng)的缺陷和漏洞的研究,打造一個(gè)理論基礎(chǔ),幫助識(shí)別系統(tǒng)的漏洞,并確定極端情況的特征,以增強(qiáng)此類(lèi)系統(tǒng)面對(duì)錯(cuò)誤和攻擊的應(yīng)對(duì)能力。
 
  在GARD項(xiàng)目的第一階段,英特爾和佐治亞理工學(xué)院將在靜態(tài)圖像和視頻中保持空間、時(shí)間和語(yǔ)義一致性,以提升物體識(shí)別能力,意味著AI和ML系統(tǒng)能夠在額外情境下得到訓(xùn)練,了解到在任何給定情況下會(huì)發(fā)生什么,并經(jīng)過(guò)設(shè)計(jì),以標(biāo)記場(chǎng)景或駁回不太可能的圖像場(chǎng)景。該階段的理念是通過(guò)在環(huán)境中引入更多解釋圖像的因素,開(kāi)發(fā)出具有更好“判斷力”的AI。
 
  例如,一名攻擊者可以通過(guò)改變停車(chē)標(biāo)志,讓其外觀有點(diǎn)走樣,以欺騙AI,讓AI認(rèn)為該停車(chē)標(biāo)志不是一個(gè)停車(chē)標(biāo)志。對(duì)于人類(lèi)而言,該停車(chē)標(biāo)志還是紅色、還是八角形的形狀,即使“停下”這個(gè)詞被改變了或者消失了,因而,大多數(shù)人類(lèi)駕駛員還是會(huì)停車(chē)。不過(guò),AI可能會(huì)誤解該標(biāo)志,并繼續(xù)行駛。不過(guò),如果能夠額外感知情境,即讓AI在識(shí)別十字路口、標(biāo)志形狀、標(biāo)志顏色等方面接受訓(xùn)練,就可以像人類(lèi)駕駛員一樣,駁回錯(cuò)誤的分類(lèi)信息。
 
  總而言之,英特爾和佐治亞理工學(xué)院的研究是為了實(shí)現(xiàn)更好的圖像識(shí)別系統(tǒng),以提高自動(dòng)駕駛車(chē)輛的安全性,并讓各行業(yè)內(nèi)的ML系統(tǒng)能夠更好地分類(lèi)物體。
打賞
聯(lián)系客服 投訴反饋  頂部