2010年国际米兰阵容

當前位置:主頁 > 新聞 > 國內新聞 > 正文

黑客神技:怎樣把人工智能耍得團團轉?_0

未知 2019-06-08 14:04

  程序員也是人,是人就會犯錯,所以我們的機器上充滿安全漏洞太正常不過。在打造驅動計算系統的軟件時,他們會把代碼放到錯誤的地方執行,或者讓數據跑到了不該去的地方,而且常常放進來太多的數據。所有這些,都給黑客留下了進行攻擊的方便之門。

  即使有人工智能輔助人類程序員,風險依然留存。AI也會犯錯。谷歌和馬斯克獨力支持的人工智能初創公司OpenAI的研究人員發表了一篇新論文,其中描述稱,這些風險在正快速重造我們計算系統的新一類AI里十分明顯,隨著AI涌入到安全攝像頭、傳感器和遍布物理世界的其他設備中,此類風險有可能會造成嚴重后果。這真的是每個人都應該認真思考的問題。

  幻視

  作為AI的一種形式,深度神經網絡可以通過分析海量數據學習各種任務。隨著深度神經網絡的興起,我們跨入到了一個新紀元,編程計算服務逐步讓位于訓練計算服務。Facebook、谷歌和微軟之類的互聯網巨頭里,這一切已經開始發生了。

  通過饋送無數照片,小扎及其公司訓練神經網絡識別這個世界上最流行的社交網絡上的無數人臉。通過大量口語集,谷歌訓練神經網絡識別安卓手機聽到的語音命令。未來,這將是我們打造智能機器人和自動駕駛汽車的方式。

  今天,神經網絡已經能很好地識別人臉和口語了,更不用說物件、動物、標志和其他書面語。但是,錯誤的發生還是無法避免,有時候還會是驚人的錯誤。沒有哪個機器學習系統是完美的。某些情況下,甚至可以耍弄這些系統看到或聽到實際上并不存在的東西。

  可以略微修改一幅圖像,讓神經網絡以為里面包含了一些實際上不存在的東西。這種修改人眼可能發現不了就是四處加了點像素。往大象的照片中加幾個像素,甚至能讓神經網絡以為這是汽車的照片。這種修改過的照片被論文作者稱作敵對例子。這里面就隱含了安全漏洞。

  當神經網絡被用于識別直接從攝像頭或其他傳感器收來的數據時,可能會引發問題。比如說,使用神經網絡的人臉識別系統若用于絕密設施的訪問控制,你可以往臉上畫幾個小點來讓系統認為是另一個。

  同類型的攻擊可以用在幾乎任何形式的機器學習上,不僅僅是神經網絡,決策樹和支持向量機之類長盛十幾年的決策輔助型機器學習方法也規避不了。事實上,這類攻擊或許已經在現實世界中上演了。金融公司就有可能對競爭對手的交易系統下手。他們可以構造一些交易,讓競爭對手的系統在抵御實際價值的點位上就大量拋出股票,然后迅速買進。

  這篇新論文中,通過將圖像打印到紙上并展現給攝像頭看,作者們成功騙過了神經網絡。不過,更簡單的方法或許也會起效,比如前文所述的在臉上畫點點。現實世界中這么干行不行尚不能確定,但作者們的研究顯示是有這個可能的。論文中已展示過攝像頭可被騙過,其他攻擊方法想必也不少,比如用人眼感覺不到的印記騙過人臉識別系統等。

  難點

  騙過AI絕不容易。但也沒必要懂得神經網絡設計的深層知識,也不用知道它是基于什么數據訓練的。如之前的研究所展現的,如果能構建出敵對例子騙過自家神經網絡,那對其他神經網絡也可能有效。換句話說,能騙過一個圖像識別系統,就可能騙過其他的。可以用另一個系統來構造敵對例子,那會提升成功率。

  說這些安全漏洞比較小是很恰當的。它們是理論上的問題,但在現實世界中,攻擊順利執行還是很困難。除非攻擊者發現了往臉上畫點點的完美模式,否則不用有所期待。然而,此類漏洞真實存在。隨著神經網絡在現代世界扮演越來越重要的角色,我們必須堵上這些漏洞。怎么堵呢?打造更好的神經網絡咯。

  這事兒絕不是說說簡單,但事情已經提上了議程。深度神經網絡有意模仿人腦神經網的運作。這也就是為什么它們被稱為神經網絡的原因。但真的實現時,也不過是大規模的數學計算而已層層疊加的微積分。這些數學計算是由人類組織的,也就是論文作者之類的研究人員。最終,是由他們控制這些系統,而他們已著手找尋清除這些安全漏洞的方法了。

  選擇之一,是在神經網絡的訓練中集成進敵對例子,教會它們識別真品與敵對例子之間的區別。不過,其他的選項也在研究人員的考慮之中。他們不是很確定哪些會起效而哪些完全是無用功。一如既往,最終還是人類自身必須變得更好才行。

標簽
2010年国际米兰阵容 重庆时时龙虎合技巧 重庆时时彩复式计划 时时彩ssc应用 聚宝彩票网app 北京pk技巧想输都难 3d胆拖投投注器 鼎盛是什么平台 爱网爱快乐时时 彩票店合作协议 意大利pk10心得 扑克牌三公玩法与技巧 二人棋牌有哪些