人工智能監(jiān)控的興起令人擔(dān)憂。政府集體追蹤和識別公民的能力可能意味著公眾隱匿的終結(jié)。但是,但正如研究人員一再證明的那樣,有一些方法可以欺騙這樣的系統(tǒng)。
最新的例子來自比利時KU Leuven大學(xué)的一組工程師。 在上周在preprint服務(wù)器arXiv上分享的一篇論文中,這些學(xué)生展示了簡單的印刷圖案如何能夠欺騙人工智能系統(tǒng),該系統(tǒng)旨在識別圖像中的人物。
從人工智能的角度來看,如果你打印出一個學(xué)生特別設(shè)計的圖片,并把它掛在你的脖子上,你就像披了一件隱形衣。
正如研究人員所寫:“我們相信,如果我們把這項技術(shù)與復(fù)雜的服裝模擬技術(shù)結(jié)合起來,我們就能設(shè)計出一款T恤,它能讓一個人在自動監(jiān)控攝像頭面前幾乎隱形。”(他們沒有提到,但眾所周知,這是威廉吉布森(William Gibson)的科幻小說《零歷史》(Zero History)中一個重要的情節(jié)設(shè)置。)
這可能看起來很奇怪,但它實際上是人工智能世界中一個眾所周知的現(xiàn)象。這類模式被稱為對抗性的例子,它們利用計算機視覺系統(tǒng)脆弱的智能來欺騙它們,讓它們看到不存在的東西。
在過去,對抗性的例子被用來愚弄面部識別系統(tǒng)。(只要戴上一副特殊的眼鏡,人工智能就會認為你是米拉·喬沃維奇(Milla Jovovich)。)它們被做成貼紙,印在3D物體上,甚至被用來制作可以愚弄算法的藝術(shù)品。
許多研究人員警告說,對立的例子有潛在的危險。例如,它們可以被用來欺騙自動駕駛汽車,讓它們把停車標(biāo)志當(dāng)作燈柱來閱讀,或者它們可以欺騙旨在識別疾病的醫(yī)療人工智能視覺系統(tǒng)。這可能是為了醫(yī)療欺詐的目的,甚至是故意造成傷害。
在最近的這項研究中,我們通過谷歌研究人員David Ha發(fā)現(xiàn)的確實有一些需要注意的地方。最重要的是,學(xué)生們開發(fā)的對抗性補丁只能欺騙一個名為YOLOv2的特定算法。它甚至不能與谷歌或其他科技公司開發(fā)的現(xiàn)成計算機視覺系統(tǒng)相媲美,當(dāng)然,如果一個人在看圖像,它也不能工作。
這意味著,一件T恤能讓你隱身于所有監(jiān)控系統(tǒng)之外的想法,至少目前還只存在于科幻小說中。隨著人工智能監(jiān)控在世界各地的部署,我們中越來越多的人可能渴望找到一種方法來恢復(fù)我們的隱匿性。誰知道呢,這些令人產(chǎn)生幻覺的反面例子可能會成為下一個流行趨勢。
https://www.theverge.com/2019/4/23/18512472/fool-ai-surveillance-adversarial-example-yolov2-person-detection
來源:theverge