在 2017 年的 I/O 大會上,Google 發(fā)布了一款能識人又能識物的新產(chǎn)品:
你只需要對著別人的名片一掃,所有信息就能存進通訊錄;
你只需要對著景物一掃,就能獲得當前景物的所有信息;
當你在游覽時,它還能擔當你的隨身翻譯、導游 ……
更重要的是,這款產(chǎn)品打破了智能手機的檔次局限,無論是高端旗艦還是低端入門,只要搭載的是智能系統(tǒng),任何手機都能用得上它。
這個在當時有著神仙功能的新品,就是我們在往后兩年 I/O 活動上都能看到的「Google Lens」,如今這個產(chǎn)品經(jīng)過兩年的發(fā)展,它已經(jīng)成為識物工具中的佼佼者。
而隨著今年 Google 在這款工具里加入 AR 和朗讀功能后,有著 124 年歷史的笛洋美術(shù)館(de Young museum)也在近日宣布,將全面支持游客用 Google Lens 游覽展館。
這也是世界上第一家支持 Google Lens 的美術(shù)館 / 博物館。
▲ 圖片來自:Artnews
在笛洋美術(shù)館內(nèi),游客可以通過 Google Lens 對展品進行識別,系統(tǒng)在進行識別后會推送當前作品的作者、歷史等相關(guān)信息,用戶可以在館內(nèi)通過這個功能自由獲取想了解的內(nèi)容。
而且更有意思的是,除了對作品進行識別外,游客還可以通過 Google Lens 對特定物品進行識別,識別成功后系統(tǒng)會播放作品相關(guān)的 AR 圖像或視頻內(nèi)容。
通過這種方式,用戶能獲得面前這幅作品以外的信息,譬如讓作者在視頻中介紹當前作品的創(chuàng)作經(jīng)歷等,讓游客通過具象且優(yōu)雅的方式獲得知識內(nèi)容,就像和藝術(shù)家面對面交流一樣。
不過,AI 識物能在未來取代傳統(tǒng)人力向?qū)С蔀橛慰瞳@得新知識的主要途徑嗎?我認為這個想法是不錯,但現(xiàn)在說似乎還有點早。
強大的 AI 人工智能讓 Google Lens 成為了當今世界上數(shù)一數(shù)二的識圖工具,越來越多的應用途徑,也讓這款工具走出實驗室和 PPT,成為用戶了解新事物的另一種途徑。
▲ 圖片來自:9to5Google
但這種機械式的向?qū)苋〈肆Τ蔀槲磥碛斡[的發(fā)展主流嗎?我認為說「取代」那這話可能說得有點早了,而且在短期內(nèi),AI 向?qū)Р粫〈斯こ蔀橹髁鳌?/p>
首先我不否認 AI 的兩個優(yōu)勢:全天候運作和可延展性。
相比于人工向?qū)?,AI 能 24 小時全天候工作,同時通過自學習能力,AI 能在執(zhí)行任務的過程中不斷學習。而且在網(wǎng)絡的幫助下,AI 并不是一個大腦在學習,而是服務器主腦和終端「大腦」們的信息互通,從而組成一張存儲特征的智能網(wǎng)絡。
從表象來說,比如我用手機對著我面前的杯子進行掃描,系統(tǒng)會記錄物體的特征信息,當其他用戶掃面類似的物體時,AI 會進行特征識別和結(jié)果篩選,快速得出識別結(jié)果?;蛘弋斘业谝淮螔呙柽@個物體時,AI 會先記錄特征,當我第二次掃描時,AI 會繼續(xù)增加特征點,從而全局提升識別的速度和準確率。
神經(jīng)網(wǎng)絡的自學習能力能讓 AI 的識別效率接近人腦,甚至有著不受情緒和精神的影響,它可能還會超越人腦,但是能得出準確無誤的結(jié)果,前提是需要大量訓練。
AI 能在短時間內(nèi)得出識別結(jié)果,實際上有賴于研發(fā)團隊在功能推出前的各種訓練工作。譬如在 Google 的 TensorFlow API 中,他們會通過 COCO 數(shù)據(jù)庫的 90 大類、共 30 萬張圖像對 AI 進行識別訓練,繼而通過圖像去提升 AI 的識別能力。但即便有著大量的訓練信息作為基礎,AI 也并非天下無敵。
The Verge 在近日的《人工智能難以識別低收入地區(qū)的日用品》這篇文章中,就對 AI 識別的基礎進行探討,并給出了「AI 訓練不平衡」的觀點。
研究人員發(fā)現(xiàn),物體識別算法在識別月收入 50 美元的家庭物品時,結(jié)果的誤差大約會比超過 3500 美元的物品增加 10%。而且不同地區(qū)物品的準確率也差異甚大,比如算法在識別美國物品方面會比索馬里和布基納法索的物品提升 15%~20% 的準確率。
另外這篇文章有意思的論點在于,由于 AI 識物在訓練時大多都是在發(fā)達地區(qū)訓練,因此對于非發(fā)達地區(qū)的物品,AI 識物會出現(xiàn)識別失效的情況,這種不平衡的現(xiàn)象很可能會影響未來自動駕駛在非發(fā)達地區(qū)的發(fā)展,因為自動駕駛需要依賴傳感器和 AI 識別。
▲ 同一個 Soap(肥皂),不同的結(jié)果 . 圖片來自:The Verge
所以盡管 AI 在某些方面比人類表現(xiàn)出色,但前提需要大量的數(shù)據(jù)支撐,對于存在變量的物品,人腦在學習和處理上則會比 AI 優(yōu)秀。面對博物館固定的展品,AI 能帶來低成本、快捷的體驗,但應對互動和數(shù)據(jù)庫沒有的物品,人力向?qū)匀徽加幸欢▋?yōu)勢。
不過 AI 要取代人力,真正要克服的不是知識量,而是交互情感。
AI 識物能提供詳細的知識傳播,但卻不具備人類最可貴的互動交流。雖然 AI 識物方便參觀者通過手機查看當前展品的詳細信息,但這只是機械性地獲得千篇一律的內(nèi)容,而并非是人與人交流。這種區(qū)別就像網(wǎng)上授課和面對面課堂,獲得的信息是不變的,但若是要提問詳情中沒有的知識,誰能解答呢?
當然,面對情感這個大問題,不少廠商也正通過語音優(yōu)化讓 AI 貼近人類發(fā)聲,比如 Google Duplex 在語音中加入了仿人類的語氣和停頓,「唔」、「哦」這些助詞讓 AI 說出的話更像是個真人而并不是機器人;蘋果也在 iOS 13 通過 TTS 對 Siri 進行多語音拼合優(yōu)化,讓 Siri 的發(fā)音更加自然。
▲ Google Assistant 有特別的發(fā)音技巧
總體而言,雖然目前 AI 有著強大的學習能力和識別效率,但作為知識的提供途徑,AI 當下仍處于輔助為主的發(fā)展階段,擁有情感和交互的人力依然占有主流優(yōu)勢。
不過不可否的是,在互聯(lián)網(wǎng)技術(shù)推動下,AI 已經(jīng)踏上了高速路,越來越貼近真實人類,盡管目前我們還在為「人工智能」和「人工智障」而辯論 ,但是讓 AI 在若干年后給我們提供新知識,并非不可能。
【來源:愛范兒】