Facebook的人工智能研究人員已經(jīng)開發(fā)出一種方法,可以通過簡單地分析真人做特定動作的視頻,輕松地將真人變成可玩的游戲角色。我的夢想是在NBA Jam中最終成為一個不可鎖定的角色,這離我的夢想又近了一步。
利用真人的鏡頭來幫助創(chuàng)造電子游戲,這遠非一個新想法。
上世紀90年代,第一個全息視頻游戲《世嘉時空旅行者》(Sega’s Time Traveller)根據(jù)玩家的選擇播放預先錄制的視頻片段,拼湊出一種游戲體驗。《真人快打》最早的版本也是通過在一個聲音舞臺上拍攝穿著戲服的角色創(chuàng)造出來的,但是為了保證游戲的順利進行,這些鏡頭被轉(zhuǎn)換成動畫角色。
如今,大多數(shù)電子游戲中的角色都是完全三維的模型,盡管玩家可以花費數(shù)小時定制外觀來反映自己,甚至繪制自己的臉,但角色的動作仍然是基于基礎動畫。
他最近在Facebook的人工智能研究部門發(fā)表的研究報告可以改變這一切。
兩個不同的神經(jīng)網(wǎng)絡在長度為5到8分鐘的鏡頭上進行訓練,對于執(zhí)行特定動作的人,比如打網(wǎng)球。
第一個網(wǎng)絡Pose2Pose分析鏡頭并提取正在進行動作的人。第二個網(wǎng)絡Pose2Frame然后傳輸該人的所有元素,包括他們正在創(chuàng)建的陰影和反射,然后將其覆蓋到新的背景設置上,該設置可以是渲染的視頻游戲區(qū)域。
其結(jié)果并不像現(xiàn)代游戲機所能生成的詳細3D游戲角色那樣流暢流暢,但它們是完全可控的。
隨著這項研究的發(fā)展,結(jié)果無疑會得到改善,但是混合方法可能會更好。人工智能可以在視頻中提取某個人的特征,包括他們移動方式的細微差別,并自動將其應用到一個定制的3D角色上,省去了玩家自己進行數(shù)百次微調(diào)的辛苦工作。
不過,隨著世界向更多的虛擬現(xiàn)實體驗邁進(記住,F(xiàn)acebook擁有Oculus),它將使我們更容易創(chuàng)造出可信的虛擬人物。你的朋友可以用智能手機拍下你跳舞的視頻,幾秒鐘后,你在虛擬世界里也會顯得很尷尬。
https://www.gizmodo.com.au/2019/04/ai-might-soon-make-it-easy-to-put-yourself-in-your-favourite-video-game/#
來源:gizmodo