來自蘇黎世聯(lián)邦理工學院和紐約大學的Oliver Glauser,Shihao Wu,Daniele Panozzo,Otmar Hilliges和Olga Sorkine-Hornung日前在ACM SIGGRAPH 2019大會展示了一款可以實時捕獲高精度手勢的伸展感應手套。
這支研究團隊指出,其研發(fā)的手套可以應對一系列具有挑戰(zhàn)性的設置,如遮擋嚴重的環(huán)境或不理想的光照條件,從而支持各種各樣的應用,如虛擬現(xiàn)實和增強現(xiàn)實。
據(jù)介紹,這款伸展感知應手套可以以高精度捕獲手勢,無需外部光學設置。團隊采用了大部分制備實驗室中都有提供的簡單工具,同時演示了如何以低成本制造和校準設備。
為了根據(jù)內(nèi)嵌至手套的電容式傳感器所提供的數(shù)據(jù)來重建姿勢,這群研究人員提出了一種利用傳感器本身的空間布局的深度網(wǎng)絡架構。只需訓練網(wǎng)絡一次,并利用低成本的現(xiàn)有手勢重建系統(tǒng)來采集訓練數(shù)據(jù)。然后手套可以即時為每位用戶進行校準。
他們指出:“我們已經(jīng)在一系列的實驗中驗證了手套的性能,并且探索了不同的模型和校準方法。與商業(yè)數(shù)據(jù)手套相比,我們的重建精度提高了35%。”
更多關于這款手套的信息請參閱論文《Interactive Hand Pose Estimation using a Stretch-Sensing Soft Glove》,并可點擊下載與實驗相關的數(shù)據(jù)集。
原文鏈接:https://yivian.com/news/61076.html
來源:映維網(wǎng)