摘要:為了從單張RGB圖像估計(jì)出相機(jī)的位姿信息,提出了一種深度編解碼雙路卷積神經(jīng)網(wǎng)絡(luò)(CNN),提升了視覺(jué)自定位的精度。首先,使用編碼器從輸入圖像中提取高維特征;然后,使用解碼器提升特征的空間分辨率;最后,通過(guò)多尺度位姿預(yù)測(cè)器輸出位姿參數(shù)。由于位置和姿態(tài)的特性不同,網(wǎng)絡(luò)從解碼器開始采用雙路結(jié)構(gòu),對(duì)位置和姿態(tài)分別進(jìn)行處理,并且在編解碼之間增加跳躍連接以保持空間信息。實(shí)驗(yàn)結(jié)果表明:所提網(wǎng)絡(luò)的精度與目前同類型算法相比有明顯提升,其中相機(jī)姿態(tài)角度精度有較大提升。
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社