摘要:針對低照度環境中光照不足或不均導致的圖像噪聲大、特征提取不均勻等問題,提出一種單目視覺定位技術。首先利用微光傳感器采集低照度圖像,設計基于深度學習的圖像去噪網絡處理噪聲。其次采用四叉樹改進特征均勻提取策略提升特征跟蹤效果,結合對極幾何、三角測量等技術估計幀間位姿。最后構建視覺重投影誤差方程,通過光束平差法優化位姿。實驗表明,在 0.01 lx 光照下,軌跡閉環時平均定位均方根誤差<1.47 m,無閉環時<4.26 m。

">

欧美一级在线毛片免费观看,国产成人精品视频一区二区不卡 ,成年人精品视频,国产精品手机视频

學術咨詢

讓期刊論文更省時、省事、省心

中國慣性技術學報雜志投稿格式參考范文:種低照度場景下的視覺定位技術

時間:

  1 引言

  同步定位與地圖構建(SLAM)技術在移動機器人、自動駕駛等領域應用廣泛,但現有視覺 SLAM 方案(如 VINS-Mono、ORB-SLAM3 等)在光照充足環境表現良好,不適用于低照度場景。

  低照度場景下的研究主要集中在圖像增強,方法包括基于直方圖均衡化、Retinex 理論和深度學習的增強方法。其中,直方圖均衡化方法簡單但易導致細節消失;Retinex 理論方法能保留細節但計算復雜;深度學習方法適應性好,如基于深度注意力機制的圖像增強方法、Zero-DCE 網絡等。

  目前低照度場景下定位技術研究較少,雖有基于深度神經網絡的視覺測距、生成對抗網絡改善圖像質量等方法,但缺乏完整定位技術方案支撐視覺導航。

  本文提出低照度場景下的視覺定位技術,包括:結合 U-Net 網絡與注意力機制的圖像去噪網絡、基于四叉樹改進的 ORB 特征均勻提取策略、基于光束平差法的位姿估計與優化。

  2 總體方案

  定位系統分為三部分:

  圖像去噪處理:采用微光傳感器采集圖像,在視覺跟蹤前加入基于深度學習的去噪模塊提升圖像質量,為后續處理奠定基礎。

  特征跟蹤:基于四叉樹思想劃分圖像網格,改進特征分布策略,避免特征集中分布,利用對極幾何、三角測量估計幀間位姿,選取關鍵幀建立幀間關系。

  位姿估計與優化:利用光束平差法構建視覺重投影誤差方程,求解最小二乘問題完成局部位姿估計和優化;基于詞袋模型進行閉環檢測,估計全局位姿圖。

  3 基于深度學習的視覺前端去噪處理

  3.1 低照度圖像去噪網絡

  微光傳感器成像過程中會產生固定噪聲(如散粒噪聲、暗電流噪聲)和時變噪聲(如讀出噪聲),其中散粒噪聲和暗電流噪聲服從泊松分布,讀出噪聲服從高斯分布。

  在 Neighbor2Neighbor 去噪網絡基礎上加入注意力機制,由通道注意力模塊與空間注意力模塊組合學習圖像特征。通道注意力模塊通過卷積層和 “壓縮 - 激勵” 操作,學習不同尺度的通道特征并分配注意力權重;空間注意力模塊利用非局部自注意力網絡,探索像素間全局依賴,提升降噪性能,同時采用殘差連接避免網絡退化。

  3.2 圖像去噪實驗與分析

  實驗基于 SIDDM 和 LLID 數據集展開,LLID 是利用微光傳感器采集的私有數據集,包含 100 對低照度圖像及 2000 張噪聲圖像,分辨率為 1280×1024。

  采用 Python 和 PyTorch 框架,在 3 塊 Nvidia 3090 GPU 上訓練測試,使用 Adam 優化器。預訓練和微調階段設置不同的 epoch、學習率等參數。

  實驗結果表明,改進后的去噪網絡 PSNR 和 SSIM 指標顯著提升,引入通道注意力和空間注意力模塊均能提高模型性能。

  4 低照度場景下的視覺跟蹤與位姿估計

  4.1 特征跟蹤技術

  采用 ORB 特征跟蹤,提取 FAST 角點和 BRIEF 描述子,通過漢明距離匹配。針對低照度下特征提取不均勻問題,基于四叉樹網格分配思想改進特征提取和分布策略。利用四叉樹篩選特征,剔除冗余,當網格特征點數>1 時四等分區域提取,點數為 1 或達到期望特征數時停止分裂,保留 Harris 響應值最大的特征點,并對不同金字塔層設置不同深度以提高效率。計算特征點的方向與描述子。

  4.2 位姿估計與優化

  視覺定位系統以第一幀為參考幀,相機光心為原點,z 軸指向前方,x 軸向右,y 軸向下。搭載 IMU 獲取尺度信息,視覺初始化時計算相鄰幀平移向量,IMU 通過加速度二次積分求得實際尺度信息,計算尺度因子并歸一化坐標點,尺度因子穩定后 IMU 不再參與后續位姿估計。

  5 低照度場景下的定位實驗

  5.1 實驗準備

  選取 PHOTONIS 的 NOCTURN U3 超低照度 CMOS 成像器件、XSENS MTI-G-710 慣性測量元件等設備,實驗軌跡真值由高精度實時差分定位系統測得,環境光照強度由 KLL-04 型弱光照度計測得,選取兩個室外 0.01 lx 光照強度的低照度場景進行實驗。

  5.2 小車實驗

  場景為北京理工大學中關村校區停車場,以高精度衛導數據為真值參考。實驗結果表明,本文方法定位精度高于 ORB-SLAM3,軌跡閉環時平均定位均方根誤差<1.47 m。

  5.3 手持實驗

  場景為北京市海淀區蘇家坨稻香湖路稻香湖公園,ORB-SLAM3 難以完成定位任務,本文方法在軌跡無閉環時平均定位均方根誤差<4.26 m。

  實驗表明,本文方法能在 0.01 lx 光照環境下實現視覺定位。

  6 結論

  本文提出低照度場景下單目視覺定位技術,主要工作包括:提出集成通道注意力機制的圖像去噪網絡,提升低照度圖像質量。采用基于改進四叉樹的特征均勻分布策略,提高特征提取效率和跟蹤效果。構建基于最小二乘的非線性優化估計器,利用詞袋模型完成定位任務。實驗驗證方法可行,定位精度優于 ORB-SLAM3,閉環和無閉環時均方根誤差分別<1.47 m 和<4.26 m。后續將研究視覺慣性緊耦合技術,提升定位系統精度。

李磊磊;鐘 傲;郝家鎂;陳家斌;韓勇強,北京理工大學自動化學院,202409