論文の概要: ForestVO: Enhancing Visual Odometry in Forest Environments through ForestGlue
- arxiv url: http://arxiv.org/abs/2504.01261v1
- Date: Wed, 02 Apr 2025 00:20:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:19:36.642771
- Title: ForestVO: Enhancing Visual Odometry in Forest Environments through ForestGlue
- Title(参考訳): ForestVO:フォレストグラウトを通した森林環境における視覚オドメトリーの強化
- Authors: Thomas Pritchard, Saifullah Ijaz, Ronald Clark, Basaran Bahadir Kocer,
- Abstract要約: 我々は4つの構成でSuperPoint特徴検出器を強化したForestGlueを紹介する。
特徴マッチングには、合成森林データで再訓練したLightGlueまたはSuperGlueを用いる。
フレーム間のマッチング2次元画素座標を用いて相対カメラのポーズを推定するフォレストVOを提案する。
- 参考スコア(独自算出の注目度): 13.382183004888715
- License:
- Abstract: Recent advancements in visual odometry systems have improved autonomous navigation; however, challenges persist in complex environments like forests, where dense foliage, variable lighting, and repetitive textures compromise feature correspondence accuracy. To address these challenges, we introduce ForestGlue, enhancing the SuperPoint feature detector through four configurations - grayscale, RGB, RGB-D, and stereo-vision - optimised for various sensing modalities. For feature matching, we employ LightGlue or SuperGlue, retrained with synthetic forest data. ForestGlue achieves comparable pose estimation accuracy to baseline models but requires only 512 keypoints - just 25% of the baseline's 2048 - to reach an LO-RANSAC AUC score of 0.745 at a 10{\deg} threshold. With only a quarter of keypoints needed, ForestGlue significantly reduces computational overhead, demonstrating effectiveness in dynamic forest environments, and making it suitable for real-time deployment on resource-constrained platforms. By combining ForestGlue with a transformer-based pose estimation model, we propose ForestVO, which estimates relative camera poses using matched 2D pixel coordinates between frames. On challenging TartanAir forest sequences, ForestVO achieves an average relative pose error (RPE) of 1.09 m and a kitti_score of 2.33%, outperforming direct-based methods like DSO by 40% in dynamic scenes. Despite using only 10% of the dataset for training, ForestVO maintains competitive performance with TartanVO while being a significantly lighter model. This work establishes an end-to-end deep learning pipeline specifically tailored for visual odometry in forested environments, leveraging forest-specific training data to optimise feature correspondence and pose estimation, thereby enhancing the accuracy and robustness of autonomous navigation systems.
- Abstract(参考訳): 視覚計測システムの最近の進歩は、自律的なナビゲーションを改善しているが、高密度の葉、可変照明、反復的なテクスチャが特徴の対応精度を損なう森林のような複雑な環境では、課題が続いている。
このような課題に対処するため,我々はForestGlueを導入し,グレースケール,RGB,RGB-D,ステレオビジョンの4つの構成でSuperPoint機能検出機能を強化した。
特徴マッチングには、合成森林データで再訓練したLightGlueまたはSuperGlueを用いる。
ForestGlueはベースラインモデルに匹敵するポーズ推定精度を達成しているが、10{\deg}しきい値でLO-RANSAC AUCスコア0.745に達するためには、2048年のベースラインの25%の512キーポイントしか必要としない。
必要なキーポイントの4分の1しか必要とせず、ForestGlueは計算オーバーヘッドを大幅に削減し、動的森林環境における有効性を実証し、リソース制約のあるプラットフォーム上でのリアルタイムデプロイメントに適している。
ForestGlueと変圧器を用いたポーズ推定モデルを組み合わせることで、フレーム間のマッチング2次元画素座標を用いて相対カメラのポーズを推定するフォレストVOを提案する。
挑戦的なタータンエアの森林配列では、フォレストVOは平均相対的なポーズ誤差(RPE)が1.09m、kiti_scoreが2.33%に達し、ダイナミックなシーンではDSOのような直接的手法よりも40%向上している。
ForestVOはトレーニングにデータセットの10%しか使用していないが、より軽量なモデルであると同時に、TartanVOと競合するパフォーマンスを維持している。
本研究は、森林環境における視覚計測に適したエンドツーエンドのディープラーニングパイプラインを構築し、森林固有のトレーニングデータを活用して特徴対応の最適化と推定を行い、自律ナビゲーションシステムの精度と堅牢性を向上させる。
関連論文リスト
- SparseFormer: Detecting Objects in HRW Shots via Sparse Vision Transformer [62.11796778482088]
本稿では,近接撮影とHRW撮影のオブジェクト検出のギャップを埋めるために,SparseFormerと呼ばれるモデル非依存のスパース視覚変換器を提案する。
提案されたSparseFormerは、オブジェクトを含む可能性のあるスパース分散ウィンドウを精査するために、注意トークンを選択的に使用する。
2つのHRWベンチマークであるPANDAとDOTA-v1.0の実験により、提案されたSparseFormerは、最先端のアプローチよりも検出精度(最大5.8%)と速度(最大3倍)を大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-02-11T03:21:25Z) - Comparing remote sensing-based forest biomass mapping approaches using new forest inventory plots in contrasting forests in northeastern and southwestern China [6.90293949599626]
大規模高空間分解能地上バイオマス(AGB)マップは、森林炭素ストックの決定と変化の過程において重要な役割を担っている。
GEDIは、散布された足跡を収集するサンプリング装置であり、そのデータは他の連続カバー衛星のデータと組み合わせて高解像度の地図を作成する必要がある。
GEDI L2Aデータから森林AGBを推定するローカルモデルを開発した。
論文 参考訳(メタデータ) (2024-05-24T11:10:58Z) - SegmentAnyTree: A sensor and platform agnostic deep learning model for
tree segmentation using laser scanning data [15.438892555484616]
本研究は,様々なレーザー走査型に適用可能な深層学習モデルを用いて,ライダーデータにおけるツリークラウン(ITC)セグメンテーションを推し進める。
3次元森林景観解析におけるデータ特性の相違による伝達可能性の課題に対処する。
PointGroupアーキテクチャに基づくこのモデルは、セマンティックとインスタンスセグメンテーションのための別々のヘッドを持つ3D CNNである。
論文 参考訳(メタデータ) (2024-01-28T19:47:17Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - Point2Tree(P2T) -- framework for parameter tuning of semantic and
instance segmentation used with mobile laser scanning data in coniferous
forest [0.22940141855172028]
セマンティックセグメンテーションにおいて0.92F1スコアを達成するPointnet++アーキテクチャに基づいたモデルをトレーニングする。
パイプラインの第2ステップとして、グラフベースのアプローチを使用して、F1スコアの約0.6に達した。
論文 参考訳(メタデータ) (2023-05-04T08:45:17Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - A Novel Semisupervised Contrastive Regression Framework for Forest
Inventory Mapping with Multisensor Satellite Data [5.652290685410878]
本研究では,連続する森林変数の壁面間マッピングのための新しい半教師付き回帰フレームワークを開発する。
このフレームワークは、Copernicus Sentinel-1とSentinel-2の画像を用いて、ボレアル林のサイトで実証されている。
達成された予測精度は、バニラUNetや従来の回帰モデルよりも優れている。
論文 参考訳(メタデータ) (2022-12-01T03:26:02Z) - Neuroevolution-based Classifiers for Deforestation Detection in Tropical
Forests [62.997667081978825]
森林破壊や荒廃により、毎年何百万ヘクタールもの熱帯林が失われる。
監視・森林破壊検知プログラムは、犯罪者の予防・処罰のための公共政策に加えて、使用されている。
本稿では,熱帯林の森林破壊検出作業におけるニューロ進化技術(NEAT)に基づくパターン分類器の利用を提案する。
論文 参考訳(メタデータ) (2022-08-23T16:04:12Z) - Country-wide Retrieval of Forest Structure From Optical and SAR
Satellite Imagery With Bayesian Deep Learning [74.94436509364554]
本研究では,10mの解像度で森林構造変数を高密度に推定するベイズ深層学習手法を提案する。
本手法は,Sentinel-2光画像とSentinel-1合成開口レーダ画像を5種類の森林構造変数のマップに変換する。
ノルウェーを横断する41の空中レーザー走査ミッションの基準データに基づいて、我々のモデルを訓練し、テストする。
論文 参考訳(メタデータ) (2021-11-25T16:21:28Z) - AdaZoom: Adaptive Zoom Network for Multi-Scale Object Detection in Large
Scenes [57.969186815591186]
大規模なシーンの検出は、小さなオブジェクトと極端なスケールの変動のために難しい問題である。
本稿では,物体検出のための焦点領域を適応的に拡大するために,フレキシブルな形状と焦点長を有する選択的拡大器として,新しい適応型Zoom(AdaZoom)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-19T03:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。