論文の概要: ForestLPR: LiDAR Place Recognition in Forests Attentioning Multiple BEV Density Images
- arxiv url: http://arxiv.org/abs/2503.04475v1
- Date: Thu, 06 Mar 2025 14:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 17:59:00.870911
- Title: ForestLPR: LiDAR Place Recognition in Forests Attentioning Multiple BEV Density Images
- Title(参考訳): ForestLPR:複数のBEV密度画像を保持する森林におけるLiDAR位置認識
- Authors: Yanqing Shen, Turcan Tuna, Marco Hutter, Cesar Cadena, Nanning Zheng,
- Abstract要約: 本研究では,自然林におけるロバストなLiDARを用いた位置認識手法であるフォレストLPRを提案する。
異なる高さの森の地形の断面画像には、ある場所を再訪するために必要な情報が含まれている。
提案手法では,視覚変換器を共有バックボーンとして使用し,局所記述子の集合を生成する。
- 参考スコア(独自算出の注目度): 38.727720300337296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Place recognition is essential to maintain global consistency in large-scale localization systems. While research in urban environments has progressed significantly using LiDARs or cameras, applications in natural forest-like environments remain largely under-explored. Furthermore, forests present particular challenges due to high self-similarity and substantial variations in vegetation growth over time. In this work, we propose a robust LiDAR-based place recognition method for natural forests, ForestLPR. We hypothesize that a set of cross-sectional images of the forest's geometry at different heights contains the information needed to recognize revisiting a place. The cross-sectional images are represented by \ac{bev} density images of horizontal slices of the point cloud at different heights. Our approach utilizes a visual transformer as the shared backbone to produce sets of local descriptors and introduces a multi-BEV interaction module to attend to information at different heights adaptively. It is followed by an aggregation layer that produces a rotation-invariant place descriptor. We evaluated the efficacy of our method extensively on real-world data from public benchmarks as well as robotic datasets and compared it against the state-of-the-art (SOTA) methods. The results indicate that ForestLPR has consistently good performance on all evaluations and achieves an average increase of 7.38\% and 9.11\% on Recall@1 over the closest competitor on intra-sequence loop closure detection and inter-sequence re-localization, respectively, validating our hypothesis
- Abstract(参考訳): 場所認識は、大規模ローカライゼーションシステムにおいて、グローバルな一貫性を維持するために不可欠である。
都市環境の研究はLiDARやカメラを用いて大幅に進展しているが、自然林のような環境の応用は未調査のままである。
さらに、森林は、高い自己相似性と、時間とともに植生の成長が著しく変化するため、特に課題を呈している。
本研究では,自然林のロバストな位置認識手法であるフォレストLPRを提案する。
我々は、異なる高さの森の地形の断面画像の集合には、場所を再考するために必要な情報が含まれていると仮定する。
断面画像は、異なる高さの点雲の水平スライスの画像の \ac{bev} 密度画像で表現される。
提案手法では,視覚変換器を共有バックボーンとして使用して局所記述子の集合を生成し,複数のBEVインタラクションモジュールを導入し,異なる高さの情報に適応的に対応させる。
次に、回転不変の場所記述子を生成するアグリゲーション層が続く。
提案手法の有効性を,公開ベンチマークやロボットデータセットから得られた実世界のデータに基づいて評価し,最新技術(SOTA)法と比較した。
その結果、フォレストLPRは全ての評価において一貫して良好な性能を示し、Recall@1における平均7.38\%および9.11\%の増加を、シーケンス内ループクロージャ検出とシーケンス間再ローカライゼーションにおいて最も近い競合相手に対して達成し、我々の仮説を検証した。
関連論文リスト
- Zooming In on Fakes: A Novel Dataset for Localized AI-Generated Image Detection with Forgery Amplification Approach [69.01456182499486]
textbfBR-Genは、さまざまなシーン認識アノテーションを備えた15万のローカル鍛造イメージの大規模なデータセットである。
textbfNFA-ViTはノイズ誘導フォージェリ増幅ビジョン変換器で、ローカライズされたフォージェリの検出を強化する。
論文 参考訳(メタデータ) (2025-04-16T09:57:23Z) - Semantic segmentation of forest stands using deep learning [0.0]
深層学習法はコンピュータビジョンにおいて大きな可能性を証明してきたが、森の起伏への応用は未解明のままである。
本研究では,マルチクラスセグメンテーション問題としてのフレーミングスタンドデライン化と,U-NetベースのDLフレームワークの適用という,新しいアプローチを提案する。
このモデルは、マルチスペクトル画像、ALSデータ、およびエキスパートインタプリタによって作成された既存のスタンドマップを用いて、訓練され評価された。
論文 参考訳(メタデータ) (2025-04-03T10:47:25Z) - HOTFormerLoc: Hierarchical Octree Transformer for Versatile Lidar Place Recognition Across Ground and Aerial Views [30.77381516091565]
大規模3次元位置認識のための新規で汎用的な階層型OctoreeベースのTransformerであるHOTFormerLocを提案する。
粒度にまたがる空間的特徴と意味的特徴をキャプチャするオクツリーに基づくマルチスケールアテンション機構を提案する。
CS-Wild-Placesは、密林で捉えた空中および地上のライダースキャンの点雲データを含む、新しい3次元オープンソースデータセットである。
論文 参考訳(メタデータ) (2025-03-11T07:59:45Z) - NeRF-Accelerated Ecological Monitoring in Mixed-Evergreen Redwood Forest [0.0]
混合常緑樹林における幹径推定を目的としたMLSとNeRF林の復元の比較を行った。
凸ハルモデルを用いた改良DBH推定法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:32:15Z) - Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - BEVPlace: Learning LiDAR-based Place Recognition using Bird's Eye View
Images [20.30997801125592]
位置認識における異なる表現の可能性、すなわち鳥の視線(BEV)画像について検討する。
BEV画像上で訓練された単純なVGGNetは、わずかな視点変化のシーンにおける最先端の場所認識手法と同等のパフォーマンスを達成する。
そこで我々は,クエリクラウドの位置を推定し,位置認識の利用を拡大する手法を開発した。
論文 参考訳(メタデータ) (2023-02-28T05:37:45Z) - Spatial Likelihood Voting with Self-Knowledge Distillation for Weakly
Supervised Object Detection [54.24966006457756]
自己知識蒸留ネットワーク(SLV-SDネット)を用いたWSODフレームワークを提案する。
SLV-SD Netは、境界ボックスアノテーションなしで領域提案のローカライゼーションを収束させる。
PASCAL VOC 2007/2012およびMS-COCOデータセットの実験は、SLV-SD Netの優れた性能を示している。
論文 参考訳(メタデータ) (2022-04-14T11:56:19Z) - PANet: Perspective-Aware Network with Dynamic Receptive Fields and
Self-Distilling Supervision for Crowd Counting [63.84828478688975]
本稿では,視点問題に対処するため,PANetと呼ばれる新しい視点認識手法を提案する。
対象物のサイズが視点効果によって1つの画像で大きく変化するという観測に基づいて,動的受容場(DRF)フレームワークを提案する。
このフレームワークは、入力画像に応じて拡張畳み込みパラメータによって受容野を調整することができ、モデルが各局所領域についてより識別的な特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T04:43:05Z) - LODE: Deep Local Deblurring and A New Benchmark [106.80269193462712]
我々はBLur-Aware Deblurring Network(BladeNet)と呼ばれる新しいフレームワークを提案する。
ローカルブラー合成モジュールは局所的にぼやけたトレーニングペアを生成し、ローカルブラー知覚モジュールは局所的にぼやけた領域を自動的に捕捉し、Blar-guided Space Attentionモジュールは遅延ネットワークを空間的注意でガイドする。
我々は,REDS と LODE データセットの広範な実験を行い,BladeNet がPSNR を 2.5dB で改善し,SotAs を局所的に改善し,グローバルデブロアに匹敵する性能を維持していることを示す。
論文 参考訳(メタデータ) (2021-09-19T15:57:28Z) - AdaZoom: Adaptive Zoom Network for Multi-Scale Object Detection in Large
Scenes [57.969186815591186]
大規模なシーンの検出は、小さなオブジェクトと極端なスケールの変動のために難しい問題である。
本稿では,物体検出のための焦点領域を適応的に拡大するために,フレキシブルな形状と焦点長を有する選択的拡大器として,新しい適応型Zoom(AdaZoom)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-19T03:30:22Z) - Instance segmentation of fallen trees in aerial color infrared imagery
using active multi-contour evolution with fully convolutional network-based
intensity priors [0.5276232626689566]
画像のセグメンテーションマップ上での複数のアクティブな輪郭進化により、共通オブジェクトクラスのインスタンスをセグメンテーションするフレームワークを導入する。
高分解能空中多スペクトル画像から個々の落下茎を分割する文脈で提案されたフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2021-05-05T11:54:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。