論文の概要: ActLoc: Learning to Localize on the Move via Active Viewpoint Selection
- arxiv url: http://arxiv.org/abs/2508.20981v1
- Date: Thu, 28 Aug 2025 16:36:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.515619
- Title: ActLoc: Learning to Localize on the Move via Active Viewpoint Selection
- Title(参考訳): ActLoc: アクティブ視点選択による移動のローカライズを学ぶ
- Authors: Jiajie Li, Boyang Sun, Luca Di Giammarino, Hermann Blum, Marc Pollefeys,
- Abstract要約: ActLocは、一般的なロボットナビゲーションタスクのローカライズ精度を高めるためのアクティブな視点対応計画フレームワークである。
ActLocの中核となるのは、視点選択のために、大規模に訓練された注意ベースのモデルである。
ActLocは、単一視点選択における最先端の結果を達成し、完全な軌道計画に効果的に一般化する。
- 参考スコア(独自算出の注目度): 52.909507162638526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable localization is critical for robot navigation, yet most existing systems implicitly assume that all viewing directions at a location are equally informative. In practice, localization becomes unreliable when the robot observes unmapped, ambiguous, or uninformative regions. To address this, we present ActLoc, an active viewpoint-aware planning framework for enhancing localization accuracy for general robot navigation tasks. At its core, ActLoc employs a largescale trained attention-based model for viewpoint selection. The model encodes a metric map and the camera poses used during map construction, and predicts localization accuracy across yaw and pitch directions at arbitrary 3D locations. These per-point accuracy distributions are incorporated into a path planner, enabling the robot to actively select camera orientations that maximize localization robustness while respecting task and motion constraints. ActLoc achieves stateof-the-art results on single-viewpoint selection and generalizes effectively to fulltrajectory planning. Its modular design makes it readily applicable to diverse robot navigation and inspection tasks.
- Abstract(参考訳): ロボットナビゲーションには信頼性の高いローカライゼーションが不可欠であるが、既存のほとんどのシステムは、ある場所におけるすべての視線方向が同様に情報的であると暗黙的に仮定している。
実際には、ロボットがアンマップされた領域、曖昧な領域、あるいは非形式的な領域を観察すると、ローカライゼーションは信頼できないものとなる。
そこで本研究では,一般的なロボットナビゲーションタスクのローカライズ精度を高めるために,アクティブな視点対応計画フレームワークであるActLocを提案する。
ActLocの中核となるのは、視点選択のために、大規模に訓練された注意ベースのモデルである。
モデルは、地図作成時に使用される距離マップとカメラのポーズを符号化し、任意の3D位置におけるヨー方向とピッチ方向のローカライズ精度を予測する。
これらのポイント毎の精度分布をパスプランナに組み込むことで、タスクや動きの制約を尊重しながら、ローカライズロバスト性を最大化するカメラ配向を積極的に選択することができる。
ActLocは、単一視点選択における最先端の結果を達成し、完全な軌道計画に効果的に一般化する。
モジュラーデザインにより、多様なロボットナビゲーションや検査タスクに容易に適用できる。
関連論文リスト
- TopV-Nav: Unlocking the Top-View Spatial Reasoning Potential of MLLM for Zero-shot Object Navigation [52.422619828854984]
MLLMをベースとしたTopV-Navを提案する。
MLLMの空間推論能力をトップビューで完全に解き放つために,適応型視覚プロンプト生成法(AVPG)を提案する。
論文 参考訳(メタデータ) (2024-11-25T14:27:55Z) - Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - Active Visual Localization for Multi-Agent Collaboration: A Data-Driven Approach [47.373245682678515]
本研究は、視点変化の課題を克服するために、アクティブな視覚的ローカライゼーションをどのように利用できるかを検討する。
具体的には、与えられた場所における最適な視点を選択する問題に焦点をあてる。
その結果,既存の手法と比較して,データ駆動方式の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T08:18:30Z) - Deep Reinforcement Learning for Localizability-Enhanced Navigation in
Dynamic Human Environments [16.25625435648576]
自律ロボットにとって、信頼性の高いローカライゼーションは、効率的かつ安全にナビゲートすることが不可欠である。
深部強化学習による局所化可能性向上ナビゲーションのための新しい手法を提案する。
従来は見られなかった環境下では, 損失率と到着率に大きな改善が見られた。
論文 参考訳(メタデータ) (2023-03-22T07:44:35Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Deep Multi-Task Learning for Joint Localization, Perception, and
Prediction [68.50217234419922]
本稿では,ローカライズエラー下の最先端の自律性スタックで発生する問題について検討する。
我々は,認識,予測,局所化を共同で行うシステムの設計を行う。
本アーキテクチャでは,両タスク間の計算を再利用し,効率よくローカライズエラーを修正できる。
論文 参考訳(メタデータ) (2021-01-17T17:20:31Z) - Visual Localization for Autonomous Driving: Mapping the Accurate
Location in the City Maze [16.824901952766446]
視覚的局所化のための新しい特徴投票手法を提案する。
本研究では,提案した特徴投票手法を,最先端の3つの視覚的ローカライゼーションネットワークに実装する。
当社のアプローチは、挑戦的な都市内設定においても、ロバストな位置予測を可能にします。
論文 参考訳(メタデータ) (2020-08-13T03:59:34Z) - Spatial Action Maps for Mobile Manipulation [30.018835572458844]
状態と同じドメインで定義された高密度なアクション表現で学習することが有利であることを示す。
本稿では,可能なアクションの集合をピクセルマップで表現する「空間的アクションマップ」を提案する。
空間行動マップで学習したポリシーは、従来の代替手段よりもはるかに優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-04-20T09:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。