論文の概要: SuReNav: Superpixel Graph-based Constraint Relaxation for Navigation in Over-constrained Environments
- arxiv url: http://arxiv.org/abs/2602.06807v1
- Date: Fri, 06 Feb 2026 15:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.465271
- Title: SuReNav: Superpixel Graph-based Constraint Relaxation for Navigation in Over-constrained Environments
- Title(参考訳): SuReNav:過剰制約環境におけるナビゲーションのための超画素グラフベースの制約緩和
- Authors: Keonyoung Koh, Moonkyeong Jung, Samuel Seungsup Lee, Daehyung Park,
- Abstract要約: 本稿では,超画素グラフに基づく制約緩和とナビゲーション手法SuReNavを提案する。
提案手法はOpenStreetMapの2次元意味マップと3次元マップに基づく最先端のベースラインに対して評価する。
- 参考スコア(独自算出の注目度): 4.81932153177138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the over-constrained planning problem in semi-static environments. The planning objective is to find a best-effort solution that avoids all hard constraint regions while minimally traversing the least risky areas. Conventional methods often rely on pre-defined area costs, limiting generalizations. Further, the spatial continuity of navigation spaces makes it difficult to identify regions that are passable without overestimation. To overcome these challenges, we propose SuReNav, a superpixel graph-based constraint relaxation and navigation method that imitates human-like safe and efficient navigation. Our framework consists of three components: 1) superpixel graph map generation with regional constraints, 2) regional-constraint relaxation using graph neural network trained on human demonstrations for safe and efficient navigation, and 3) interleaving relaxation, planning, and execution for complete navigation. We evaluate our method against state-of-the-art baselines on 2D semantic maps and 3D maps from OpenStreetMap, achieving the highest human-likeness score of complete navigation while maintaining a balanced trade-off between efficiency and safety. We finally demonstrate its scalability and generalization performance in real-world urban navigation with a quadruped robot, Spot.
- Abstract(参考訳): 半静的環境における過度に制約された計画問題に対処する。
計画の目的は、最もリスクの低い領域を最小限にトラバースしながら、すべての制約のある領域を回避できるベストエフォートソリューションを見つけることである。
従来の手法は、しばしば定義済みの領域コストに依存し、一般化を制限する。
さらに、ナビゲーション空間の空間的連続性は、過大評価なしで通過可能な領域を特定するのを困難にしている。
これらの課題を克服するため,スーパーピクセルグラフを用いた制約緩和ナビゲーション手法SuReNavを提案する。
私たちのフレームワークは3つのコンポーネントで構成されています。
1)地域制約付きスーパーピクセルグラフマップ生成
2)安全かつ効率的なナビゲーションのための人体実験を訓練したグラフニューラルネットワークを用いた地域拘束緩和
3) 完全なナビゲーションのための緩和、計画、実行をインターリーブする。
提案手法は,OpenStreetMapの2次元セマンティックマップと3次元マップに基づく最先端のベースラインに対して評価し,効率と安全性のバランスの取れたトレードオフを維持しつつ,完全なナビゲーションの人間的類似度スコアを最大に達成した。
四足歩行ロボットSpotを用いた実世界の都市ナビゲーションにおけるスケーラビリティと一般化性能の実証を行った。
関連論文リスト
- HOSIG: Full-Body Human-Object-Scene Interaction Generation with Hierarchical Scene Perception [57.37135310143126]
HO SIGは階層的なシーン認識を通じて全体インタラクションを合成するための新しいフレームワークである。
我々のフレームワークは、自己回帰生成による運動長の無制限化をサポートし、手動による介入を最小限に抑える。
この研究は、シーン認識ナビゲーションとデクスタラスオブジェクト操作の間に重要なギャップを埋める。
論文 参考訳(メタデータ) (2025-06-02T12:08:08Z) - CREStE: Scalable Mapless Navigation with Internet Scale Priors and Counterfactual Guidance [13.922655150502365]
CREStEはスケーラブルな学習ベースのマップレスナビゲーションフレームワークである。
屋外都市航法におけるオープンワールドの一般化とロバストネスの課題に対処する。
CREStEは, 様々な都市, オフロード, 住宅環境において, キロスケールの地図レスナビゲーションの課題について評価する。
論文 参考訳(メタデータ) (2025-03-05T21:42:46Z) - Hyp2Nav: Hyperbolic Planning and Curiosity for Crowd Navigation [58.574464340559466]
我々は,群集ナビゲーションを実現するための双曲学習を提唱し,Hyp2Navを紹介した。
Hyp2Navは双曲幾何学の本質的な性質を活用し、ナビゲーションタスクにおける意思決定プロセスの階層的性質をよりよく符号化する。
本稿では, 効果的なソーシャルナビゲーション, 最高の成功率, 複数シミュレーション設定におけるリターンをもたらす, 双曲型ポリシーモデルと双曲型好奇性モジュールを提案する。
論文 参考訳(メタデータ) (2024-07-18T14:40:33Z) - TopoNav: Topological Navigation for Efficient Exploration in Sparse Reward Environments [0.6597195879147555]
TopoNavは、スパース・リワード設定における効率的な目標指向の探索とナビゲーションのための新しいフレームワークである。
TopoNavは環境のトポロジカルマップを動的に構築し、主要な場所と経路をキャプチャする。
本研究では,Clearpath Jackalロボットを用いて,シミュレーションと実世界のオフロード環境におけるTopoNavの評価を行った。
論文 参考訳(メタデータ) (2024-02-06T15:05:25Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Graph augmented Deep Reinforcement Learning in the GameRLand3D
environment [11.03710870581386]
強化学習で訓練された低レベルポリシーとグラフに基づく高レベル古典プランナを組み合わせたハイブリッド手法を提案する。
本研究では,広範囲な環境下でのエンドツーエンドの深部RLアプローチの限界を定量的に検証する。
また、新しいベンチマークである"GameRLand3D"を導入し、間もなくリリースされる環境では、ナビゲーションタスクのための複雑な手続き型3Dマップを生成することができる。
論文 参考訳(メタデータ) (2021-12-22T08:48:00Z) - Structured Scene Memory for Vision-Language Navigation [155.63025602722712]
視覚言語ナビゲーション(VLN)のための重要なアーキテクチャを提案する。
ナビゲーション中に知覚を正確に記憶できるほど区画化されている。
また、環境内の視覚的および幾何学的な手がかりを捉え、取り除く、構造化されたシーン表現としても機能する。
論文 参考訳(メタデータ) (2021-03-05T03:41:00Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。