論文の概要: SEA-Nav: Efficient Policy Learning for Safe and Agile Quadruped Navigation in Cluttered Environments
- arxiv url: http://arxiv.org/abs/2603.09460v1
- Date: Tue, 10 Mar 2026 10:13:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.151225
- Title: SEA-Nav: Efficient Policy Learning for Safe and Agile Quadruped Navigation in Cluttered Environments
- Title(参考訳): SEA-Nav: 混乱した環境での安全でアジャイルな四足歩行のための効果的なポリシー学習
- Authors: Shiyi Chen, Mingye Yang, Haiyan Mao, Jiaqi Zhang, Haiyi Liu, Shuheng He, Debing Zhang, Zihao Qiu, Chun Zhang,
- Abstract要約: SEA-Navは四足歩行のための強化学習フレームワークである。
CBFベースのシールドは、安全な速度コマンドを出力するためにナビゲーションポリシーを制約する。
適応的な衝突再現機構と有害な探索報酬を導入し、学習の確率を高める。
- 参考スコア(独自算出の注目度): 16.354808611554805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficiently training quadruped robot navigation in densely cluttered environments remains a significant challenge. Existing methods are either limited by a lack of safety and agility in simple obstacle distributions or suffer from slow locomotion in complex environments, often requiring excessively long training phases. To this end, we propose SEA-Nav (Safe, Efficient, and Agile Navigation), a reinforcement learning framework for quadruped navigation. Within diverse and dense obstacle environments, a differentiable control barrier function (CBF)-based shield constraints the navigation policy to output safe velocity commands. An adaptive collision replay mechanism and hazardous exploration rewards are introduced to increase the probability of learning from critical experiences, guiding efficient exploration and exploitation. Finally, kinematic action constraints are incorporated to ensure safe velocity commands, facilitating successful physical deployment. To the best of our knowledge, this is the first approach that achieves highly challenging quadruped navigation in the real world with minute-level training time.
- Abstract(参考訳): 密集した環境で四足歩行を効果的に訓練することは、依然として大きな課題である。
既存の手法は、単純な障害物分布における安全性と俊敏性の欠如によって制限されるか、複雑な環境での緩やかな移動に苦しむか、しばしば過度に長い訓練段階を必要とする。
この目的のために,4つのナビゲーションのための強化学習フレームワークであるSEA-Nav (Safe, Efficient, and Agile Navigation)を提案する。
多様な密集した障害物環境の中で、CBFベースのシールドは、安全な速度コマンドを出力するためにナビゲーションポリシーを制約する。
適応的な衝突再現機構と有害な探索報酬を導入し、臨界経験から学習する確率を高め、効率的な探索と搾取を導く。
最後に、安全なベロシティコマンドを確保するために、キネマティックなアクション制約が組み込まれ、物理的なデプロイメントが成功している。
私たちの知る限りでは、これは、分レベルのトレーニング時間で現実世界で非常に困難な四足歩行を実現する最初のアプローチです。
関連論文リスト
- VLA-AN: An Efficient and Onboard Vision-Language-Action Framework for Aerial Navigation in Complex Environments [12.689250855332569]
VLA-ANは、複雑な環境での自律ドローンナビゲーションに特化したフレームワークである。
既存の大型航法モデルの4つの大きな制限に対処する。
シングルタスクの成功率は98.1%に達する。
論文 参考訳(メタデータ) (2025-12-17T10:02:55Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - Depth-Constrained ASV Navigation with Deep RL and Limited Sensing [43.785833390490446]
本研究では,深度制約下でのASVナビゲーションのための強化学習フレームワークを提案する。
環境意識を高めるため,GPレグレッションをRLフレームワークに統合する。
我々は,実世界の水環境に対して,訓練された政策が適切に一般化されることを保証する効果的なシミュレート・トゥ・リアル・トランスファーを実証する。
論文 参考訳(メタデータ) (2025-04-25T10:56:56Z) - Hierarchical Reinforcement Learning for Safe Mapless Navigation with Congestion Estimation [7.339743259039457]
本稿では,階層的強化学習(HRL)を利用した安全な地図レスナビゲーションフレームワークを提案する。
その結果,HRLに基づくナビゲーションフレームワークは静的シナリオと動的シナリオの両方で優れていることがわかった。
本研究では,物理的な検証実験を行うために,TurtleBot3ロボット上にHRLベースのナビゲーションフレームワークを実装した。
論文 参考訳(メタデータ) (2025-03-15T08:03:50Z) - Learning Robust Autonomous Navigation and Locomotion for Wheeled-Legged Robots [50.02055068660255]
都市環境のナビゲーションは、ロボットにとってユニークな課題であり、移動とナビゲーションのための革新的なソリューションを必要としている。
本研究は, 適応移動制御, 移動対応ローカルナビゲーション計画, 市内の大規模経路計画を含む, 完全に統合されたシステムを導入する。
モデルフリー強化学習(RL)技術と特権学習を用いて,多目的移動制御系を開発した。
私たちのコントローラーは大規模な都市航法システムに統合され、スイスのチューリッヒとスペインのセビリアで自律的、キロメートル規模の航法ミッションによって検証されます。
論文 参考訳(メタデータ) (2024-05-03T00:29:20Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。