論文の概要: TRANS: Terrain-aware Reinforcement Learning for Agile Navigation of Quadruped Robots under Social Interactions
- arxiv url: http://arxiv.org/abs/2602.12724v1
- Date: Fri, 13 Feb 2026 08:54:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.428644
- Title: TRANS: Terrain-aware Reinforcement Learning for Agile Navigation of Quadruped Robots under Social Interactions
- Title(参考訳): トランス:四足歩行ロボットのソーシャルインタラクションによるアジャイルナビゲーションのための測地認識強化学習
- Authors: Wei Zhu, Irfan Tito Kurniawan, Ye Zhao, Mistuhiro Hayashibe,
- Abstract要約: この研究は、Trans: Terrain-aware Reinforcement Learning for Agile Navigation under Social Interactionを紹介します。
これは、非構造地形上の4つのソーシャルナビゲーションのための深い強化学習フレームワークである。
- 参考スコア(独自算出の注目度): 4.433610057791988
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study introduces TRANS: Terrain-aware Reinforcement learning for Agile Navigation under Social interactions, a deep reinforcement learning (DRL) framework for quadrupedal social navigation over unstructured terrains. Conventional quadrupedal navigation typically separates motion planning from locomotion control, neglecting whole-body constraints and terrain awareness. On the other hand, end-to-end methods are more integrated but require high-frequency sensing, which is often noisy and computationally costly. In addition, most existing approaches assume static environments, limiting their use in human-populated settings. To address these limitations, we propose a two-stage training framework with three DRL pipelines. (1) TRANS-Loco employs an asymmetric actor-critic (AC) model for quadrupedal locomotion, enabling traversal of uneven terrains without explicit terrain or contact observations. (2) TRANS-Nav applies a symmetric AC framework for social navigation, directly mapping transformed LiDAR data to ego-agent actions under differential-drive kinematics. (3) A unified pipeline, TRANS, integrates TRANS-Loco and TRANS-Nav, supporting terrain-aware quadrupedal navigation in uneven and socially interactive environments. Comprehensive benchmarks against locomotion and social navigation baselines demonstrate the effectiveness of TRANS. Hardware experiments further confirm its potential for sim-to-real transfer.
- Abstract(参考訳): Trans: Terrain-aware Reinforcement Learning for Agile Navigation under Social Interaction, a deep reinforcement learning (DRL) framework for quadrupedal social navigation over unstructureed terrains。
従来の四足歩行は、通常、運動計画と移動制御を分離し、全身の制約や地形の認識を無視している。
一方、エンドツーエンドの手法はより統合されているが、高周波センシングを必要とするため、しばしばノイズが多く、計算コストがかかる。
加えて、既存のほとんどのアプローチは静的環境を前提としており、人為的な設定での使用を制限する。
これらの制約に対処するため、3つのDRLパイプラインを持つ2段階のトレーニングフレームワークを提案する。
1)トランスロコは,四足歩行に非対称アクター・クリティック(AC)モデルを用い,地形や接触観測を伴わない不均一な地形の移動を可能にした。
2)Trans-Navはソーシャルナビゲーションに対称なACフレームワークを適用し、変換されたLiDARデータを微分駆動キネマティクスの下でのエゴエージェントアクションに直接マッピングする。
(3) 統合パイプラインであるTranstraはTrans-LocoとTrans-Navを統合し、不均一で社会的に対話的な環境で地形対応の四脚ナビゲーションをサポートする。
移動とソーシャルナビゲーションのベースラインに対する総合的なベンチマークは、Transの有効性を実証している。
ハードウェア実験は、sim-to-real転送の可能性をさらに確認する。
関連論文リスト
- AutoFly: Vision-Language-Action Model for UAV Autonomous Navigation in the Wild [62.47761809929869]
視覚言語ナビゲーション(VLN)は、視覚的観察とともに言語指示を解釈することで、知的エージェントが環境をナビゲートする必要がある。
無人航空機(UAV)の現在のVLN研究は、所定のルートに沿ってUAVを誘導するための詳細な指示に依存している。
本稿では,自律型UAVナビゲーションのためのエンド・ツー・エンドのビジョン・ランゲージ・アクションモデルであるAutoFlyを提案する。
論文 参考訳(メタデータ) (2026-02-10T11:08:07Z) - From Seeing to Experiencing: Scaling Navigation Foundation Models with Reinforcement Learning [59.88543114325153]
本稿では,航法基礎モデルの強化学習能力を高めるためのSeeing-to-Experiencingフレームワークを提案する。
S2Eは、ビデオの事前トレーニングとRLによるポストトレーニングの長所を組み合わせたものだ。
実世界のシーンを3DGSで再現した3D画像に基づく総合的なエンドツーエンド評価ベンチマークであるNavBench-GSを構築した。
論文 参考訳(メタデータ) (2025-07-29T17:26:10Z) - EmoBipedNav: Emotion-aware Social Navigation for Bipedal Robots with Deep Reinforcement Learning [11.622119393400341]
本研究では、社会的に対話的な環境を歩行する二足歩行ロボットのための感情認識ナビゲーションフレームワーク、BipedNavを提案する。
提案フレームワークは、トレーニング中の全順序ダイナミクスとロコモーション制約を組み込んだもので、ロコモーションコントローラのエラーや制限のトラッキングを効果的に行う。
論文 参考訳(メタデータ) (2025-03-16T15:11:57Z) - IN-Sight: Interactive Navigation through Sight [20.184155117341497]
IN-Sightは自己監督型パスプランニングの新しいアプローチである。
可逆性のスコアを計算し、セマンティックマップに組み込む。
障害物を正確に回避するために、IN-Sightはローカルプランナーを使用している。
論文 参考訳(メタデータ) (2024-08-01T07:27:54Z) - Hyp2Nav: Hyperbolic Planning and Curiosity for Crowd Navigation [58.574464340559466]
我々は,群集ナビゲーションを実現するための双曲学習を提唱し,Hyp2Navを紹介した。
Hyp2Navは双曲幾何学の本質的な性質を活用し、ナビゲーションタスクにおける意思決定プロセスの階層的性質をよりよく符号化する。
本稿では, 効果的なソーシャルナビゲーション, 最高の成功率, 複数シミュレーション設定におけるリターンをもたらす, 双曲型ポリシーモデルと双曲型好奇性モジュールを提案する。
論文 参考訳(メタデータ) (2024-07-18T14:40:33Z) - TOP-Nav: Legged Navigation Integrating Terrain, Obstacle and Proprioception Estimation [5.484041860401147]
TOP-Navは、包括的パスプランナーとTerran認識、Obstacle回避、クローズループプロプライオセプションを統合した、新しい脚付きナビゲーションフレームワークである。
そこで,TOP-Navは,従来の知識の分布を超えた地形や乱れをロボットが扱えるように,オープンワールドナビゲーションを実現する。
論文 参考訳(メタデータ) (2024-04-23T17:42:45Z) - NavCoT: Boosting LLM-Based Vision-and-Language Navigation via Learning Disentangled Reasoning [97.88246428240872]
Embodied AIの重要な研究課題であるVision-and-Language Navigation (VLN)は、自然言語の指示に従って複雑な3D環境をナビゲートするために、エンボディエージェントを必要とする。
近年の研究では、ナビゲーションの推論精度と解釈可能性を改善することにより、VLNにおける大きな言語モデル(LLM)の有望な能力を強調している。
本稿では,自己誘導型ナビゲーション決定を実現するために,パラメータ効率の高いドメイン内トレーニングを実現する,Navigational Chain-of-Thought (NavCoT) という新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-03-12T07:27:02Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。