論文の概要: Let Humanoids Hike! Integrative Skill Development on Complex Trails
- arxiv url: http://arxiv.org/abs/2505.06218v1
- Date: Fri, 09 May 2025 17:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.358345
- Title: Let Humanoids Hike! Integrative Skill Development on Complex Trails
- Title(参考訳): ヒューマノイドをハイク! 複雑なトレイルにおける統合的スキル開発
- Authors: Kwan-Yee Lin, Stella X. Yu,
- Abstract要約: 我々は、複雑なトレイルをハイキングし、視覚的知覚、意思決定、運動実行における統合的スキル開発を促進するためのトレーニングヒューマノイドを提案する。
我々は、視覚を備えたヒューマノイドロボットが複雑なトレイルを自律的にハイキングできる学習フレームワークLEGO-Hを開発した。
- 参考スコア(独自算出の注目度): 39.30624277966043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hiking on complex trails demands balance, agility, and adaptive decision-making over unpredictable terrain. Current humanoid research remains fragmented and inadequate for hiking: locomotion focuses on motor skills without long-term goals or situational awareness, while semantic navigation overlooks real-world embodiment and local terrain variability. We propose training humanoids to hike on complex trails, driving integrative skill development across visual perception, decision making, and motor execution. We develop a learning framework, LEGO-H, that enables a vision-equipped humanoid robot to hike complex trails autonomously. We introduce two technical innovations: 1) A temporal vision transformer variant - tailored into Hierarchical Reinforcement Learning framework - anticipates future local goals to guide movement, seamlessly integrating locomotion with goal-directed navigation. 2) Latent representations of joint movement patterns, combined with hierarchical metric learning - enhance Privileged Learning scheme - enable smooth policy transfer from privileged training to onboard execution. These components allow LEGO-H to handle diverse physical and environmental challenges without relying on predefined motion patterns. Experiments across varied simulated trails and robot morphologies highlight LEGO-H's versatility and robustness, positioning hiking as a compelling testbed for embodied autonomy and LEGO-H as a baseline for future humanoid development.
- Abstract(参考訳): 複雑なトレイルをハイキングするには、予測不可能な地形上でのバランス、アジリティ、適応的な意思決定が必要です。
現在のヒューマノイドの研究は断片化され、ハイキングには不十分なままであり、ロコモーションは長期的な目標や状況認識のない運動スキルに焦点を当てている。
我々は、複雑なトレイルをハイキングし、視覚的知覚、意思決定、運動実行における統合的スキル開発を促進するためのトレーニングヒューマノイドを提案する。
我々は、視覚を備えたヒューマノイドロボットが複雑なトレイルを自律的にハイキングできる学習フレームワークLEGO-Hを開発した。
2つの技術革新を紹介します。
1) 時間的視覚変換器の変種 - 階層的強化学習フレームワークに特化して - 運動をガイドする将来のローカルな目標を予測し、目標指向ナビゲーションとシームレスに統合する。
2) 協調運動パターンの潜在表現と階層的メートル法学習とが組み合わさって, 特権訓練から実践への円滑な政策移行を可能にする。
これらのコンポーネントによってLEGO-Hは、事前に定義された動きパターンに頼ることなく、さまざまな物理的および環境的課題に対処できる。
さまざまなシミュレートされたトレイルやロボット形態に関する実験では、LEGO-Hの汎用性と堅牢性が強調され、ハイキングは実施された自律性のための魅力的なテストベッドとして位置づけられ、LEGO-Hは将来のヒューマノイド開発のためのベースラインとして位置づけられている。
関連論文リスト
- StyleLoco: Generative Adversarial Distillation for Natural Humanoid Robot Locomotion [31.30409161905949]
StyleLocoは、ヒューマノイドの移動を学ぶための新しいフレームワークである。
強化学習の機敏さと人間のような運動の自然な流動性を組み合わせる。
StyleLocoは、ヒューマノイドロボットが多様な移動作業を行うことを可能にすることを実証する。
論文 参考訳(メタデータ) (2025-03-19T10:27:44Z) - PALo: Learning Posture-Aware Locomotion for Quadruped Robots [29.582249837902427]
本稿では,姿勢認識型移動ロボットPALoのエンド・ツー・エンド深部強化学習フレームワークを提案する。
PALoは、直線速度と角速度の同時追跡と、体高、ピッチ、ロール角度のリアルタイム調整を行う。
PALoは、シミュレートされた環境でアジャイルな姿勢認識ロコモーションコントロールを実現し、微調整なしで実世界の設定に転送することに成功した。
論文 参考訳(メタデータ) (2025-03-06T14:13:59Z) - Humanoid Whole-Body Locomotion on Narrow Terrain via Dynamic Balance and Reinforcement Learning [54.26816599309778]
動的バランスと強化学習(RL)に基づく新しい全身移動アルゴリズムを提案する。
具体的には,ZMP(Zero-Moment Point)駆動の報酬とタスク駆動の報酬を,全身のアクター批判的枠組みで拡張した尺度を活用することで,動的バランス機構を導入する。
フルサイズのUnitree H1-2ロボットによる実験により、非常に狭い地形でのバランスを維持するための手法の有効性が検証された。
論文 参考訳(メタデータ) (2025-02-24T14:53:45Z) - HYPERmotion: Learning Hybrid Behavior Planning for Autonomous Loco-manipulation [7.01404330241523]
HYPERmotionは、異なるシナリオのタスクに基づいて行動を学び、選択し、計画するフレームワークである。
強化学習と全身最適化を組み合わせることで,38関節の運動を生成する。
シミュレーションと実世界の実験では、学習した動きが新しいタスクに効率的に適応できることが示されている。
論文 参考訳(メタデータ) (2024-06-20T18:21:24Z) - Gaitor: Learning a Unified Representation Across Gaits for Real-World Quadruped Locomotion [61.01039626207952]
本稿では,移動歩行における乱れと2次元表現を学習するGaitorについて紹介する。
ゲイターの潜伏空間は容易に解釈可能であり、歩行遷移の間、新しい目に見えない歩行が出現することを発見した。
我々は,ANYmal Cプラットフォーム上でのシミュレーションと実世界におけるGaitorの評価を行った。
論文 参考訳(メタデータ) (2024-05-29T19:02:57Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。