論文の概要: No More Marching: Learning Humanoid Locomotion for Short-Range SE(2) Targets
- arxiv url: http://arxiv.org/abs/2508.14098v1
- Date: Sat, 16 Aug 2025 05:48:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.184936
- Title: No More Marching: Learning Humanoid Locomotion for Short-Range SE(2) Targets
- Title(参考訳): 短距離SE(2)目標に対するヒューマノイドロコモーションの学習
- Authors: Pranay Dugar, Mohitvishnu S. Gadde, Jonah Siekmann, Yesh Godse, Aayam Shrestha, Alan Fern,
- Abstract要約: 短距離ヒューマノイド移動はSE(2)目標へのタスクの実行にエネルギー効率が良い必要がある。
本研究では,SE(2)目標に対するヒューマノイド移動を直接最適化する強化学習手法を開発した。
新しい星座型報酬関数は自然かつ効率的な目標指向運動を促進する。
- 参考スコア(独自算出の注目度): 12.460000612627368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humanoids operating in real-world workspaces must frequently execute task-driven, short-range movements to SE(2) target poses. To be practical, these transitions must be fast, robust, and energy efficient. While learning-based locomotion has made significant progress, most existing methods optimize for velocity-tracking rather than direct pose reaching, resulting in inefficient, marching-style behavior when applied to short-range tasks. In this work, we develop a reinforcement learning approach that directly optimizes humanoid locomotion for SE(2) targets. Central to this approach is a new constellation-based reward function that encourages natural and efficient target-oriented movement. To evaluate performance, we introduce a benchmarking framework that measures energy consumption, time-to-target, and footstep count on a distribution of SE(2) goals. Our results show that the proposed approach consistently outperforms standard methods and enables successful transfer from simulation to hardware, highlighting the importance of targeted reward design for practical short-range humanoid locomotion.
- Abstract(参考訳): 実世界のワークスペースで動作するヒューマノイドは、SE(2)ターゲットポーズに対するタスク駆動の短距離動作を頻繁に実行しなければならない。
実用的には、これらの遷移は速く、堅牢で、エネルギー効率が良くなければならない。
学習に基づく移動は大きな進歩を遂げているが、既存のほとんどの手法は、直接ポーズの到達よりも速度追跡を最適化し、短距離タスクに適用した場合、非効率でマーチングスタイルの振る舞いをもたらす。
本研究では,SE(2)目標に対するヒューマノイド移動を直接最適化する強化学習手法を開発した。
このアプローチの中心は、自然で効率的な目標指向運動を促進する新しい星座ベースの報酬関数である。
性能を評価するため,SE(2)目標の分布について,エネルギー消費,目標達成までの時間,ステップ数を測定するベンチマークフレームワークを導入する。
提案手法は,シミュレーションからハードウェアへの移行に成功し,実用的短距離ヒューマノイド移動における目標報酬設計の重要性を浮き彫りにした。
関連論文リスト
- ActionSink: Toward Precise Robot Manipulation with Dynamic Integration of Action Flow [93.00917887667234]
本稿では,アクション推定のための新しいロボット操作フレームワークであるActionSinkを紹介する。
その名前が示すように、ActionSinkは、アクションフローと呼ばれるビデオからのアクション起因の光学フローとして、ロボットのアクションを再構成する。
我々のフレームワークは,LIBEROベンチマークのSOTAよりも7.9%向上し,長軸視覚課題LIBERO-Longの精度は8%近く向上した。
論文 参考訳(メタデータ) (2025-08-05T08:46:17Z) - λ: A Benchmark for Data-Efficiency in Long-Horizon Indoor Mobile Manipulation Robotics [11.901933884058021]
本稿では,LAMBDA ベンチマーク-Long-Horizon Actions for Mobile-Manipulation Benchmarking of Directed Activityを紹介する。
私たちのベンチマークには、シミュレーションと実世界の設定において、現実性と多様性を提供する、571人の人間によるデモが含まれています。
予備訓練を受けた場合でも,学習方法は成功率を低く抑えるが,ニューロシンボリックな手法では性能が著しく向上し,データ量も少なくなる。
論文 参考訳(メタデータ) (2024-11-28T19:31:50Z) - PTrajM: Efficient and Semantic-rich Trajectory Learning with Pretrained Trajectory-Mamba [22.622613591771152]
車両軌道は様々な現実世界の用途に重要な移動情報を提供する。
移動や旅行目的を含む豊かな意味情報を効率的に抽出する軌道学習手法を開発することが不可欠である。
本稿では,効率的な意味豊かな車両軌道学習法であるPTrajMを提案する。
論文 参考訳(メタデータ) (2024-08-09T07:48:51Z) - BiKC: Keypose-Conditioned Consistency Policy for Bimanual Robotic Manipulation [48.08416841005715]
両面操作に適したキーポーズ条件の整合性ポリシーを導入する。
階層的な模倣学習フレームワークであり、ハイレベルなキープレース予測器と低レベルな軌道生成器から構成される。
シミュレーションおよび実世界の実験結果から,提案手法は成功率と運用効率の点で基準法を超越していることが示された。
論文 参考訳(メタデータ) (2024-06-14T14:49:12Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。