論文の概要: Demystifying Action Space Design for Robotic Manipulation Policies
- arxiv url: http://arxiv.org/abs/2602.23408v1
- Date: Thu, 26 Feb 2026 13:32:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.083871
- Title: Demystifying Action Space Design for Robotic Manipulation Policies
- Title(参考訳): ロボットマニピュレーション政策のデミスティファイション行動空間設計
- Authors: Yuchun Feng, Jinliang Zheng, Zhihao Wang, Dongxiu Liu, Jianxiong Li, Jiangmiao Pang, Tai Wang, Xianyuan Zhan,
- Abstract要約: アクションスペースは模倣に基づくロボットポリシー学習において重要な役割を担っている。
行動空間の選択は,ロボット政策学習に大きく,複雑に影響を及ぼすことを示す。
バイマニュアルロボット上での13,000以上のロールアウトに基づいて、デルタ動作を予測するポリシーを適切に設計することで、常に性能が向上することを示す。
- 参考スコア(独自算出の注目度): 44.19773878335221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The specification of the action space plays a pivotal role in imitation-based robotic manipulation policy learning, fundamentally shaping the optimization landscape of policy learning. While recent advances have focused heavily on scaling training data and model capacity, the choice of action space remains guided by ad-hoc heuristics or legacy designs, leading to an ambiguous understanding of robotic policy design philosophies. To address this ambiguity, we conducted a large-scale and systematic empirical study, confirming that the action space does have significant and complex impacts on robotic policy learning. We dissect the action design space along temporal and spatial axes, facilitating a structured analysis of how these choices govern both policy learnability and control stability. Based on 13,000+ real-world rollouts on a bimanual robot and evaluation on 500+ trained models over four scenarios, we examine the trade-offs between absolute vs. delta representations, and joint-space vs. task-space parameterizations. Our large-scale results suggest that properly designing the policy to predict delta actions consistently improves performance, while joint-space and task-space representations offer complementary strengths, favoring control stability and generalization, respectively.
- Abstract(参考訳): 行動空間の仕様は、模倣に基づくロボット操作政策学習において重要な役割を担い、政策学習の最適化のランドスケープを根本的に形成する。
近年の進歩は、トレーニングデータとモデル能力のスケーリングに重点を置いているが、アクションスペースの選択は、アドホックなヒューリスティックやレガシなデザインによって導かれており、ロボットポリシー設計哲学の曖昧な理解につながっている。
この曖昧さに対処するため、我々は大規模かつ体系的な実験を行い、アクション空間がロボットポリシー学習に有意かつ複雑な影響があることを確認した。
我々は、時間軸と空間軸に沿ったアクションデザイン空間を識別し、これらの選択がどのように政策学習可能性と制御安定性の両方を支配するかを構造化分析する。
両用ロボットにおける13,000以上の実世界のロールアウトと,4つのシナリオにおける500以上のトレーニングモデルの評価に基づいて,絶対値とデルタ値とのトレードオフと,共同空間とタスク空間のパラメータ化について検討する。
大規模な結果から,デルタ動作予測ポリシーを適切に設計することで,相補的な強みを付与し,制御安定性と一般化を優先する一方,連接空間とタスク空間の表現は一貫して性能を向上させることが示唆された。
関連論文リスト
- Spatial Policy: Guiding Visuomotor Robotic Manipulation with Spatial-Aware Modeling and Reasoning [43.35947581429867]
視覚中心の階層型エンボディードモデルは、長距離ロボット制御に強い可能性を示している。
既存の方法は空間認識能力に欠けており、複雑な環境下での行動可能な制御に視覚計画をブリッジする際の有効性を制限している。
本研究では,空間モデルと推論を用いた空間認識型ロボット操作フレームワークである空間ポリシー(SP)を提案する。
論文 参考訳(メタデータ) (2025-08-21T10:24:18Z) - Action Space Reduction Strategies for Reinforcement Learning in Autonomous Driving [0.0]
強化学習(RL)は自動運転のための有望なフレームワークを提供する。
きめ細かい制御を支援するためにしばしば使われる大型で高次元のアクションスペースは、訓練の効率を阻害し、探査コストを増大させる。
我々は、自律運転におけるRLのための2つの新しい構造化された行動空間修正戦略を導入し、評価する。
論文 参考訳(メタデータ) (2025-07-07T17:58:08Z) - Situationally-Aware Dynamics Learning [57.698553219660376]
隠れ状態表現のオンライン学習のための新しいフレームワークを提案する。
提案手法は、非観測パラメータが遷移力学と報酬構造の両方に与える影響を明示的にモデル化する。
シミュレーションと実世界の両方の実験は、データ効率、ポリシー性能、安全で適応的なナビゲーション戦略の出現を著しく改善した。
論文 参考訳(メタデータ) (2025-05-26T06:40:11Z) - SpatialVLA: Exploring Spatial Representations for Visual-Language-Action Model [45.03115608632622]
空間理解はロボット操作のキーポイントです
本研究では,ロボット基盤モデルのための効果的な空間表現を探索する空間VLAを提案する。
提案したAdaptive Action Gridsは,事前学習したSpatialVLAモデルを微調整し,新しいシミュレーションと実世界のセットアップを実現するための,新しい効果的な方法を提供する。
論文 参考訳(メタデータ) (2025-01-27T07:34:33Z) - On the Role of the Action Space in Robot Manipulation Learning and Sim-to-Real Transfer [6.1622717998840395]
本研究では,ロボット操作学習とシミュレート・トゥ・リアル・トランスファーにおける行動空間の選択について検討する。
我々は250以上の強化学習(RL)エージェントを訓練し、タスクの到達とプッシュをシミュレートした。
空間の選択は、共通のアクション空間設計特性の組み合わせにまたがる。
論文 参考訳(メタデータ) (2023-12-06T18:38:05Z) - Co-learning Planning and Control Policies Constrained by Differentiable
Logic Specifications [4.12484724941528]
本稿では,高次元ロボットナビゲーションタスクを解くための新しい強化学習手法を提案する。
既存の強化学習アルゴリズムと比較して、より少ないサンプルで高品質なポリシーを訓練する。
提案手法は,高次元制御と政策アライメントによる準最適政策の回避にも有効である。
論文 参考訳(メタデータ) (2023-03-02T15:24:24Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Towards Coordinated Robot Motions: End-to-End Learning of Motion
Policies on Transform Trees [63.31965375413414]
人間による実証から構造化政策を学習し、マルチタスクの課題解決を提案します。
我々の構造化ポリシーは、異なる空間におけるサブタスクポリシーを組み合わせるためのフレームワークであるRMPflowにインスパイアされている。
マルチタスク問題に適したエンドツーエンドの学習目標関数を導き出します。
論文 参考訳(メタデータ) (2020-12-24T22:46:22Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。