論文の概要: Kinematics-Aware Diffusion Policy with Consistent 3D Observation and Action Space for Whole-Arm Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2512.17568v1
- Date: Fri, 19 Dec 2025 13:34:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.428823
- Title: Kinematics-Aware Diffusion Policy with Consistent 3D Observation and Action Space for Whole-Arm Robotic Manipulation
- Title(参考訳): 総合ロボットマニピュレーションのための3次元連続観察と行動空間を用いた運動学対応拡散政策
- Authors: Kangchen Lv, Mingrui Yu, Yongyi Jia, Chenyu Zhang, Xiang Li,
- Abstract要約: フルアームキネマティクスを意識したロボットマニピュレータの全身制御は多くの操作シナリオにおいて重要である。
全体腕操作の典型的なアプローチは、ロボットの関節空間での動作を学ぶことである。
本稿では,一貫したタスク,観察,行動空間を備えたキネマティクス対応の模倣学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.547155394196158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whole-body control of robotic manipulators with awareness of full-arm kinematics is crucial for many manipulation scenarios involving body collision avoidance or body-object interactions, which makes it insufficient to consider only the end-effector poses in policy learning. The typical approach for whole-arm manipulation is to learn actions in the robot's joint space. However, the unalignment between the joint space and actual task space (i.e., 3D space) increases the complexity of policy learning, as generalization in task space requires the policy to intrinsically understand the non-linear arm kinematics, which is difficult to learn from limited demonstrations. To address this issue, this letter proposes a kinematics-aware imitation learning framework with consistent task, observation, and action spaces, all represented in the same 3D space. Specifically, we represent both robot states and actions using a set of 3D points on the arm body, naturally aligned with the 3D point cloud observations. This spatially consistent representation improves the policy's sample efficiency and spatial generalizability while enabling full-body control. Built upon the diffusion policy, we further incorporate kinematics priors into the diffusion processes to guarantee the kinematic feasibility of output actions. The joint angle commands are finally calculated through an optimization-based whole-body inverse kinematics solver for execution. Simulation and real-world experimental results demonstrate higher success rates and stronger spatial generalizability of our approach compared to existing methods in body-aware manipulation policy learning.
- Abstract(参考訳): フルアームキネマティクスを意識したロボットマニピュレータの全身制御は、身体衝突回避や身体と物体の相互作用を含む多くの操作シナリオにおいて重要である。
全体腕操作の典型的なアプローチは、ロボットの関節空間での動作を学ぶことである。
しかし、結合空間と実際のタスク空間(すなわち3次元空間)のアンアライメントは、限定的なデモンストレーションから学ぶのが難しい非線形アーム運動学を本質的に理解する必要があるため、政策学習の複雑さを増大させる。
この問題に対処するため,本論文では,同じ3次元空間で表現される一貫したタスク,観察,行動空間を備えたキネマティクス対応の模倣学習フレームワークを提案する。
具体的には、ロボットの状態と動作を、腕の3Dポイントのセットを用いて表現し、自然に3Dポイントの雲の観測に合わせる。
この空間的に一貫した表現は、全体制御を可能にしながらポリシーのサンプル効率と空間一般化性を向上させる。
拡散政策に基づいて、出力動作のキネマティック実現性を保証するために、キネマティックス事前を拡散過程に組み込む。
関節角コマンドは、最適化に基づく全体逆運動学解法により最終的に計算される。
シミュレーションと実世界の実験により,身体認識操作政策学習における既存の手法と比較して,我々のアプローチの成功率と空間的一般化性が向上した。
関連論文リスト
- Controllable Egocentric Video Generation via Occlusion-Aware Sparse 3D Hand Joints [87.13154261503168]
モーションコントロール可能なビデオ生成は、仮想現実と組み込みAIにおけるエゴセントリックなアプリケーションに不可欠である。
既存の手法は、しばしば3D一貫性のきめ細かい手話を実現するのに苦労する。
単一の参照フレームからエゴセントリックなビデオを生成する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-12T10:02:23Z) - Universal Pose Pretraining for Generalizable Vision-Language-Action Policies [83.39008378156647]
既存のVision-Language-Action(VLA)モデルは、しばしば機能崩壊と訓練効率の低下に悩まされる。
本稿では,VLAトレーニングを3次元空間前駆体抽出のための事前学習フェーズに分離する,分離されたパラダイムであるPose-VLAを提案する。
我々のフレームワークは2段階の事前学習パイプラインに従い、ポーズと動きのアライメントによる基本的な空間接地を確立する。
論文 参考訳(メタデータ) (2026-02-23T11:00:08Z) - AnchorDP3: 3D Affordance Guided Sparse Diffusion Policy for Robotic Manipulation [8.603450327406879]
AnchorDP3は、デュアルアームロボット操作のための拡散ポリシーフレームワークである。
大規模で手続き的に生成されたシミュレーションデータに基づいて訓練される。
RoboTwinベンチマークの平均成功率は98.7%に達する。
論文 参考訳(メタデータ) (2025-06-24T03:03:26Z) - CoDA: Coordinated Diffusion Noise Optimization for Whole-Body Manipulation of Articulated Objects [14.230098033626744]
人工物体の全身操作は、仮想人間やロボット工学の幅広い応用において、非常に困難な作業である。
本研究では,現実的な全身運動を実現するための新しい拡散雑音最適化フレームワークを提案する。
提案手法は,動作品質と身体的可視性において,既存の手法よりも優れていることを示す広範な実験を行う。
論文 参考訳(メタデータ) (2025-05-27T17:11:50Z) - Spatial-Temporal Graph Diffusion Policy with Kinematic Modeling for Bimanual Robotic Manipulation [88.83749146867665]
既存のアプローチは、遠く離れた次のベストなエンドエフェクタのポーズを予測するポリシーを学びます。
すると、運動に対する対応する関節回転角を逆運動学を用いて計算する。
本稿では,Kinematics 拡張空間テンポアル gRaph diffuser を提案する。
論文 参考訳(メタデータ) (2025-03-13T17:48:35Z) - GraMMaR: Ground-aware Motion Model for 3D Human Motion Reconstruction [61.833152949826946]
本研究では,GraMMaRという3次元人体動作再構成のための新しいグラウンド・アウェア・モーション・モデルを提案する。
GraMMaRは、動きシーケンスの各時間ステップにおいて、ポーズにおける遷移の分布と、各関節面と接地面の間の相互作用を学習する。
運動と地面への距離変化との整合性を明確に促進するように訓練されている。
論文 参考訳(メタデータ) (2023-06-29T07:22:20Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。