論文の概要: Generalizable Geometric Prior and Recurrent Spiking Feature Learning for Humanoid Robot Manipulation
- arxiv url: http://arxiv.org/abs/2601.09031v1
- Date: Tue, 13 Jan 2026 23:36:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.196647
- Title: Generalizable Geometric Prior and Recurrent Spiking Feature Learning for Humanoid Robot Manipulation
- Title(参考訳): ヒューマノイドロボットマニピュレーションのための一般化可能な幾何学的事前・反復スパイク特徴学習
- Authors: Xuetao Li, Wenke Huang, Mang Ye, Jifeng Xuan, Bo Du, Sheng Liu, Miao Li,
- Abstract要約: 本稿では,スパイキング機能を備えたR-prior-S, Recurrent Geometric-priormodal Policyを提案する。
物理的現実の高レベル推論を基礎として、軽量な2次元幾何学的帰納バイアスを利用する。
ロボット行動生成におけるデータ効率問題に対して,再帰的適応スパイクネットワークを導入する。
- 参考スコア(独自算出の注目度): 90.90219129619344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humanoid robot manipulation is a crucial research area for executing diverse human-level tasks, involving high-level semantic reasoning and low-level action generation. However, precise scene understanding and sample-efficient learning from human demonstrations remain critical challenges, severely hindering the applicability and generalizability of existing frameworks. This paper presents a novel RGMP-S, Recurrent Geometric-prior Multimodal Policy with Spiking features, facilitating both high-level skill reasoning and data-efficient motion synthesis. To ground high-level reasoning in physical reality, we leverage lightweight 2D geometric inductive biases to enable precise 3D scene understanding within the vision-language model. Specifically, we construct a Long-horizon Geometric Prior Skill Selector that effectively aligns the semantic instructions with spatial constraints, ultimately achieving robust generalization in unseen environments. For the data efficiency issue in robotic action generation, we introduce a Recursive Adaptive Spiking Network. We parameterize robot-object interactions via recursive spiking for spatiotemporal consistency, fully distilling long-horizon dynamic features while mitigating the overfitting issue in sparse demonstration scenarios. Extensive experiments are conducted across the Maniskill simulation benchmark and three heterogeneous real-world robotic systems, encompassing a custom-developed humanoid, a desktop manipulator, and a commercial robotic platform. Empirical results substantiate the superiority of our method over state-of-the-art baselines and validate the efficacy of the proposed modules in diverse generalization scenarios. To facilitate reproducibility, the source code and video demonstrations are publicly available at https://github.com/xtli12/RGMP-S.git.
- Abstract(参考訳): ヒューマノイドロボット操作は、ハイレベルなセマンティック推論と低レベルなアクション生成を含む、多様な人間レベルのタスクを実行するための重要な研究領域である。
しかし、人間のデモンストレーションからの正確なシーン理解とサンプル効率の学習は依然として重要な課題であり、既存のフレームワークの適用性と一般化を著しく妨げている。
本稿では,RGMP-S(Recurrent Geometric-prior Multimodal Policy with Spiking feature)を提案する。
物理的現実の高レベル推論を基礎として、軽量な2次元幾何学的帰納バイアスを活用し、視覚言語モデル内での正確な3次元シーン理解を可能にする。
具体的には、意味的命令と空間的制約を効果的に整合させ、最終的に目に見えない環境で堅牢な一般化を実現する長軸幾何学的事前スキルセレクタを構築する。
ロボット行動生成におけるデータ効率問題に対して,再帰的適応スパイクネットワークを導入する。
本研究では,スパース実演シナリオにおける過度な問題を軽減するとともに,ロボットと物体の相互作用をパラメータ化し,時空間整合性を実現し,長期水平動特性を完全に蒸留する。
Maniskillシミュレーションベンチマークと、カスタム開発のヒューマノイド、デスクトップマニピュレータ、商用ロボットプラットフォームを含む3つの異種現実世界ロボットシステムで、広範囲にわたる実験が行われた。
実験により,本手法が最先端のベースラインよりも優れていることを実証し,多種多様な一般化シナリオにおいて提案したモジュールの有効性を検証する。
再現性を促進するため、ソースコードとビデオデモはhttps://github.com/xtli12/RGMP-S.gitで公開されている。
関連論文リスト
- R2RGEN: Real-to-Real 3D Data Generation for Spatially Generalized Manipulation [74.41728218960465]
本稿では,実世界のデータを生成するために,ポイントクラウド観測-アクションペアを直接拡張するリアルタイム3Dデータ生成フレームワーク(R2RGen)を提案する。
R2RGenは、広範な実験におけるデータの効率を大幅に向上させ、モバイル操作におけるスケーリングと応用の強い可能性を示す。
論文 参考訳(メタデータ) (2025-10-09T17:55:44Z) - GRAPPA: Generalizing and Adapting Robot Policies via Online Agentic Guidance [15.774237279917594]
本稿では,ロボットによる自己指導と自己改善のためのエージェントフレームワークを提案する。
本フレームワークは,環境中の関連オブジェクトに対して,ベースロボットポリシーを反復的に適用する。
弊社のアプローチは、操作ポリシーを効果的にガイドし、成功率を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2024-10-09T02:00:37Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。