論文の概要: Spatially Generalizable Mobile Manipulation via Adaptive Experience Selection and Dynamic Imagination
- arxiv url: http://arxiv.org/abs/2601.14649v1
- Date: Wed, 21 Jan 2026 04:43:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.876874
- Title: Spatially Generalizable Mobile Manipulation via Adaptive Experience Selection and Dynamic Imagination
- Title(参考訳): 適応的経験選択と動的イマジネーションによる空間一般化可能な移動操作
- Authors: Ping Zhong, Liangbai Liu, Bolei Chen, Tao Wu, Jiazhi Xia, Chaoxu Mu, Jianxin Wang,
- Abstract要約: 移動マニピュレーションは、多段階の異種スキルの合成に対する長い水平決定を伴う。
既存のMM手法では, (i) 長期間の相互作用で発生する冗長なデータの有効利用により, サンプル効率が低下する。
本稿では,適応経験選択(AES)とモデルに基づく動的想像力を通して,これらの課題に対処する。
- 参考スコア(独自算出の注目度): 23.225672159796815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile Manipulation (MM) involves long-horizon decision-making over multi-stage compositions of heterogeneous skills, such as navigation and picking up objects. Despite recent progress, existing MM methods still face two key limitations: (i) low sample efficiency, due to ineffective use of redundant data generated during long-term MM interactions; and (ii) poor spatial generalization, as policies trained on specific tasks struggle to transfer to new spatial layouts without additional training. In this paper, we address these challenges through Adaptive Experience Selection (AES) and model-based dynamic imagination. In particular, AES makes MM agents pay more attention to critical experience fragments in long trajectories that affect task success, improving skill chain learning and mitigating skill forgetting. Based on AES, a Recurrent State-Space Model (RSSM) is introduced for Model-Predictive Forward Planning (MPFP) by capturing the coupled dynamics between the mobile base and the manipulator and imagining the dynamics of future manipulations. RSSM-based MPFP can reinforce MM skill learning on the current task while enabling effective generalization to new spatial layouts. Comparative studies across different experimental configurations demonstrate that our method significantly outperforms existing MM policies. Real-world experiments further validate the feasibility and practicality of our method.
- Abstract(参考訳): 移動マニピュレーション(MM)は、ナビゲーションや物体の拾い上げといった異質なスキルの多段階構成に対する長い水平決定を伴う。
最近の進歩にもかかわらず、既存のMMメソッドは以下の2つの重要な制限に直面している。
(i)長期MMインタラクション中に発生する冗長データの不有効利用によるサンプル効率の低下、及び
(II) 特定のタスクで訓練された政策は、追加の訓練を受けずに新しい空間配置に移行するのに苦労するため、空間一般化が不十分である。
本稿では,適応経験選択(AES)とモデルに基づく動的想像力を通して,これらの課題に対処する。
特に、AESは、タスクの成功に影響を及ぼし、スキルチェーン学習を改善し、スキルの忘れを緩和する長い道程において、重要な経験的断片により注意を払っている。
AESに基づいて、移動体ベースとマニピュレータの結合ダイナミクスを捉え、将来の操作のダイナミクスを想像することで、モデル予測フォワードプランニング(MPFP)のために、リカレントステートスペースモデル(RSSM)を導入している。
RSSMベースのMPFPは、新しい空間レイアウトへの効果的な一般化を可能にしながら、現在のタスクにおけるMMスキル学習を強化することができる。
異なる実験構成の比較研究により,本手法が既存のMMポリシーを著しく上回ることを示した。
実世界の実験は,本手法の有効性と実用性をさらに検証する。
関連論文リスト
- Abstracting Robot Manipulation Skills via Mixture-of-Experts Diffusion Policies [13.826293542795938]
拡散ベースのポリシーは最近、ロボット操作の強い結果を示しているが、マルチタスクシナリオへの拡張は、モデルサイズとデモのスケーリングコストの上昇によって妨げられている。
本稿では,SMP(Skill Mixture-of-Experts Policy)について紹介する。SMP(Skill Mixture-of-Experts Policy)は,SMP(Skill Mixture-of-Experts Policy)とSMP(Skill Mixture-of-Experts Policy)の2つについて述べる。
シミュレーションおよびマルチタスク学習および移動学習タスクを備えた実デュアルアームプラットフォーム上でSMPを検証し、SMPは大きな拡散ベースラインよりも高い成功率と推論コストを著しく低減する。
論文 参考訳(メタデータ) (2026-01-29T04:17:56Z) - Self-Controlled Dynamic Expansion Model for Continual Learning [10.447232167638816]
本稿では, 自己制御型動的拡張モデル(SCDEM)を提案する。
SCDEMは複数のトレーニング可能なトレーニング済みのViTバックボーンを編成し、多様で意味的に豊かな表現を提供する。
提案手法の有効性を評価するため,幅広い実験が実施されている。
論文 参考訳(メタデータ) (2025-04-14T15:22:51Z) - MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [62.854649499866774]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - Birdie: Advancing State Space Models with Reward-Driven Objectives and Curricula [23.071384759427072]
状態空間モデル(SSM)はトランスフォーマーよりも利点があるが、長期のコンテキスト内検索のようなテキストコピー、連想リコール、質問応答を必要とするタスクに苦労する。
本研究では,SSMのコンテキスト内検索能力を大幅に向上する新たな学習手法であるBirdieを提案する。
論文 参考訳(メタデータ) (2024-11-01T21:01:13Z) - On-the-fly Modulation for Balanced Multimodal Learning [53.616094855778954]
マルチモーダル学習は、異なるモーダルからの情報を統合することでモデル性能を向上させることが期待されている。
広く使われている共同トレーニング戦略は、不均衡で最適化されていないユニモーダル表現につながる。
そこで本研究では,OGM(On-the-fly Prediction Modulation)とOGM(On-the-fly Gradient Modulation)の戦略を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:15:50Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - T-REX: Mixture-of-Rank-One-Experts with Semantic-aware Intuition for Multi-task Large Language Model Finetuning [31.276142111455847]
大規模言語モデル(LLM)は多様なマルチタスクの微調整において重要な適応課題に直面している。
我々はmixunderlinetextbfTureunderlinetextbf-of-underlinetextbfRank-onunderlinetextbfE-eunderlinetextbfXper ts (textttT-REX) という新しいフレームワークを設計する。
Rank-1のエキスパートは、ミックス・アンド・マッチのメカニズムにより、線形パラメータのオーバーヘッドを持つエキスパートのベクトル部分空間を2次に拡張し、最適で近似誤差削減を達成することができる。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。