論文の概要: Flexible Multitask Learning with Factorized Diffusion Policy
- arxiv url: http://arxiv.org/abs/2512.21898v1
- Date: Fri, 26 Dec 2025 07:11:47 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:04:16.470031
- Title: Flexible Multitask Learning with Factorized Diffusion Policy
- Title(参考訳): 因子的拡散ポリシーを用いたフレキシブルマルチタスク学習
- Authors: Chaoqi Liu, Haonan Chen, Sigmund H. Høeg, Shaoxiong Yao, Yunzhu Li, Kris Hauser, Yilun Du,
- Abstract要約: マルチタスク学習は、ロボットの行動分布が多様で多様な性質を持つため、大きな課題となる。
既存のモノリシックモデルは、しばしばアクション分布に不適合であり、効率的な適応に必要な柔軟性に欠ける。
本稿では,複雑な行動分布を特殊拡散モデルの合成に分解する,新しいモジュラー拡散政策フレームワークを提案する。
- 参考スコア(独自算出の注目度): 59.526246520933135
- License:
- Abstract: Multitask learning poses significant challenges due to the highly multimodal and diverse nature of robot action distributions. However, effectively fitting policies to these complex task distributions is often difficult, and existing monolithic models often underfit the action distribution and lack the flexibility required for efficient adaptation. We introduce a novel modular diffusion policy framework that factorizes complex action distributions into a composition of specialized diffusion models, each capturing a distinct sub-mode of the behavior space for a more effective overall policy. In addition, this modular structure enables flexible policy adaptation to new tasks by adding or fine-tuning components, which inherently mitigates catastrophic forgetting. Empirically, across both simulation and real-world robotic manipulation settings, we illustrate how our method consistently outperforms strong modular and monolithic baselines.
- Abstract(参考訳): マルチタスク学習は、ロボットの行動分布が多様で多様な性質を持つため、大きな課題となる。
しかし、これらの複雑なタスク分布に効果的にポリシーを適用することはしばしば困難であり、既存のモノリシックモデルはアクション分布に不適合であり、効率的な適応に必要な柔軟性を欠いている。
本稿では,複雑な行動分布を特殊拡散モデルの合成に分解し,より効果的な全体政策のために,行動空間の個別のサブモードを捕捉する,新しいモジュラー拡散政策フレームワークを提案する。
さらに、このモジュール構造は、本質的に破滅的な忘れを緩和するコンポーネントの追加や微調整によって、新しいタスクへのフレキシブルなポリシー適応を可能にする。
シミュレーションと実世界のロボット操作の両方において、我々の手法が強力なモジュラーベースラインとモノリシックベースラインを一貫して上回っていることを実証的に説明します。
関連論文リスト
- Multi-Modal Manipulation via Multi-Modal Policy Consensus [62.49978559936122]
本稿では,ロボット操作のための多様な感覚モダリティを統合するための新しいアプローチを提案する。
提案手法は,それぞれが単一の表現に特化している拡散モデルの集合にポリシーを分解する。
我々は、RLBenchにおけるシミュレーション操作タスクと、隠蔽対象のピック、手作業のスプーン再配向、パズル挿入といった実世界のタスクについて評価した。
論文 参考訳(メタデータ) (2025-09-27T19:43:04Z) - Reinforcement Learning with Discrete Diffusion Policies for Combinatorial Action Spaces [57.466101098183884]
強化学習(Reinforcement Learning, RL)は、現実の多くの問題に共通する大規模なアクション空間にスケールするために苦労する。
本稿では、複雑な環境下での高効率なポリシーとして、離散拡散モデルを訓練するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-26T21:53:36Z) - Residual Learning Inspired Crossover Operator and Strategy Enhancements for Evolutionary Multitasking [0.3749861135832073]
進化的マルチタスキングでは、クロスオーバー演算子やスキルファクター割り当てといった戦略が効果的な知識伝達に不可欠である。
本稿では,残差学習に基づくMFEA-RL法を提案する。
ResNetベースのメカニズムは、タスク適応性を改善するためのスキルファクタを動的に割り当て、ランダムマッピング機構は、効率的にクロスオーバー操作を行う。
論文 参考訳(メタデータ) (2025-03-27T10:27:17Z) - On-the-fly Modulation for Balanced Multimodal Learning [53.616094855778954]
マルチモーダル学習は、異なるモーダルからの情報を統合することでモデル性能を向上させることが期待されている。
広く使われている共同トレーニング戦略は、不均衡で最適化されていないユニモーダル表現につながる。
そこで本研究では,OGM(On-the-fly Prediction Modulation)とOGM(On-the-fly Gradient Modulation)の戦略を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。