論文の概要: Data-Efficient Multitask DAgger
- arxiv url: http://arxiv.org/abs/2509.25466v1
- Date: Mon, 29 Sep 2025 20:17:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.308906
- Title: Data-Efficient Multitask DAgger
- Title(参考訳): データ効率の良いマルチタスクDAgger
- Authors: Haotian Fu, Ran Gong, Xiaohan Zhang, Maria Vittoria Minniti, Jigarkumar Patel, Karl Schmeckpeper,
- Abstract要約: 多くのタスクを実行できる汎用的なロボットポリシーは、訓練に広範囲な専門的なデータやシミュレーションを必要とする。
本稿では,複数のタスク固有の専門家ポリシーから単一のマルチタスクポリシーを抽出する,データ効率の良いマルチタスクDAggerフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.497645748861913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalist robot policies that can perform many tasks typically require extensive expert data or simulations for training. In this work, we propose a novel Data-Efficient multitask DAgger framework that distills a single multitask policy from multiple task-specific expert policies. Our approach significantly increases the overall task success rate by actively focusing on tasks where the multitask policy underperforms. The core of our method is a performance-aware scheduling strategy that tracks how much each task's learning process benefits from the amount of data, using a Kalman filter-based estimator to robustly decide how to allocate additional demonstrations across tasks. We validate our approach on MetaWorld, as well as a suite of diverse drawer-opening tasks in IsaacLab. The resulting policy attains high performance across all tasks while using substantially fewer expert demonstrations, and the visual policy learned with our method in simulation shows better performance than naive DAgger and Behavior Cloning when transferring zero-shot to a real robot without using real data.
- Abstract(参考訳): 多くのタスクを実行できる汎用的なロボットポリシーは、訓練に広範囲な専門的なデータやシミュレーションを必要とする。
本研究では,複数のタスク固有の専門家ポリシーから単一のマルチタスクポリシーを抽出する,データ効率の良いマルチタスクDAggerフレームワークを提案する。
本手法は,マルチタスク政策が不十分なタスクに積極的に焦点をあてることで,タスク成功率を大幅に向上させる。
提案手法のコアとなるのは,各タスクの学習プロセスがデータ量からどれだけの恩恵を受けるかを追跡する,パフォーマンスを考慮したスケジューリング戦略である。
MetaWorldに対する私たちのアプローチとIsaacLabにおけるさまざまなドロワーオープニングタスクのスイートを検証する。
その結果,実データを使用しない実ロボットにゼロショットを転送する場合,本手法で学習した視覚的ポリシーは,本手法でシミュレーションしたところ,本手法では本手法よりも優れた性能を示した。
関連論文リスト
- Learning Policy Committees for Effective Personalization in MDPs with Diverse Tasks [40.2989900672992]
本稿では,実行中に発生するタスクの確率の高い,少なくとも1つの準最適政策を含む政策委員会を学習するための新しいアプローチを提案する。
MuJoCo と Meta-World に関する実験により,提案手法は,訓練,一般化,少数ショット学習において,最先端のマルチタスク,メタ,タスククラスタリングベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2025-02-26T22:45:25Z) - STRAP: Robot Sub-Trajectory Retrieval for Augmented Policy Learning [8.860366821983211]
STRAPは、トレーニング済みの視覚基盤モデルと動的時間ワープを利用して、大規模なトレーニングコーパスからトラジェクトリのサブシーケンスを堅牢に検索する技術である。
本研究では、事前学習された視覚基盤モデルと動的時間ワープを活用して、大規模学習コーパスからのトラジェクトリのサブシーケンスをロバストに検索するSTRAPを提案する。
論文 参考訳(メタデータ) (2024-12-19T18:54:06Z) - Meta-Learning with Heterogeneous Tasks [42.695853959923625]
HeTRoM(Heterogeneous Tasks Robust Meta-learning)
双方向最適化に基づく効率的な反復最適化アルゴリズム
その結果,提案手法の柔軟性が示され,多様なタスク設定に適応できることがわかった。
論文 参考訳(メタデータ) (2024-10-24T16:32:23Z) - Active Fine-Tuning of Multi-Task Policies [54.65568433408307]
AMF(Active Multi-task Fine-tuning)を提案する。
我々は,AMFの性能保証を規則性仮定で導き,複雑・高次元環境における実験的有効性を示す。
論文 参考訳(メタデータ) (2024-10-07T13:26:36Z) - Sparse Diffusion Policy: A Sparse, Reusable, and Flexible Policy for Robot Learning [61.294110816231886]
我々はスパース・リユース・フレキシブル・ポリシー、スパース・ディフュージョン・ポリシー(SDP)を導入する。
SDPは、エキスパートとスキルを選択的に活性化し、モデル全体をトレーニングすることなく、効率的でタスク固有の学習を可能にする。
デモとコードはhttps://forrest-110.io/sparse_diffusion_policy/にある。
論文 参考訳(メタデータ) (2024-07-01T17:59:56Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。