論文の概要: Multi-Task Learning with Sequence-Conditioned Transporter Networks
- arxiv url: http://arxiv.org/abs/2109.07578v1
- Date: Wed, 15 Sep 2021 21:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-18 05:55:33.713146
- Title: Multi-Task Learning with Sequence-Conditioned Transporter Networks
- Title(参考訳): シーケンス型トランスポーターネットワークを用いたマルチタスク学習
- Authors: Michael H. Lim, Andy Zeng, Brian Ichter, Maryam Bandari, Erwin
Coumans, Claire Tomlin, Stefan Schaal, Aleksandra Faust
- Abstract要約: シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
- 参考スコア(独自算出の注目度): 67.57293592529517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enabling robots to solve multiple manipulation tasks has a wide range of
industrial applications. While learning-based approaches enjoy flexibility and
generalizability, scaling these approaches to solve such compositional tasks
remains a challenge. In this work, we aim to solve multi-task learning through
the lens of sequence-conditioning and weighted sampling. First, we propose a
new suite of benchmark specifically aimed at compositional tasks, MultiRavens,
which allows defining custom task combinations through task modules that are
inspired by industrial tasks and exemplify the difficulties in vision-based
learning and planning methods. Second, we propose a vision-based end-to-end
system architecture, Sequence-Conditioned Transporter Networks, which augments
Goal-Conditioned Transporter Networks with sequence-conditioning and weighted
sampling and can efficiently learn to solve multi-task long horizon problems.
Our analysis suggests that not only the new framework significantly improves
pick-and-place performance on novel 10 multi-task benchmark problems, but also
the multi-task learning with weighted sampling can vastly improve learning and
agent performances on individual tasks.
- Abstract(参考訳): 複数の操作タスクを解くロボットの開発には、幅広い産業的応用がある。
学習ベースのアプローチは柔軟性と一般化性を楽しむが、このような構成課題を解決するためにこれらのアプローチをスケールすることは依然として課題である。
本研究では,シーケンスコンディショニングと重み付けサンプリングのレンズを通して,マルチタスク学習の解決を目指す。
まず,構成タスクに特化したベンチマークスイートであるMultiRavensを提案し,産業タスクにインスパイアされたタスクモジュールによるカスタムタスクの組み合わせの定義と,視覚に基づく学習・計画手法の難しさを実証する。
第2に,目的条件付きトランスポーターネットワークをシーケンスコンディショニングと重み付けサンプリングにより拡張し,マルチタスクの長大地平線の問題を効率的に解くことができる,ビジョンベースのエンド・ツー・エンドシステムアーキテクチャであるシーケンシャルコンディショルドトランスポーターネットワークを提案する。
また,重み付きサンプリングを用いたマルチタスク学習により,個々のタスクにおける学習性能とエージェント性能が大幅に向上することが示唆された。
関連論文リスト
- Dynamic Transformer Architecture for Continual Learning of Multimodal
Tasks [27.59758964060561]
トランスフォーマーニューラルネットワークは、さまざまなデータモダリティの幅広いアプリケーションにおいて、以前のアーキテクチャを置き換える傾向にある。
連続学習(CL)は、自律学習エージェントに順次到着するタスク間で知識の伝達を容易にすることで、ソリューションとして現れる。
本稿では,視覚と言語の両方に関わる学習タスクに着目したトランスフォーマーベースのCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:03:30Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Multi-Task Learning with Deep Neural Networks: A Survey [0.0]
マルチタスク学習(Multi-task learning、MTL)は、複数のタスクを共有モデルで同時に学習する機械学習のサブフィールドである。
深層ニューラルネットワークにおけるマルチタスク学習手法の概要を述べる。
論文 参考訳(メタデータ) (2020-09-10T19:31:04Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Knowledge Distillation for Multi-task Learning [38.20005345733544]
マルチタスク学習(MTL)は、全てのタスクで優れたパフォーマンスを達成し、計算コストを下げるための複数のタスクを実行する単一のモデルを学習することである。
そのようなモデルを学ぶには、難易度、大きさ、特性の異なる一連のタスクの損失を共同で最適化する必要がある。
本研究では,マルチタスク学習における不均衡問題に対処するために,知識蒸留に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T08:02:42Z) - Multi-Task Reinforcement Learning with Soft Modularization [25.724764855681137]
マルチタスク学習は強化学習において非常に難しい問題である。
この最適化問題を緩和するために,ポリシー表現に明示的なモジュール化手法を導入する。
提案手法は,強いベースライン上でのサンプリング効率と性能を,大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2020-03-30T17:47:04Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。