論文の概要: Hierarchical Task Learning from Language Instructions with Unified
Transformers and Self-Monitoring
- arxiv url: http://arxiv.org/abs/2106.03427v1
- Date: Mon, 7 Jun 2021 08:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:44:33.446294
- Title: Hierarchical Task Learning from Language Instructions with Unified
Transformers and Self-Monitoring
- Title(参考訳): 統一トランスフォーマーと自己監視を用いた言語命令からの階層的タスク学習
- Authors: Yichi Zhang and Joyce Chai
- Abstract要約: タスク学習を,サブゴール計画,シーンナビゲーション,オブジェクト操作という3つのサブプロブレムに分解する。
階層的なタスク構造を学習するために,各サブプロブレムを統一的に扱うモデルHiTUTを開発した。
ALFREDベンチマークでは、HiTUTは極めて高い一般化能力で最高のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 12.998677970451858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent progress, learning new tasks through language instructions
remains an extremely challenging problem. On the ALFRED benchmark for task
learning, the published state-of-the-art system only achieves a task success
rate of less than 10% in an unseen environment, compared to the human
performance of over 90%. To address this issue, this paper takes a closer look
at task learning. In a departure from a widely applied end-to-end architecture,
we decomposed task learning into three sub-problems: sub-goal planning, scene
navigation, and object manipulation; and developed a model HiTUT (stands for
Hierarchical Tasks via Unified Transformers) that addresses each sub-problem in
a unified manner to learn a hierarchical task structure. On the ALFRED
benchmark, HiTUT has achieved the best performance with a remarkably higher
generalization ability. In the unseen environment, HiTUT achieves over 160%
performance gain in success rate compared to the previous state of the art. The
explicit representation of task structures also enables an in-depth
understanding of the nature of the problem and the ability of the agent, which
provides insight for future benchmark development and evaluation.
- Abstract(参考訳): 最近の進歩にもかかわらず、言語指導による新しいタスクの学習は、依然として非常に難しい問題である。
alfred benchmark for task learningにおいて、公開された最先端のシステムは、90%以上の人間のパフォーマンスと比較して、目に見えない環境で10%未満のタスク成功率しか達成できない。
この問題に対処するため,本稿ではタスク学習について詳しく検討する。
広範に適用されたエンドツーエンドアーキテクチャから離れて,タスク学習をサブゴール計画,シーンナビゲーション,オブジェクト操作という3つのサブプロブレムに分解し,階層的なタスク構造を学ぶために,各サブプロブレムに統一的な方法で対処するHiTUTモデルを開発した。
ALFREDベンチマークでは、HiTUTは極めて高い一般化能力で最高のパフォーマンスを達成した。
目に見えない環境では、HiTUTは過去の技術と比べて160%以上のパフォーマンス向上を達成した。
タスク構造の明示的な表現はまた、問題の性質とエージェントの能力の詳細な理解を可能にし、将来のベンチマークの開発と評価の洞察を提供する。
関連論文リスト
- Projected Task-Specific Layers for Multi-Task Reinforcement Learning [0.0]
マルチタスク強化学習は、家庭や職場のさまざまな操作タスクをロボットがスケールできるようにする。
タスク間で情報をうまく共有することでこの課題に対処するには、タスクの基盤となる構造がどの程度うまく捕捉されるかに依存する。
論文 参考訳(メタデータ) (2023-09-15T21:42:06Z) - ForkMerge: Mitigating Negative Transfer in Auxiliary-Task Learning [59.08197876733052]
補助タスク学習(ATL)は、関連するタスクから得られる知識を活用することにより、目標タスクの性能を向上させることを目的としている。
複数のタスクを同時に学習すると、ターゲットタスクのみを学習するよりも精度が低下することがある。
ForkMergeは、モデルを定期的に複数のブランチにフォークし、タスクの重みを自動的に検索する新しいアプローチである。
論文 参考訳(メタデータ) (2023-01-30T02:27:02Z) - Reinforcement Learning with Success Induced Task Prioritization [68.8204255655161]
本稿では,自動カリキュラム学習のためのフレームワークであるSuccess induced Task Prioritization (SITP)を紹介する。
アルゴリズムはエージェントに最速の学習を提供するタスクの順序を選択する。
我々は,SITPが他のカリキュラム設計手法と一致するか,あるいは上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-30T12:32:43Z) - Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - Learning Task Decomposition with Ordered Memory Policy Network [73.3813423684999]
OMPN(Ordered Memory Policy Network)を提案し、デモから学習することでサブタスク階層を発見する。
ompnは部分的に観測可能な環境に適用でき、高いタスク分解性能を達成できる。
私たちの視覚化は、サブタスク階層がモデルに出現できることを確認します。
論文 参考訳(メタデータ) (2021-03-19T18:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。