論文の概要: ConTinTin: Continual Learning from Task Instructions
- arxiv url: http://arxiv.org/abs/2203.08512v1
- Date: Wed, 16 Mar 2022 10:27:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 22:51:42.412231
- Title: ConTinTin: Continual Learning from Task Instructions
- Title(参考訳): contintin: タスク命令からの継続的学習
- Authors: Wenpeng Yin, Jia Li, Caiming Xiong
- Abstract要約: 本研究は,新たな学習パラダイムであるConTinTinを定義した。
私たちの知る限り、NLPでConTinTinを研究するのは今回が初めてです。
- 参考スコア(独自算出の注目度): 101.36836925135091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The mainstream machine learning paradigms for NLP often work with two
underlying presumptions. First, the target task is predefined and static, a
system just needs to learn to solve it exclusively. Second, the supervision of
a task mainly comes from a set of labeled examples. A question arises: how to
build a system that can keep learning new tasks from their instructions? This
work defines a new learning paradigm ConTinTin (Continual Learning from Task
Instructions), in which a system should learn a sequence of new tasks one by
one, each task is explained by a piece of textual instruction. The system is
required to (i) generate the expected outputs of a new task by learning from
its instruction, (ii) transfer the knowledge acquired from upstream tasks to
help solve downstream tasks (i.e, forward-transfer), and (iii) retain or even
improve the performance on earlier tasks after learning new tasks (i.e.,
backward-transfer). This new problem is studied on a stream of more than 60
tasks, each equipped with an instruction. Technically, our method
InstructionSpeak contains two strategies that make full use of task
instructions to improve forward-transfer and backward-transfer: one is to learn
from the negative output, the other is to re-visit instructions of prior tasks.
To our knowledge, this is the first time to study ConTinTin in NLP. In addition
to the problem formulation and our promising approach, this work also
contributes to providing rich analyses for the community to better understand
this novel learning problem.
- Abstract(参考訳): nlpの主流となる機械学習パラダイムは、しばしば2つの前提で機能する。
まず、ターゲットのタスクは事前に定義され、静的である。
第二に、タスクの監督は主にラベル付き例のセットから行われる。
新しいタスクを指示から学習し続けるシステムを構築するには、どうすればよいのか?
この研究は、システムが新しいタスクのシーケンスを1つずつ学習し、各タスクをテキスト命令で説明すべき新しい学習パラダイム(タスク命令からの継続的な学習)を定義している。
システムは必要です
(i)その指示から学習することにより、新たなタスクの期待出力を生成する。
(二)下流のタスク(すなわち、前方のタスク)を解決するために上流のタスクから得られた知識を転送すること。
(iii)新しいタスク(つまり後方転送)を学習した後、以前のタスクのパフォーマンスを維持または改善すること。
この新しい問題は60以上のタスクのストリームで研究され、それぞれに命令が組み込まれている。
技術的には,タスク命令をフル活用して前方転送と後方転送を改善する手法が2つ含まれており,一方は負の出力から学習し,もう一方は先行タスクの指示を再閲覧する手法である。
私たちの知る限り、NLPでConTinTinを研究するのは今回が初めてです。
この問題の定式化と将来的なアプローチに加えて,本研究は,この新たな学習問題をより深く理解するために,コミュニティに豊富な分析を提供することにも貢献する。
関連論文リスト
- Continual Deep Reinforcement Learning with Task-Agnostic Policy Distillation [0.0]
TAPD(Task-Agnostic Policy Distillation)フレームワークが導入されている。
本稿では,継続学習の問題に対処する。
タスク非依存の蒸留知識を利用することで、下流タスクをより効率的に解決することができる。
論文 参考訳(メタデータ) (2024-11-25T16:18:39Z) - Large Language Model Instruction Following: A Survey of Progresses and Challenges [15.94137745420097]
本稿では,現在の指導研究を要約し,考察する。
われわれの知る限りでは、次の教示に関する総合的な調査はこれが初めてである。
論文 参考訳(メタデータ) (2023-03-18T19:17:47Z) - Robustness of Learning from Task Instructions [15.462970803323563]
従来の教師付き学習は、主に個々のタスクに取り組み、タスク固有の大きな例のトレーニングを必要とする。
新しいタスクに迅速かつ容易に一般化できるシステムを構築するために、タスク命令を監督の新たなトレンドとして採用している。
本研究は,新しいタスクの指示が (i) 操作された場合, (ii) 言い換えられた場合, (iii) 異なるレベルの簡潔さからシステムロバスト性を調べる。
論文 参考訳(メタデータ) (2022-12-07T17:54:59Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Transferring Knowledge for Reinforcement Learning in Contact-Rich
Manipulation [10.219833196479142]
複数のスキルの前提を活かして、類似したタスクのファミリー内で知識を伝達するという課題に対処する。
提案手法は, 先行タスク毎の実証軌道から, スキル埋め込みを表す潜在行動空間を学習する。
我々は,ペグ・イン・ホール・イン・イン・イン・イン・イン・イン・イン・イン・イン・インサート・タスクのセットを用いて本手法の評価を行い,トレーニング中に遭遇したことのない新しいタスクへのより良い一般化を実証した。
論文 参考訳(メタデータ) (2022-09-19T10:31:13Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - Representation Ensembling for Synergistic Lifelong Learning with
Quasilinear Complexity [17.858926093389737]
生涯学習では、データは現在のタスクだけでなく、以前に遭遇したタスクや、未報告のタスクでもパフォーマンスを向上させるために使用される。
私たちの重要な洞察は、異なるタスクで独立して学習された表現を相乗的にアンサンブルすることで、前方と後方の両方の転送を可能にします。
論文 参考訳(メタデータ) (2020-04-27T16:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。