論文の概要: Towards Robust and Efficient Continual Language Learning
- arxiv url: http://arxiv.org/abs/2307.05741v1
- Date: Tue, 11 Jul 2023 19:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 15:17:55.511587
- Title: Towards Robust and Efficient Continual Language Learning
- Title(参考訳): ロバストで効果的な継続的言語学習を目指して
- Authors: Adam Fisch, Amal Rannen-Triki, Razvan Pascanu, J\"org Bornschein,
Angeliki Lazaridou, Elena Gribovskaya, Marc'Aurelio Ranzato
- Abstract要約: 我々は、直面する可能性のあるさまざまなトランスファーシナリオをターゲットに、タスクシーケンスの新しいベンチマークを構築します。
我々は,過去のタスクチェックポイントから新しいモデルを初期化するための選択的戦略を活用することで,デシダラタの多くを満足させる,シンプルで効果的な学習者を提案する。
- 参考スコア(独自算出の注目度): 36.541749819691546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the application space of language models continues to evolve, a natural
question to ask is how we can quickly adapt models to new tasks. We approach
this classic question from a continual learning perspective, in which we aim to
continue fine-tuning models trained on past tasks on new tasks, with the goal
of "transferring" relevant knowledge. However, this strategy also runs the risk
of doing more harm than good, i.e., negative transfer. In this paper, we
construct a new benchmark of task sequences that target different possible
transfer scenarios one might face, such as a sequence of tasks with high
potential of positive transfer, high potential for negative transfer, no
expected effect, or a mixture of each. An ideal learner should be able to
maximally exploit information from all tasks that have any potential for
positive transfer, while also avoiding the negative effects of any distracting
tasks that may confuse it. We then propose a simple, yet effective, learner
that satisfies many of our desiderata simply by leveraging a selective strategy
for initializing new models from past task checkpoints. Still, limitations
remain, and we hope this benchmark can help the community to further build and
analyze such learners.
- Abstract(参考訳): 言語モデルのアプリケーション領域が進化を続ける中で、疑問視すべき自然な疑問は、モデルを新しいタスクに迅速に適応する方法である。
我々は,この古典的な質問を連続的な学習の観点からアプローチし,関連する知識を"伝達する"ことを目的として,過去のタスクで訓練された微調整モデルを継続することを目指す。
しかし、この戦略は、善、すなわち負の移動よりも多くの害を与えるリスクも負う。
本稿では,正の伝達確率の高いタスク列,負の転送確率の高いタスク列,期待しない効果,あるいはそれぞれの混合といった,直面する可能性のある転送シナリオを対象とするタスクシーケンスの新たなベンチマークを構築する。
理想的な学習者は、ポジティブな伝達の可能性のある全てのタスクから情報を最大限に活用できると同時に、それを混乱させる可能性のある邪魔なタスクのネガティブな影響を回避できるべきである。
次に、過去のタスクチェックポイントから新しいモデルを初期化するための選択戦略を活用するだけで、多くのデシデラータを満たすシンプルで効果的な学習者を提案する。
それでも制限は残っており、このベンチマークによってコミュニティがこのような学習者をさらに構築し、分析できることを期待しています。
関連論文リスト
- Is forgetting less a good inductive bias for forward transfer? [7.704064306361941]
本論では,タスクへの前方移動の尺度は,継続学習者に課される制約の影響を受けない,と論じる。
代わりに、フォワード転送は、以前のタスクで連続的な学習によって生成された表現のセットから新しいタスクを学ぶのがいかに簡単かによって測定されるべきである。
その結果, 忘れやすい表現は, 過去の情報保持と学習効率の相関関係が強いことを示唆し, 転送効率が向上することが示された。
論文 参考訳(メタデータ) (2023-03-14T19:52:09Z) - Robust Knowledge Transfer in Tiered Reinforcement Learning [22.303882476904295]
そこでは,低層(ソース)タスクから高層(ターゲット)タスクに知識を移すことが目的である。
以前の作業とは異なり、低層タスクと高層タスクは同じダイナミクスや報酬関数を共有していないと仮定する。
本稿では,タスクの類似性に応じて部分的状態に一定の後悔が生じるような,新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-10T22:25:42Z) - ForkMerge: Mitigating Negative Transfer in Auxiliary-Task Learning [59.08197876733052]
補助タスク学習(ATL)は、関連するタスクから得られる知識を活用することにより、目標タスクの性能を向上させることを目的としている。
複数のタスクを同時に学習すると、ターゲットタスクのみを学習するよりも精度が低下することがある。
ForkMergeは、モデルを定期的に複数のブランチにフォークし、タスクの重みを自動的に検索する新しいアプローチである。
論文 参考訳(メタデータ) (2023-01-30T02:27:02Z) - Beyond Not-Forgetting: Continual Learning with Backward Knowledge
Transfer [39.99577526417276]
継続学習(CL)では、エージェントは、新しいタスクと古いタスクの両方の学習性能を向上させることができる。
既存のCL手法の多くは、古いタスクに対する学習モデルの修正を最小化することによって、ニューラルネットワークの破滅的な忘れに対処することに焦点を当てている。
データ再生のない固定容量ニューラルネットワークに対して,バックワードノウルEdge tRansfer (CUBER) を用いた新しいCL法を提案する。
論文 参考訳(メタデータ) (2022-11-01T23:55:51Z) - An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding [65.75873687351553]
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
論文 参考訳(メタデータ) (2022-10-21T04:36:46Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Lifelong Learning of Few-shot Learners across NLP Tasks [45.273018249235705]
私たちは、さまざまなNLPタスクのシーケンスを通じて、生涯学習の難しさを研究します。
アダプタウェイトの生成をいくつかの例から学ぶ,継続的なメタラーニングアプローチを提案する。
私たちのアプローチは、トレーニングタスクよりもモデルのパフォーマンスを維持し、将来のタスクが学習されるとポジティブな知識伝達につながります。
論文 参考訳(メタデータ) (2021-04-18T10:41:56Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Transforming task representations to perform novel tasks [12.008469282323492]
知性の重要な側面は、直接の経験(ゼロショット)なしで新しいタスクに適応できる能力である。
本稿では,従来のタスクとの関係に基づいて,新しいタスクに適応するための一般的な計算フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-08T23:41:57Z) - Exploring and Predicting Transferability across NLP Tasks [115.6278033699853]
本研究では,33のNLPタスク間の伝達可能性について検討した。
以上の結果から,転帰学習は従来考えられていたよりも有益であることが示唆された。
また,特定の対象タスクに対して最も転送可能なソースタスクを予測するために使用できるタスク埋め込みも開発した。
論文 参考訳(メタデータ) (2020-05-02T09:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。