論文の概要: An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding
- arxiv url: http://arxiv.org/abs/2210.11729v1
- Date: Fri, 21 Oct 2022 04:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 14:34:38.342824
- Title: An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding
- Title(参考訳): 対話理解のためのデータセット内タスク転送におけるデータ効率の探索
- Authors: Josiah Ross, Luke Yoffe, Alon Albalak, William Yang Wang
- Abstract要約: 本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
- 参考スコア(独自算出の注目度): 65.75873687351553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning is an exciting area of Natural Language Processing that has
the potential to both improve model performance and increase data efficiency.
This study explores the effects of varying quantities of target task training
data on sequential transfer learning in the dialog domain. We hypothesize that
a model can utilize the information learned from a source task to better learn
a target task, thereby reducing the number of target task training samples
required. Unintuitively, our data shows that often target task training data
size has minimal effect on how sequential transfer learning performs compared
to the same model without transfer learning. Our results lead us to believe
that this unexpected result could be due to the effects of catastrophic
forgetting, motivating further work into methods that prevent such forgetting.
- Abstract(参考訳): トランスファーラーニングは自然言語処理のエキサイティングな領域であり、モデルの性能を改善し、データ効率を向上させる可能性がある。
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
我々は、モデルがソースタスクから得た情報を利用して、ターゲットタスクをより良く学習できると仮定し、必要な対象タスクトレーニングサンプルの数を減らす。
直感的には,タスクトレーニングデータサイズを対象とする場合が多いことから,トランスファー学習を行わない同じモデルと比較して,シーケンシャルトランスファー学習の効果は最小限に抑えられている。
以上の結果から,この予期せぬ結果は,破滅的な忘れ込みによる影響によるものと考えられた。
関連論文リスト
- Optimal transfer protocol by incremental layer defrosting [66.76153955485584]
トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
論文 参考訳(メタデータ) (2023-03-02T17:32:11Z) - TIDo: Source-free Task Incremental Learning in Non-stationary
Environments [0.0]
モデルベースのエージェントを更新して新しいターゲットタスクを学習するには、過去のトレーニングデータを格納する必要があります。
ラベル付きターゲットデータセットの制限を克服するタスクインクリメンタル学習手法はほとんどない。
本研究では,非定常的および目標的タスクに適応可能なワンショットタスクインクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T02:19:45Z) - Frozen Overparameterization: A Double Descent Perspective on Transfer
Learning of Deep Neural Networks [27.17697714584768]
ディープニューラルネットワーク(DNN)の伝達学習の一般化挙動について検討する。
目標トレーニング中のテストエラーの進化は、目標トレーニングデータセットが十分に大きい場合、より顕著な二重降下効果を有することを示す。
また、二重降下現象は、より関連するソースタスクからの転送よりも、関連するソースタスクからの転送をより良くする可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-20T20:26:23Z) - A Data-Based Perspective on Transfer Learning [76.30206800557411]
転送学習におけるソースデータセットの合成の役割について,より詳しく検討する。
我々のフレームワークは、転送学習の脆さをピンポインティングするなど、新しい機能を生み出します。
論文 参考訳(メタデータ) (2022-07-12T17:58:28Z) - The Effect of Task Ordering in Continual Learning [12.571389210876315]
再注文タスクが破滅的忘れの量に大きく影響していることが示される。
本研究では,タスクオーダリングの効果を利用して連続的な学習性能を変化させることを示す。
論文 参考訳(メタデータ) (2022-05-26T12:56:15Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - Adaptive Transfer Learning on Graph Neural Networks [4.233435459239147]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力な表現を学ぶために広く利用されている。
近年の研究では、自己教師型タスクから下流タスクへの知識伝達により、グラフ表現がさらに改善されることが示されている。
本稿では,GNN 上での移動学習パラダイムを提案する。これは,目標タスクを支援するための補助タスクとして,自己教師型タスクを効果的に活用することができる。
論文 参考訳(メタデータ) (2021-07-19T11:46:28Z) - Exploring and Predicting Transferability across NLP Tasks [115.6278033699853]
本研究では,33のNLPタスク間の伝達可能性について検討した。
以上の結果から,転帰学習は従来考えられていたよりも有益であることが示唆された。
また,特定の対象タスクに対して最も転送可能なソースタスクを予測するために使用できるタスク埋め込みも開発した。
論文 参考訳(メタデータ) (2020-05-02T09:39:36Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。