論文の概要: ProtoDA: Efficient Transfer Learning for Few-Shot Intent Classification
- arxiv url: http://arxiv.org/abs/2101.11753v1
- Date: Thu, 28 Jan 2021 00:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 22:39:42.110672
- Title: ProtoDA: Efficient Transfer Learning for Few-Shot Intent Classification
- Title(参考訳): ProtoDA:Few-Shot Intent分類のための効率的な転送学習
- Authors: Manoj Kumar, Varun Kumar, Hadrien Glaude, Cyprien delichy, Aman Alok
and Rahul Gupta
- Abstract要約: 我々は,メタラーニングパラダイムの下で,原型ネットワークを用いた関連するタスクのアンサンブル上での伝達学習による代替的アプローチを採用する。
本研究は,意図分類を事例として,学習課題における多様性の増大が,分類性能を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 21.933876113300897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Practical sequence classification tasks in natural language processing often
suffer from low training data availability for target classes. Recent works
towards mitigating this problem have focused on transfer learning using
embeddings pre-trained on often unrelated tasks, for instance, language
modeling. We adopt an alternative approach by transfer learning on an ensemble
of related tasks using prototypical networks under the meta-learning paradigm.
Using intent classification as a case study, we demonstrate that increasing
variability in training tasks can significantly improve classification
performance. Further, we apply data augmentation in conjunction with
meta-learning to reduce sampling bias. We make use of a conditional generator
for data augmentation that is trained directly using the meta-learning
objective and simultaneously with prototypical networks, hence ensuring that
data augmentation is customized to the task. We explore augmentation in the
sentence embedding space as well as prototypical embedding space. Combining
meta-learning with augmentation provides upto 6.49% and 8.53% relative F1-score
improvements over the best performing systems in the 5-shot and 10-shot
learning, respectively.
- Abstract(参考訳): 自然言語処理における実用的なシーケンス分類タスクは、しばしばターゲットクラスのトレーニングデータ可用性の低下に苦しむ。
この問題の緩和に向けた最近の研究は、しばしば無関係なタスク、例えば言語モデリングで事前訓練された埋め込みを用いたトランスファーラーニングに焦点を当てている。
我々は,メタラーニングパラダイムの下で,原型ネットワークを用いた関連するタスクのアンサンブル上での伝達学習による代替的アプローチを採用する。
意図分類をケーススタディとして,トレーニングタスクのバラツキの増加が分類性能を有意に改善できることを実証した。
さらに,データ拡張とメタラーニングを併用してサンプリングバイアスを低減する。
我々は,メタラーニング目的とプロトタイプネットワークを併用して直接訓練されたデータ拡張のための条件付きジェネレータを用いて,データ拡張がタスクにカスタマイズされることを保証する。
文埋め込み空間および原型埋め込み空間における拡張について検討する。
メタラーニングと拡張を組み合わせることで、F1スコアは5ショット学習と10ショット学習のベストパフォーマンスシステムよりも6.49%と8.53%向上する。
関連論文リスト
- Transfer Learning with Informative Priors: Simple Baselines Better than Previously Reported [4.453137996095194]
転送学習と5つのデータセットにまたがるソースタスクの事前情報とを比較検討する。
クラス毎の5-300例のシナリオでは、2つのデータセットに対して負あるいは無視的なゲイン、他の2つのデータセットでは控えめなゲイン、ひとつのデータセットでは実質的なゲインが見られます。
論文 参考訳(メタデータ) (2024-05-24T14:12:23Z) - Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Adversarial Auto-Augment with Label Preservation: A Representation
Learning Principle Guided Approach [95.74102207187545]
本研究では,事前自由な自律的データ拡張の目的が表現学習の原則から導出可能であることを示す。
そこで我々は,既存の手法にシームレスに最適化し,シームレスに統合できる目的に対して,実用的なサロゲートを提案する。
論文 参考訳(メタデータ) (2022-11-02T02:02:51Z) - Generating meta-learning tasks to evolve parametric loss for
classification learning [1.1355370218310157]
既存のメタ学習アプローチでは、メタモデルをトレーニングするための学習タスクは通常、公開データセットから収集される。
本稿では,ランダムに生成したメタ学習タスクに基づくメタ学習手法を提案し,ビッグデータに基づく分類学習におけるパラメトリックな損失を求める。
論文 参考訳(メタデータ) (2021-11-20T13:07:55Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Few Is Enough: Task-Augmented Active Meta-Learning for Brain Cell
Classification [8.998976678920236]
本稿では,Deep Neural Networks を新しいタスクに効率的に適応する tAsk-auGmented actIve meta-LEarning (AGILE) 手法を提案する。
AGILEはメタ学習アルゴリズムと,初期適応モデルを生成するための新しいタスク拡張手法を組み合わせる。
提案するタスク強化メタラーニングフレームワークは,1段階の段階を経て,新たな細胞タイプを分類することができることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:03:12Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。