論文の概要: GenSF: Simultaneous Adaptation of Generative Pre-trained Models and Slot
Filling
- arxiv url: http://arxiv.org/abs/2106.07055v1
- Date: Sun, 13 Jun 2021 17:44:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 08:34:15.089098
- Title: GenSF: Simultaneous Adaptation of Generative Pre-trained Models and Slot
Filling
- Title(参考訳): GenSF: 生成事前学習モデルとスロットフィリングの同時適応
- Authors: Shikib Mehri, Maxine Eskenazi
- Abstract要約: GenSF(Generative Slot Filling)は,スロットフィリングのための生成学習済みオープンドメインダイアログモデルである。
GenSFは、数ショットとゼロショットの設定において、強力なゲインを持つ2つのスロットフィリングデータセットで最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 9.822870889029115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In transfer learning, it is imperative to achieve strong alignment between a
pre-trained model and a downstream task. Prior work has done this by proposing
task-specific pre-training objectives, which sacrifices the inherent
scalability of the transfer learning paradigm. We instead achieve strong
alignment by simultaneously modifying both the pre-trained model and the
formulation of the downstream task, which is more efficient and preserves the
scalability of transfer learning. We present GenSF (Generative Slot Filling),
which leverages a generative pre-trained open-domain dialog model for slot
filling. GenSF (1) adapts the pre-trained model by incorporating inductive
biases about the task and (2) adapts the downstream task by reformulating slot
filling to better leverage the pre-trained model's capabilities. GenSF achieves
state-of-the-art results on two slot filling datasets with strong gains in
few-shot and zero-shot settings. We achieve a 9 F1 score improvement in
zero-shot slot filling. This highlights the value of strong alignment between
the pre-trained model and the downstream task.
- Abstract(参考訳): 転校学習では,事前学習したモデルと下流課題の強い整合を実現することが不可欠である。
従来の作業では、移行学習パラダイムの本質的なスケーラビリティを犠牲にして、タスク固有の事前学習目標を提案していた。
むしろ、事前学習したモデルと下流タスクの定式化の両方を同時に変更することで、強い調整を実現し、より効率的で、転校学習のスケーラビリティを保ちます。
GenSF(Generative Slot Filling)は,スロットフィリングのための生成学習済みオープンドメインダイアログモデルである。
GenSF(1)は,タスクに関する帰納バイアスを取り入れて事前学習モデルに適応し,(2)スロットフィリングを改良して下流タスクに適応し,事前学習モデルの性能を向上する。
GenSFは、数ショットとゼロショットの設定で大きく向上した2つのスロットフィリングデータセットに対して、最先端の結果を達成する。
ゼロショットスロット充填による9f1スコア向上を達成した。
これは、事前訓練されたモデルと下流タスクの間の強いアライメントの価値を強調します。
関連論文リスト
- Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Fast and Accurate Transferability Measurement by Evaluating Intra-class
Feature Variance [20.732095457775138]
転送可能性の測定は、ソースタスクからターゲットタスクに学習したトレーニング済みモデルがどのように転送可能かを定量化する。
本稿では,トランスファビリティを計測する高速かつ正確なアルゴリズムであるTMI(TRANSFERABILITY Measurement with Intra-CLASS FEATURE VARIANCE)を提案する。
論文 参考訳(メタデータ) (2023-08-11T07:50:40Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - DQ-BART: Efficient Sequence-to-Sequence Model via Joint Distillation and
Quantization [75.72231742114951]
BARTやT5のような大規模事前学習シーケンス・ツー・シーケンスモデルは、多くの生成NLPタスクで最先端のパフォーマンスを達成する。
これらのモデルは、大きなメモリ要件と高いレイテンシのため、リソース制約のあるシナリオにおいて大きな課題となる。
そこで,本論文では,教師モデルから学生モデルへの知識の伝達と,学生モデルの定量化と定量化について提案する。
論文 参考訳(メタデータ) (2022-03-21T18:04:25Z) - Robust Transfer Learning with Pretrained Language Models through
Adapters [40.45102278979193]
BERTのような大きな事前訓練された言語モデルによる伝達学習は、ほとんどのNLPタスクにおいて支配的なアプローチとなっている。
これらの問題を緩和するために, 単純かつ効果的なアダプタベースのアプローチを提案する。
実験により,このような学習手法が,様々な下流タスクへの伝達学習における安定性と対角的堅牢性の向上につながることが示された。
論文 参考訳(メタデータ) (2021-08-05T02:30:13Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。