論文の概要: Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE
- arxiv url: http://arxiv.org/abs/2302.09268v1
- Date: Sat, 18 Feb 2023 09:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:31:39.151573
- Title: Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE
- Title(参考訳): 効果的な言語モデル事前学習と下流適応のためのトリックのバグ:GLUEを事例として
- Authors: Qihuang Zhong, Liang Ding, Keqin Peng, Juhua Liu, Bo Du, Li Shen,
Yibing Zhan and Dacheng Tao
- Abstract要約: このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
- 参考スコア(独自算出の注目度): 93.98660272309974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report briefly describes our JDExplore d-team's submission
Vega v1 on the General Language Understanding Evaluation (GLUE) leaderboard,
where GLUE is a collection of nine natural language understanding tasks,
including question answering, linguistic acceptability, sentiment analysis,
text similarity, paraphrase detection, and natural language inference. [Method]
We investigate several effective strategies and choose their best combination
setting as the training recipes. As for model structure, we employ the vanilla
Transformer with disentangled attention as the basic block encoder. For
self-supervised training, we employ the representative denoising objective
(i.e., replaced token detection) in phase 1 and combine the contrastive
objective (i.e., sentence embedding contrastive learning) with it in phase 2.
During fine-tuning, several advanced techniques such as transductive
fine-tuning, self-calibrated fine-tuning, and adversarial fine-tuning are
adopted. [Results] According to our submission record (Jan. 2022), with our
optimized pretraining and fine-tuning strategies, our 1.3 billion model sets
new state-of-the-art on 4/9 tasks, achieving the best average score of 91.3.
Encouragingly, our Vega v1 is the first to exceed powerful human performance on
the two challenging tasks, i.e., SST-2 and WNLI. We believe our empirically
successful recipe with a bag of tricks could shed new light on developing
efficient discriminative large language models.
- Abstract(参考訳): GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
[方法]いくつかの効果的な戦略を調査し,トレーニングレシピとして最適な組み合わせ設定を選択する。
モデル構造については,基本ブロックエンコーダとして注意を散らしたバニラ変換器を用いる。
自己教師付き学習では,第1相における代表的弁別目標(トークン検出の置き換え)と第2相における対照目標(文埋め込みコントラスト学習)とを組み合わせる。
ファインチューニングでは、トランスダクティブファインチューニング、自己調整ファインチューニング、敵対的ファインチューニングなど、いくつかの高度な技術が採用されている。
【結論】提出記録(2022年1月)によると、最適化された事前訓練と微調整戦略により、我々の13億のモデルは4/9のタスクに最新技術を設定し、最高スコア91.3に達した。
私たちのVega v1は、SST-2とWNLIという2つの困難なタスクにおいて、人間のパフォーマンスを初めて上回りました。
私たちは、トリックの袋で経験的に成功したレシピは、効率的な差別的な大きな言語モデルの開発に新たな光を当てる可能性があると信じています。
関連論文リスト
- Teaching a Language Model to Distinguish Between Similar Details using a Small Adversarial Training Set [0.0]
対向テストセット(+13%)では,元のNLIタスクでは良好な性能を維持しつつ,精度が向上した。
また、SNLIテストセットの最も類似した矛盾点について、91.2%から92.9%まで精度が向上した(コサイン類似性によって判断される)。
論文 参考訳(メタデータ) (2024-10-30T15:27:55Z) - Toward Efficient Language Model Pretraining and Downstream Adaptation
via Self-Evolution: A Case Study on SuperGLUE [203.65227947509933]
このレポートでは、スーパーGLUEのリーダーボードにJDExplore d-teamのVega v2を提出しました。
SuperGLUEは、広く使われている汎用言語理解評価(GLUE)ベンチマークよりも難易度が高く、8つの難しい言語理解タスクを含んでいる。
論文 参考訳(メタデータ) (2022-12-04T15:36:18Z) - UU-Tax at SemEval-2022 Task 3: Improving the generalizability of
language models for taxonomy classification through data augmentation [0.0]
本稿では,SemEval-2022 Task 3 PreTENS: Presuposed Taxonomies Evaluation Neural Network Semanticsについて述べる。
タスクの目標は、文に含まれる名詞対の間の分類学的関係によって、ある文が受け入れられているか否かを識別することである。
より優れた分類のための言語モデルの堅牢性と一般化性を高める効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-10-07T07:41:28Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - FewCLUE: A Chinese Few-shot Learning Evaluation Benchmark [8.158067688043554]
この研究は、中国初の総合的な小サンプル評価ベンチマークである中国語 Few-shot Learning Evaluation Benchmark (FewCLUE) を紹介した。
1つのタスクに最大2万のサンプルを追加するラベルなしのトレーニングが提供され、ラベルなしのサンプルを使用する方法を改善することができる。
次に、最先端の複数ショット学習手法を実装し、その性能をFewCLUEベンチマークの微調整およびゼロショット学習方式と比較する。
論文 参考訳(メタデータ) (2021-07-15T17:51:25Z) - Making Pre-trained Language Models Better Few-shot Learners [11.90626040104822]
最近のGPT-3モデルは、自然言語プロンプトといくつかのタスクデモンストレーションを入力コンテキストとして活用することで、驚くべき数ショットパフォーマンスを実現します。
これらの知見に触発されて,より実用的なシナリオで,微調整が計算効率のよい小型言語モデルを用いて,小数点学習の研究を行った。
LM-BFF - 少数の注釈付き例で、言語モデルの微調整のためのシンプルで補完的な技術のスイート - 言語モデルのより良い少数ショット微調整を提示します。
論文 参考訳(メタデータ) (2020-12-31T17:21:26Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z) - Optimus: Organizing Sentences via Pre-trained Modeling of a Latent Space [109.79957125584252]
変分オートエンコーダ(VAE)は、強力な生成モデルであり、自然言語の効果的な表現学習フレームワークである。
本稿では,最初の大規模言語VAEモデルであるOptimusを提案する。
論文 参考訳(メタデータ) (2020-04-05T06:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。