論文の概要: Are Larger Pretrained Language Models Uniformly Better? Comparing
Performance at the Instance Level
- arxiv url: http://arxiv.org/abs/2105.06020v1
- Date: Thu, 13 May 2021 01:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 14:13:53.265476
- Title: Are Larger Pretrained Language Models Uniformly Better? Comparing
Performance at the Instance Level
- Title(参考訳): 事前訓練された言語モデルの方が一様に優れているか?
インスタンスレベルでのパフォーマンスの比較
- Authors: Ruiqi Zhong, Dhruba Ghosh, Dan Klein, Jacob Steinhardt
- Abstract要約: BERT-Largeは、MNLI、SST-2、QQPのインスタンスの少なくとも1~4%でBERT-Miniよりも悪い。
ファインタニングノイズはモデルサイズとともに増加し、そのインスタンスレベルの精度は運動量を持つ。
以上の結果から,インスタンスレベルの予測は豊富な情報源を提供することが示唆された。
- 参考スコア(独自算出の注目度): 38.64433236359172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Larger language models have higher accuracy on average, but are they better
on every single instance (datapoint)? Some work suggests larger models have
higher out-of-distribution robustness, while other work suggests they have
lower accuracy on rare subgroups. To understand these differences, we
investigate these models at the level of individual instances. However, one
major challenge is that individual predictions are highly sensitive to noise in
the randomness in training. We develop statistically rigorous methods to
address this, and after accounting for pretraining and finetuning noise, we
find that our BERT-Large is worse than BERT-Mini on at least 1-4% of instances
across MNLI, SST-2, and QQP, compared to the overall accuracy improvement of
2-10%. We also find that finetuning noise increases with model size and that
instance-level accuracy has momentum: improvement from BERT-Mini to BERT-Medium
correlates with improvement from BERT-Medium to BERT-Large. Our findings
suggest that instance-level predictions provide a rich source of information;
we therefore, recommend that researchers supplement model weights with model
predictions.
- Abstract(参考訳): より大きな言語モデルは平均して高い精度を持っていますが、すべてのインスタンス(データポイント)でより優れているのでしょうか?
ある研究は、より大きなモデルは分布外ロバスト性が高く、ある研究は希少部分群において精度が低いことを示唆している。
これらの違いを理解するために、各インスタンスのレベルでこれらのモデルを調査する。
しかし、1つの大きな課題は、個々の予測がトレーニングのランダム性におけるノイズに非常に敏感であることである。
以上の結果から,MNLI,SST-2,QQPのインスタンスの少なくとも1~4%において,BERT-MiniよりもBERT-Largeの方が2~10%の精度で改善していることがわかった。
BERT-Mini から BERT-Medium への改良は BERT-Medium から BERT-Large への改良と相関する。
以上の結果から,インスタンスレベルの予測は豊富な情報源を提供することが示唆され,モデル重みをモデル予測で補うことを研究者に推奨した。
関連論文リスト
- More precise edge detections [0.0]
エッジ検出 (ED) はコンピュータビジョンの基本的なタスクである。
現在のモデルは相変わらず不満足な精度に悩まされている。
より正確な予測のためのモデルアーキテクチャはまだ調査が必要である。
論文 参考訳(メタデータ) (2024-07-29T13:24:55Z) - Ask Your Distribution Shift if Pre-Training is Right for You [67.90850628695563]
実際に、事前訓練されたモデルの微調整は、いくつかのケースではロバスト性を大幅に改善するが、他のケースではまったく改善しない。
分散シフト中のモデルの2つの障害モード – トレーニングデータの補間不足とバイアス – に注目する。
我々の研究は、親指の規則として、事前学習は、粗悪な外挿を緩和するがデータセットのバイアスを緩和する助けとなることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T23:46:28Z) - Uncertainty-aware Parameter-Efficient Self-training for Semi-supervised
Language Understanding [38.11411155621616]
我々は,主に半教師あり学習の手法として,自己学習について研究している。
我々は,新しい不確かさを意識した自己学習フレームワークであるUPETを紹介する。
UPETは性能と効率の面で大幅に向上したことを示す。
論文 参考訳(メタデータ) (2023-10-19T02:18:29Z) - PLATON: Pruning Large Transformer Models with Upper Confidence Bound of
Weight Importance [114.1541203743303]
本稿では,重要度推定の上位信頼度境界(UCB)による重要度スコアの不確かさを捉えるPLATONを提案する。
我々は、自然言語理解、質問応答、画像分類に関するトランスフォーマーモデルを用いて、広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2022-06-25T05:38:39Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - Impact of Pretraining Term Frequencies on Few-Shot Reasoning [51.990349528930125]
事前学習された言語モデルが、事前学習データにおいてあまり頻度の低い用語でどの程度理にかなっているかを検討する。
我々は,様々な数値推論タスクにおいて,GPTに基づく言語モデルに対して,この相関関係の強さを計測する。
LMは数秒の数値推論タスクにおいて高い性能を示すが,本研究の結果は,事前学習データを超えるモデルが実際にどれだけ一般化されるのかという疑問を提起する。
論文 参考訳(メタデータ) (2022-02-15T05:43:54Z) - Few-shot Instruction Prompts for Pretrained Language Models to Detect
Social Biases [55.45617404586874]
我々は、事前訓練された言語モデル(LM)を誘導する数ショットの命令ベース手法を提案する。
大規模なLMは、微調整モデルとよく似た精度で、異なる種類の細粒度バイアスを検出できることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:19:52Z) - Newer is not always better: Rethinking transferability metrics, their
peculiarities, stability and performance [5.650647159993238]
小さなカスタマイズされたデータセット上で、大規模で事前訓練された画像と言語モデルの微調整が人気を集めている。
共分散推定における統計的問題により,Hスコアの性能が低下することが示唆された。
そこで我々は,そのような設定における相対的精度に対する相関性能を補正し,評価することを推奨する。
論文 参考訳(メタデータ) (2021-10-13T17:24:12Z) - On the Stability of Fine-tuning BERT: Misconceptions, Explanations, and
Strong Baselines [31.807628937487927]
BERTのような微調整済みの言語モデルは、様々なNLPベンチマークでリーダーボードを独占する一般的なプラクティスとなっている。
以前の文献では、破滅的な忘れ物と微調整データセットの小さなサイズの2つの潜在的な原因が明らかになった。
どちらの仮説も微調整の不安定性を説明できないことを示す。
論文 参考訳(メタデータ) (2020-06-08T19:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。