論文の概要: Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers
- arxiv url: http://arxiv.org/abs/2210.16298v1
- Date: Fri, 28 Oct 2022 17:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:13:21.334188
- Title: Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers
- Title(参考訳): テキスト分類器のモデルロバスト性向上のためのアンサンブル法の検討
- Authors: Jieyu Zhao, Xuezhi Wang, Yao Qin, Jilin Chen, Kai-Wei Chang
- Abstract要約: 既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
- 参考スコア(独自算出の注目度): 66.36045164286854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large pre-trained language models have shown remarkable performance over the
past few years. These models, however, sometimes learn superficial features
from the dataset and cannot generalize to the distributions that are dissimilar
to the training scenario. There have been several approaches proposed to reduce
model's reliance on these bias features which can improve model robustness in
the out-of-distribution setting. However, existing methods usually use a fixed
low-capacity model to deal with various bias features, which ignore the
learnability of those features. In this paper, we analyze a set of existing
bias features and demonstrate there is no single model that works best for all
the cases. We further show that by choosing an appropriate bias model, we can
obtain a better robustness result than baselines with a more sophisticated
model design.
- Abstract(参考訳): 大規模な事前訓練された言語モデルは、ここ数年で顕著なパフォーマンスを示している。
しかし、これらのモデルは時にデータセットから表面的な特徴を学習し、トレーニングシナリオと異なる分布に一般化することはできない。
分散環境におけるモデルのロバスト性を改善するために、これらのバイアスフィーチャへのモデルの依存を減らすために、いくつかのアプローチが提案されている。
しかし、既存の手法は通常、様々なバイアス機能を扱うために固定された低容量モデルを使用しており、これらの機能の学習可能性を無視している。
本稿では,既存のバイアス特徴のセットを分析し,すべてのケースに最適なモデルが存在しないことを示す。
さらに,適切なバイアスモデルを選択することで,より洗練されたモデル設計によるベースラインよりも優れたロバスト性が得られることを示す。
関連論文リスト
- Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Guide the Learner: Controlling Product of Experts Debiasing Method Based
on Token Attribution Similarities [17.082695183953486]
一般的な回避策は、二次バイアスモデルに基づいてトレーニング例を再重み付けすることで、堅牢なモデルをトレーニングすることである。
ここでは、バイアスドモデルが機能をショートカットする、という前提がある。
本稿では,主要モデルと偏りのあるモデル属性スコアの類似性を,プロダクト・オブ・エキスパートズ・ロス関数に組み込んだ微調整戦略を提案する。
論文 参考訳(メタデータ) (2023-02-06T15:21:41Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - End-to-End Weak Supervision [15.125993628007972]
下流モデルを直接学習するためのエンドツーエンドアプローチを提案する。
下流テストセットにおけるエンドモデル性能の観点から,先行作業よりも性能が向上したことを示す。
論文 参考訳(メタデータ) (2021-07-05T19:10:11Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。